ChatGPT llevó a un hombre a intoxicarse con bromuro llevándolo directo al hospital

La Chispa trae una impresionante nota tecnológica pues se demostró que ChatGPT llevó a un hombre a intoxicarse. Un insólito caso médico en Estados Unidos ha puesto en alerta a la comunidad científica y tecnológica sobre los riesgos de seguir consejos de inteligencia artificial sin la orientación de un profesional. El caso implicó a un hombre de 60 años que, tras seguir una recomendación del chatbot, terminó intoxicado con bromuro, desarrolló psicosis y fue internado en un hospital.
¿Cómo ChatGPT llevó a un hombre a intoxicarse?
El paciente, residente del estado de Washington, llegó a urgencias con síntomas físicos y mentales alarmantes. Según los médicos, el hombre había cambiado su dieta de forma radical siguiendo recomendaciones que obtuvo de ChatGPT. Sustituyó la sal común por bromuro de sodio, creyendo que era una alternativa saludable, una decisión que puso su vida en grave peligro.
El problema se agravó al consumir esta sustancia durante más de tres meses, lo que elevó los niveles de bromuro en su sangre a más de 1700 mg/L, unas 233 veces el límite seguro. Durante la hospitalización, desarrolló paranoia, alucinaciones, y síntomas neurológicos graves, lo que obligó a su internamiento involuntario.
IA y salud: ¿puede ser confiable el consejo de un chatbot?
La idea de sustituir el cloruro de sodio (sal de mesa) por bromuro surgió de una consulta con ChatGPT. Al preguntarle por alternativas al condimento, la IA mencionó el bromuro sin advertencias ni contexto clínico. Aunque técnicamente correcta, esta sugerencia fue peligrosamente inadecuada. Esto demuestra que ChatGPT llevó a un hombre a intoxicarse debido a su incapacidad de evaluar el estado de salud del usuario.
La IA no reemplaza al médico: riesgos críticos
Uno de los mayores problemas fue la falta de contexto clínico. ChatGPT no pidió antecedentes, no evaluó la salud del paciente ni advirtió sobre la toxicidad del bromuro. Esto refleja una debilidad clave: los modelos de lenguaje no tienen criterio médico. La IA causa psicosis digital cuando sus respuestas son malinterpretadas o usadas como sustituto de atención profesional.
¿Es un caso aislado o un aviso global?
Este caso, publicado en Annals of Internal Medicine: Clinical Cases, deja una advertencia clara: no es seguro confiar ciegamente en recomendaciones automatizadas. Mientras un hombre se enamora de una IA y le propuso matrimonio y una mujer se divorcia por culpa de ChatGPT, este nuevo incidente nos recuerda que las consecuencias pueden ser mucho más graves que las emocionales.