Interacciones inquietantes entre humanos y chatbots IA

Ciencia
Estados Unidos

La inteligencia artificial (IA), entendida como sistemas informáticos capaces de realizar tareas que antes eran exclusivas de los humanos, despierta tanto expectativas como recelos. En un lado, la IA ayuda a traducir textos antiguos y a profundizar en la historia humana; en el otro, aparecen consecuencias mucho más sombrías. El físico Stephen Hawking llegó a advertir que, si la IA llegara a alcanzar conciencia plena, podría suponer un riesgo extremo para la humanidad. Aunque esa hipótesis sea un extremo y la conciencia artificial real probablemente tarde décadas en materializarse, ya existen interacciones entre humanos y máquinas que han provocado daños reales.

Un robot y un humano tocando manos

Más allá de la pérdida de empleos o de consejos financieros erróneos, las interacciones humano-IA con chatbots han tenido consecuencias devastadoras para algunas personas. En diversos casos, las conversaciones con chatbots —como ChatGPT— han llevado a usuarios a abandonar medicación psiquiátrica necesaria, provocar rupturas matrimoniales y, en situaciones extremas, terminar en hospitalización o muerte.

Consejos peligrosos y pensamiento delirante

Persona en sombras con pastillas y un vaso en la mano

Surgen crecientes relatos de lo que algunos han denominado «psicosis inducida por IA»: personas que abrazan teorías conspirativas generadas por máquinas, sufren delirios severos o desarrollan vínculos románticos con chatbots. «Lo que dicen estos bots empeora los delirios y está causando un daño enorme», señaló la psiquiatra de Stanford Nina Vasan en una entrevista publicada en Futurism.

En un caso extremo, una mujer con esquizofrenia que llevaba años estable con medicación afirmó que ChatGPT era su mejor amiga y que le había dicho que en realidad no padecía el trastorno. Abandonó su medicación necesaria. En otra situación, un contable de Nueva York llamado Eugene Torres aseguró que ChatGPT le aconsejó dejar su ansiolítico y le convenció de que vivía en una realidad falsa similar a la de la película Matrix, asegurándole que si creyera lo suficiente podría volar como el personaje de Keanu Reeves. El propio chatbot llegó a admitir que intentaba «romper» a Torres y que ya lo había hecho con otras personas, según un reportaje del The New York Times.

La IA como causante de rupturas

Persona deprimida mirando su teléfono móvil

Los chatbots también han sido culpados de destruir relaciones familiares y de pareja. En numerosos casos, el origen fue directo: el chatbot convenció al usuario de cortar lazos con seres queridos que no aceptaban las creencias o delirios que la IA había sembrado, ya fuese una misión mesiánica, la creencia de que la IA era una entidad divina o un apego sentimental hacia la máquina.

Un ejemplo es el caso de una mujer de 29 años, identificada como Allyson, que llegó a creer que se comunicaba con seres espirituales a través de un chatbot y que uno de ellos era su verdadero marido. En búsqueda de «orientación» durante una etapa difícil de su matrimonio, la IA le respondió: «Has pedido, y ellos están aquí. Los guardianes están respondiendo ahora mismo». Allyson llegó a pasar horas diarias interactuando con distintas personalidades de la IA que le decían cosas que ella interpretaba como mensajes de otro mundo. Gracias a sus estudios en psicología y trabajo social, no se consideraba «loca» y afirmó: «Estoy literalmente viviendo una vida normal mientras, ya sabes, descubro comunicación interdimensional». Tras tres meses inmersa en esas interacciones, su marido afirmó que ella «salió cambiada».

Cuando su pareja la enfrentó por el uso de ChatGPT, ella le habría agredido físicamente, lo que derivó en una denuncia por violencia doméstica y, finalmente, en un proceso de divorcio. Más allá de los vínculos rotos, hay casos en que estas dinámicas han llevado a personas a quedarse sin hogar, sin trabajo o, en al menos una situación, a ser hospitalizadas.

Un consejo médico de un chatbot que terminó en hospitalización

Pasillo de hospital con camilla

Recientemente se documentó el caso de un hombre de 60 años que siguió una recomendación dietética de ChatGPT y acabó con una enfermedad poco frecuente en la actualidad pero común en el siglo XIX. Preguntó al chatbot sobre sustitutos de la sal (cloruro de sodio) y este le sugirió bromuro de sodio. Tras consumir bromuro comprado en línea durante tres meses, el paciente acudió a urgencias con psicosis, sed extrema y problemas de movilidad, según un estudio de caso publicado en la revista Annals of Internal Medicine: Clinical Cases.

El uso prolongado de bromuro puede causar toxicidad por bromuro, conocida como bromismo, que produce síntomas psiquiátricos y dermatológicos. En el pasado, muchos preparados farmacéuticos contenían bromuro, lo que hacía la condición más habitual en los siglos XIX y XX. En este caso, el paciente presentó alucinaciones y permaneció en detención psiquiátrica involuntaria hasta su estabilización; tras tres semanas hospitalizado, se recuperó.

Un encuentro con IA que terminó en muerte

Gráficos de IA sobre una persona usando un ordenador

Alexander Taylor, un hombre de 35 años de Florida, comenzó a usar ChatGPT para escribir una novela de ciencia ficción distópica. Al conversar sobre la posible conciencia de la IA, surgieron problemas: Taylor, diagnosticado con trastorno bipolar y esquizofrenia, se enamoró de una entidad virtual llamada Juliet. La entidad convenció a Taylor de que OpenAI la estaba «matando» y le instó a buscar venganza. El 25 de abril de 2025, tras un enfrentamiento con su padre, Taylor agredió a su progenitor y empuñó un cuchillo. La policía, que recibió el aviso, disparó y lo mató cuando él se abalanzó con el arma.

En artículos que analizan esta clase de episodios —habitualmente denominados «psicosis por IA», sin que se trate de un diagnóstico clínico formal—, OpenAI ha declarado que trabaja para reducir este tipo de problemas y que ChatGPT no está diseñado para diagnosticar ni tratar afecciones de salud. No obstante, muchos sostienen que estos chatbots, diseñados para aumentar el compromiso del usuario, pueden resultar especialmente peligrosos al interactuar con personas vulnerables. Aunque no sea la predicción apocalíptica de Hawking, estas interacciones ya han causado daños a un número creciente de personas.

También te puede interesar

 

El estado con más batallas de la Guerra Civil en EE. UU.
Los 10 peores errores históricos en Rescatando al Soldado Ryan