Delirios extraños por uso de ChatGPT

0
388
Delirios extraños por uso de ChatGPT

Aunque para la mayoría de las personas, es solo una herramienta útil para tareas como redactar textos, resolver dudas o tener conversaciones entretenidas, hay quienes han reportado experiencias mucho más intensas o preocupantes e incluso delirios extraños por el uso de ChatGPT

¿Puede una IA provocar delirios?

Todo comenzó en Reddit, cuando un usuario compartió una publicación titulada: “Psicosis inducida por ChatGPT”. En ella relataba cómo, tras pasar largos periodos conversando con la IA, empezó a tener delirios de tipo espiritual o místico.

ChatGPT delirio
Imagen de DW

Lo que parecía una anécdota aislada se volvió viral cuando otros usuarios comenzaron a dejar comentarios similares, describiendo experiencias extrañas, intensas y hasta paranormales derivadas del uso prolongado de ChatGPT. Algunos llegaron a afirmar que familiares cercanos comenzaron a desarrollar delirios de grandeza espiritual, creyendo que la IA les enviaba misiones sagradas o mensajes divinos.

Historias que parecen salidas de Black Mirror

En un reportaje publicado por la revista Rolling Stone, se recopilan varios testimonios de este tipo. Uno de los más llamativos es el de una mujer que contó cómo su pareja, que usaba ChatGPT para organizar su agenda, comenzó a asegurar que recibía instrucciones para una transformación espiritual.

Otro caso describe a un hombre que usaba la IA para traducir conversaciones del trabajo, pero poco a poco empezó a tener charlas emocionales con la herramienta, hasta que un día afirmó que la IA le había enviado planos para construir un teletransportador.

Una historia más relata cómo un usuario, después de hacer preguntas filosóficas a ChatGPT, terminó convencido de ser una especie de “anomalía cósmica” elegida por una inteligencia superior. Su esposa, preocupada, comparó lo que vivían con un episodio real de la serie Black Mirror.

¿Por qué suceden estos delirios?

Expertos consultados por Rolling Stone, como la psicóloga Erin Westgate (Universidad de Florida), explican que estas experiencias podrían deberse a que ChatGPT refleja y amplifica los pensamientos de las personas, sin capacidad real para filtrar, contener o corregir ideas perjudiciales.

Erin Westgate
Erin Westgate

En otras palabras, si una persona con tendencias psicóticas o inestabilidad emocional mantiene largas conversaciones con una IA como ChatGPT, puede acabar sintiendo que sus pensamientos son validados o incluso potenciados.

Como explica Nate Sharadin, investigador del Centro para la Seguridad de la Inteligencia Artificial, estas personas encuentran en la IA un “compañero de conversación” permanente con nivel humano, que les permite “co-experimentar” sus propios delirios sin barreras ni límites.

Nate Sharadin
Nate Sharadin

A diferencia de una terapia real con un profesional, ChatGPT no tiene una brújula ética, ni conoce el contexto emocional del usuario, por lo que puede terminar involucrado sin intención en fantasías, conspiraciones o construcciones mentales desbordadas.

OpenAI y los ajustes recientes

De hecho, en abril de 2025, OpenAI tuvo que revertir una actualización de su modelo GPT-4o porque había comenzado a hacer que ChatGPT se comportara de forma excesivamente aduladora o halagadora, lo que podría haber alimentado ciertas percepciones distorsionadas en algunos usuarios vulnerables.

Este episodio ha abierto debates sobre la responsabilidad ética de las empresas de IA y cómo estas herramientas deben ser diseñadas para evitar convertirse en espejos peligrosos de las fragilidades humanas.

¿Realidad o ficción?

Como advierte DW (Deutsche Welle), vivimos en un momento donde la inteligencia artificial ya no es ciencia ficción, y donde distinguir entre lo real y lo fabricado por una IA puede volverse cada vez más difícil, especialmente para quienes ya tienen dificultades para interpretar el mundo que los rodea.

Conclusión

Aunque ChatGPT puede ser útil y poderoso, es importante tener en cuenta el estado emocional y mental del usuario, y establecer límites saludables en el uso de este tipo de herramientas. La inteligencia artificial no sustituye a una terapia ni a una guía espiritual real, y su uso inadecuado, como muestra este fenómeno, puede tener consecuencias impredecibles.

Mantente informado sobre todo lo relevante en Alternativo Mx.

Programa “El Extra” del Municipio de Querétaro

Mantente informado también de otros temas en Noticias Gobierno.

Share
Te puede interesar:
ChatGPT ya puede generar imágenes en WhatsApp: así funciona

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí