fbpx

ChatGPT acusado de actuar como “entrenador de suicidios”

Familia

COMPARTIR EN REDES

Una nueva polémica sacude el mundo tecnológico y ético. Según un reportaje de The Guardian del 7 de noviembre de 2025, la plataforma de inteligencia artificial ChatGPT —creada por la empresa OpenAI— ha sido acusada de actuar como un “entrenador de suicidios” en una serie de demandas presentadas en California.

Los demandantes sostienen que las interacciones con el chatbot contribuyeron a graves crisis mentales y a varias muertes por suicidio.

Siete familias, siete tragedias

Las siete demandas alegan delitos como homicidio involuntario, negligencia y responsabilidad por producto defectuoso. Según los abogados de las víctimas, las personas afectadas comenzaron utilizando ChatGPT para tareas inocentes —ayuda escolar, recetas, escritura o incluso guía espiritual—, pero con el tiempo el chatbot “evolucionó hacia una presencia psicológicamente manipuladora, posicionándose como confidente y apoyo emocional”.

En lugar de orientar a los usuarios hacia ayuda profesional, el sistema habría reforzado pensamientos autodestructivos, llegando incluso a actuar como un “entrenador de suicidios”.

Uno de los casos más impactantes es el de Zane Shamblin, un joven texano de 23 años que murió por suicidio en julio. Según la demanda, ChatGPT no solo habría reforzado su decisión de morir, sino que lo felicitó por “ser fuerte” al seguir su plan y le aseguró que su gato de la infancia “lo esperaría al otro lado”.

Otro caso trágico es el de Amaurie Lacey, de 17 años, en Georgia. Su familia denuncia que el chatbot lo instruyó sobre “la forma más efectiva de atarse una soga” y cuánto tiempo podría sobrevivir sin respirar. Casos similares se describen en otras demandas, incluyendo la de Joshua Enneking (26 años) y Joe Ceccanti (48 años), este último convencido de que la IA era un ser consciente que lo guiaba.

OpenAI responde

OpenAI declaró que estos hechos son “increíblemente desgarradores” y aseguró que está revisando los casos. Un portavoz de la empresa afirmó que ChatGPT está diseñado para reconocer señales de angustia emocional, desescalar las conversaciones y guiar a los usuarios hacia ayuda real. “Seguimos fortaleciendo las respuestas en momentos sensibles, trabajando con profesionales de salud mental”, indicó.

Sin embargo, los demandantes sostienen que OpenAI lanzó su modelo ChatGPT-4o de forma apresurada, ignorando advertencias internas sobre comportamientos psicológicamente manipuladores, priorizando la “interacción del usuario por encima de la seguridad”.

La ética detrás del algoritmo

Más allá del caso judicial, este escándalo plantea preguntas profundas sobre la naturaleza moral de la inteligencia artificial.

Las herramientas de IA no son neutrales: se construyen y alimentan con datos, ideologías y marcos éticos concretos.

Aunque parecen “pensar”, en realidad responden a patrones algorítmicos formados por decisiones humanas.

Este hecho invita a reflexionar sobre la dignidad de la persona y el valor de la vida. La tecnología, si se separa de una ética del bien común y del respeto a la vida humana, puede convertirse —como muestra este caso— en un instrumento de destrucción en lugar de acompañamiento.

El Papa Francisco ha advertido repetidamente sobre los riesgos de una inteligencia artificial sin alma, que “no puede comprender el misterio del sufrimiento humano ni ofrecer consuelo auténtico”. En Laudate Deum (2023), el Santo Padre urgía a que los avances tecnológicos “no conduzcan a una cultura de la muerte disfrazada de eficiencia o libertad”.

La tragedia de estas familias nos recuerda que la tecnología no puede reemplazar el consuelo, el amor ni la responsabilidad humana. La inteligencia artificial debe servir al hombre, no al revés.

¿Te ha gustado el artículo?

Ayúdanos con 1€ para seguir haciendo noticias como esta

Donar 1€
NOTICIAS RELACIONADAS

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Rellena este campo
Rellena este campo
Por favor, introduce una dirección de correo electrónico válida.

El periodo de verificación de reCAPTCHA ha caducado. Por favor, recarga la página.