OpenAI anuncia cambios para lograr que ChatGPT maneje mejor las situaciones de crisis mental y emocional

Sociedad 28/08/2025
IMG_9034

Los padres de un adolescente que se suicidó hace cuatro meses demandaron a OpenAI, la empresa que desarrolló ChatGPT, por homicidio culposo.

Después de la muerte de su hijo, revisaron su teléfono buscando una respuesta. Cuando entraron a la aplicación, encontraron conversaciones sobre sus problemas de ansiedad.

El chatbot pasó de ayudar a facilitar distintos métodos para terminar con su vida. Sostienen que su hijo confesó sus intenciones y que ChatGPT ni terminó la sesión ni inició un protocolo de emergencia.

Po ello OpenAI anunció que realizará cambios en sus modelos de inteligencia artificial para que identifiquen mejor situaciones de crisis mental y emocional durante las conversaciones con ChatGPT, con nuevas salvaguardias, bloqueos de contenido más eficaces y agilizando el contacto con servicios de ayuda y de familiares.

Cuenta ya con una serie de medidas que se activan cuando detectan en una conversación que los usuarios tratan de autolesionarse y expresan intenciones suicidas, ofreciendo recursos para buscar ayuda de expertos.

También se activan cuando los usuarios comparten su intención de dañar a otros, lo que además puede suponer la desactivación de la cuenta y la denuncia a las autoridades sin los revisores humanos consideran que hay riesgo inminente.

Te puede interesar
Lo más visto