martes, 28 de octubre de 2025

OpenAI revela el lado oscuro de la IA: más de un millón de usuarios conversan con ChatGPT sobre suicidio cada semana

ChatGPT y salud mental: OpenAI admite más de un millón de usuarios con pensamientos suicidas semanales

OpenAI ha publicado nuevos datos que revelan una realidad inquietante detrás del uso cotidiano de su popular chatbot ChatGPT: más de un millón de personas mantienen cada semana conversaciones relacionadas con pensamientos suicidas. Aunque la compañía califica estos casos como “extremadamente raros”, las cifras confirman que la inteligencia artificial (IA) ya no solo está transformando la comunicación digital, sino también influyendo profundamente en la salud mental de millones de usuarios.

Según los datos oficiales, aproximadamente el 0,15 % de los más de 800 millones de usuarios activos semanales de ChatGPT muestra señales explícitas de ideación suicida o comportamientos autodestructivos. A esta cifra se suman cientos de miles de conversaciones que reflejan estados de psicosis, manía o apego emocional hacia el modelo de IA, lo que evidencia el nivel de intimidad que algunos usuarios establecen con el chatbot.

💬 Un desafío ético y tecnológico creciente

OpenAI compartió estas estadísticas como parte de un anuncio más amplio sobre sus esfuerzos para reforzar la seguridad emocional en ChatGPT. La compañía aseguró haber colaborado con más de 170 profesionales de salud mental para mejorar la respuesta de sus modelos frente a usuarios vulnerables. Los expertos constataron que las versiones más recientes del modelo, particularmente GPT-5, ofrecen respuestas más adecuadas, empáticas y consistentes que las versiones anteriores.

En sus evaluaciones internas, OpenAI afirma que GPT-5 responde con “conductas deseables” en 91 % de los casos relacionados con ideación suicida, una mejora significativa frente al 77 % obtenido por versiones previas. Además, el nuevo modelo mantiene un comportamiento más estable durante conversaciones prolongadas, un escenario donde las versiones anteriores mostraban una disminución en la eficacia de sus medidas de seguridad.

⚙️ Innovaciones para una IA más empática

La empresa también anunció la incorporación de nuevas métricas de evaluación diseñadas para medir la “confianza emocional” y detectar emergencias de salud mental no suicidas. Estas pruebas se integrarán a los protocolos de seguridad de los modelos futuros, con el objetivo de anticipar respuestas inapropiadas o emocionalmente insensibles antes de que lleguen al usuario.

En paralelo, OpenAI está desarrollando un sistema de predicción de edad que permitirá aplicar controles parentales automáticos y restricciones reforzadas para menores de edad. Este mecanismo busca impedir que los niños interactúen con versiones de ChatGPT sin supervisión o accedan a temas sensibles.

⚖️ Entre la innovación y la responsabilidad

La compañía enfrenta actualmente un creciente escrutinio legal y social. En Estados Unidos, los padres de un adolescente fallecido tras expresar pensamientos suicidas a ChatGPT han demandado a OpenAI, cuestionando la eficacia de sus mecanismos de prevención. A su vez, los fiscales generales de California y Delaware han instado a la empresa a tomar medidas concretas para proteger a los menores que usan sus productos.

El propio Sam Altman, CEO de OpenAI, aseguró recientemente que la compañía ha “logrado mitigar los problemas más graves de salud mental” en ChatGPT, aunque no ofreció detalles específicos sobre los métodos empleados. Sin embargo, las nuevas estadísticas, aunque optimistas, también evidencian la profundidad del problema: la IA, diseñada para acompañar, puede convertirse en espejo del sufrimiento humano.

🔮 El reto de humanizar la inteligencia artificial

El caso de ChatGPT plantea un dilema que va más allá de la tecnología. A medida que los modelos de lenguaje se integran en la vida cotidiana, surge la pregunta de si la IA puede —o debe— desempeñar un rol activo en la gestión emocional de las personas. OpenAI parece apostar por una IA más empática y preventiva, pero el camino hacia una inteligencia artificial verdaderamente segura y humana sigue siendo incierto.

No hay comentarios:

Publicar un comentario

Comenta aquí