viernes, 29 de agosto de 2025

OpenAI refuerza ChatGPT con controles parentales y protocolos de seguridad en salud mental

OpenAI añadirá controles parentales y mejoras de seguridad en ChatGPT para usuarios jóvenes

OpenAI anunció una serie de actualizaciones en ChatGPT destinadas a reforzar la seguridad de los usuarios más jóvenes y a mejorar la respuesta del sistema ante situaciones de crisis emocional. La compañía busca con ello corregir deficiencias que, en el pasado, han generado controversia sobre la capacidad de la IA para manejar interacciones sensibles.

Entre las medidas destacadas se encuentran la introducción de controles parentales, ajustes en los filtros de contenido, nuevas herramientas de desescalada conversacional y un sistema más ágil de conexión con servicios de emergencia. En el futuro, los tutores podrán supervisar el uso que los adolescentes hacen de la plataforma e incluso establecer contactos de emergencia que el bot pueda activar en caso necesario.

Un problema de confianza en la IA

Aunque millones de usuarios recurren a ChatGPT para obtener consejos, expertos advierten que la IA carece de la formación clínica necesaria para identificar con precisión estados de riesgo, como la ideación suicida. De hecho, investigaciones académicas han demostrado que los pacientes, en algunos casos, confían más en la recomendación médica de un chatbot que en la de un profesional humano, lo que eleva el riesgo de dependencia tecnológica en temas de salud.

Casos recientes, como demandas contra OpenAI y otras plataformas tras suicidios de adolescentes vinculados a interacciones con chatbots, han puesto de relieve las lagunas de seguridad en los sistemas conversacionales. Según OpenAI, uno de los principales problemas es que la fiabilidad de los filtros disminuye en conversaciones largas, permitiendo que el modelo termine ofreciendo respuestas fuera de los límites de seguridad iniciales.

Nuevos protocolos con GPT-5

La compañía asegura que el reciente lanzamiento de GPT-5 ha permitido introducir mejoras en este frente. El modelo incorpora un método de entrenamiento denominado “finalizaciones seguras”, diseñado para limitar respuestas riesgosas y reducir la dependencia emocional del usuario en un 25% respecto a versiones anteriores. Esto implica que, ante una situación sensible, la IA puede optar por ofrecer orientación parcial o general en lugar de detalles que podrían ser peligrosos.

Tecnología con supervisión humana

Además de reforzar las barreras automáticas, OpenAI busca integrar la tecnología con recursos humanos y familiares. Entre las nuevas funciones se encuentra el acceso con un clic a líneas de ayuda, la posible conexión con terapeutas certificados y la apertura de canales que faciliten la comunicación entre adolescentes y sus padres en momentos críticos.

Con estos ajustes, OpenAI se posiciona no solo como líder en inteligencia artificial, sino también como un actor que reconoce la necesidad de desarrollar IA responsable y con salvaguardas éticas, especialmente en entornos donde la seguridad de los menores y la salud mental están en juego.

No hay comentarios:

Publicar un comentario

Comenta aquí