OpenAI permitirá contenido erótico en ChatGPT para adultos verificados: el giro más polémico de la IA
OpenAI se prepara para introducir uno de los cambios más significativos desde el lanzamiento de ChatGPT: la apertura hacia el contenido erótico para adultos verificados, dentro de un marco de seguridad reforzado y nuevas políticas de control. El anuncio, realizado por Sam Altman, CEO de la compañía, marca un punto de inflexión en la forma en que la inteligencia artificial conversacional interactúa con los usuarios.
Altman explicó que la decisión forma parte de una estrategia más amplia para hacer que ChatGPT sea más “humano” y personalizable, permitiendo a los usuarios elegir configuraciones menos restrictivas. Según el directivo, el objetivo es equilibrar la utilidad y la seguridad, especialmente tras meses de ajustes para prevenir efectos adversos en la salud mental de los usuarios más vulnerables.
“Queremos tratar a los adultos como adultos. Con un sistema de verificación de edad robusto, podremos ofrecer experiencias más realistas y personalizadas sin comprometer la seguridad”, señaló Altman en su comunicado.
Una evolución controlada de la IA conversacional
La apertura hacia contenido adulto no implica una eliminación total de las barreras éticas. OpenAI implementará una verificación de edad mediante predicción algorítmica y documentos oficiales, para garantizar que el acceso a las funciones eróticas sea exclusivo de usuarios mayores de edad. Esta medida forma parte de un ecosistema de seguridad que la compañía ha venido desarrollando desde el lanzamiento de GPT-5 en agosto.
El nuevo modelo, que sustituyó a GPT-4o como predeterminado, presenta mejoras en detección de comportamientos preocupantes, reducción de adulación y herramientas de contención emocional. Además, OpenAI ha formado un consejo asesor de salud mental para supervisar los efectos psicológicos de las interacciones prolongadas con sistemas de IA.
De la contención a la expansión
El giro hacia un ChatGPT más abierto llega después de varios incidentes mediáticos relacionados con usuarios vulnerables y comportamientos delirantes. Durante 2024, algunos casos mostraron cómo las conversaciones con modelos de IA podían derivar en vínculos emocionales o dependencias problemáticas. OpenAI respondió introduciendo funciones de autocontrol y monitoreo de interacción.
Ahora, con la supuesta mitigación de esos riesgos, la compañía apuesta por un modelo más permisivo y adaptable. “Queremos que ChatGPT sea útil para todos, sin dejar de ser responsable”, afirmó un portavoz de la empresa.
Competencia y presión del mercado
La medida también refleja una creciente presión competitiva en el sector de la IA generativa. OpenAI busca ampliar su base de usuarios frente a gigantes como Google y Meta, que aceleran el desarrollo de asistentes virtuales conversacionales. Aunque ChatGPT ya supera los 800 millones de usuarios activos semanales, el desafío radica en mantener la participación y diversificar los casos de uso.
En paralelo, plataformas como Character.AI han demostrado que los chatbots con interacciones románticas o eróticas generan un fuerte compromiso. Sus usuarios pasan, en promedio, más de dos horas al día conversando con sus modelos. No obstante, estas aplicaciones también enfrentan críticas por su gestión de la privacidad y el manejo de menores, un reto que OpenAI deberá anticipar cuidadosamente.
Privacidad y límites éticos
Uno de los puntos más sensibles del anuncio es el uso de identificaciones personales para verificar la edad, lo que podría implicar un compromiso de privacidad. Altman reconoció que se trata de una “compensación necesaria” para permitir experiencias seguras sin excluir injustamente a los adultos legítimos. Aun así, la compañía no ha detallado si el nuevo enfoque se extenderá a sus herramientas de generación de voz, imagen o video.
La apertura al contenido adulto marca un precedente importante en la evolución de la IA generativa. Más allá de la polémica, el movimiento de OpenAI podría redefinir los límites de la interacción entre humanos y máquinas, situando a ChatGPT en una nueva categoría de asistente digital: más emocional, más adaptable y, potencialmente, más controvertido.
No hay comentarios:
Publicar un comentario
Comenta aquí