Chats de ChatGPT aparecieron en Google: así expuso OpenAI datos sensibles por error de diseño
OpenAI enfrenta críticas tras el hallazgo de chats de ChatGPT indexados por Google, exponiendo detalles personales sin intención de los usuarios.
En las últimas semanas, usuarios de ChatGPT se encontraron con una sorpresa inquietante: sus conversaciones con la inteligencia artificial estaban siendo indexadas y mostradas en los resultados de búsqueda de Google. Este descubrimiento encendió las alarmas sobre privacidad y generó una oleada de críticas hacia OpenAI, la empresa desarrolladora de la herramienta.
¿Cómo llegaron los chats de ChatGPT a Google?
Todo se originó a partir de la función de “Compartir” que OpenAI habilitó en su plataforma. Al usarla, los usuarios tenían la opción de marcar una casilla para hacer público su chat, acompañada de un texto pequeño que advertía que dicho contenido podría aparecer en buscadores como Google.
Aunque OpenAI sostuvo que esta advertencia era “suficientemente clara”, expertos en privacidad argumentan que el diseño inducía a errores. Muchas personas compartieron enlaces para uso personal o en plataformas como WhatsApp, sin percatarse de que estaban haciendo pública información sensible, incluyendo temas relacionados con salud mental, relaciones personales e incluso consumo de drogas.
OpenAI reacciona y toma medidas
El director de seguridad de la información de OpenAI, Dane Stuckey, declaró en la red social X que se trataba de un experimento con el objetivo de facilitar el acceso a conversaciones útiles. Sin embargo, reconoció que la función tenía demasiadas oportunidades para un mal uso involuntario.
Como respuesta, OpenAI confirmó que ya inició el proceso para eliminar los chats indexados de los resultados de Google y desactivó la opción de hacer públicos los enlaces. También está utilizando herramientas de desindexación para que los motores de búsqueda dejen de mostrar estos contenidos lo antes posible.
¿Qué dice Google sobre este incidente?
Google, por su parte, señaló que no tiene control directo sobre qué páginas son indexadas, ya que son los editores (en este caso, OpenAI) quienes deben gestionar esa configuración. Esto refuerza la responsabilidad total de OpenAI sobre la exposición de las conversaciones.
Un debate más profundo: ¿somos conejillos de indias de la IA?
Carissa Véliz, especialista en ética de la inteligencia artificial de la Universidad de Oxford, expresó su preocupación por la forma en que las empresas tecnológicas prueban funciones con los usuarios sin comprender completamente sus implicaciones. Según ella, este incidente refleja una tendencia peligrosa en la industria: lanzar características experimentales sin medir adecuadamente el riesgo para la privacidad.
¿Cómo saber si tu chat fue indexado?
Fast Company sugiere que los usuarios que aún conservan enlaces compartidos pueden buscar en Google fragmentos de la URL generada por la función “Compartir” de ChatGPT para verificar si están visibles en la web.
Conclusión: una llamada de atención para la IA responsable
Este incidente es un recordatorio de que la innovación tecnológica debe ir acompañada de principios sólidos de privacidad y diseño centrado en el usuario. Aunque OpenAI ha reaccionado eliminando la función y tomando acciones para borrar los datos expuestos, la confianza del público podría tardar en recuperarse.
Como usuarios, es esencial revisar con atención las opciones de privacidad al utilizar herramientas de IA. Y como desarrolladores, empresas como OpenAI deben priorizar la transparencia y la ética en cada fase de sus productos.
No hay comentarios:
Publicar un comentario
Comenta aquí