OpenAI ha decidido retirar de manera inmediata una nueva función de ChatGPT que permitía a los usuarios hacer «rastreables» sus conversaciones privadas con la herramienta de inteligencia artificial. Esta decisión se produce tras las preocupaciones sobre la posibilidad de que se compartieran accidentalmente datos sensibles.
El anuncio fue realizado por Dane Stuckey, director de seguridad de la información de OpenAI, a través de una publicación en redes sociales. En su mensaje, Stuckey describió la función como un «experimento de corta duración» destinado a ayudar a los usuarios a descubrir conversaciones útiles, pero subrayó que su eliminación responde al compromiso de la empresa con «la seguridad y la privacidad».
Preocupaciones sobre la indexación de datos
Según Stuckey, la función había generado «demasiadas oportunidades para que la gente compartiese accidentalmente cosas que no quería». Como consecuencia, OpenAI iniciará el proceso de eliminación del contenido indexado en motores de búsqueda como Google, con la previsión de que este cambio esté implementado para todos los usuarios a lo largo de la mañana del día siguiente.
La controversia comenzó cuando la redactora de newsletter Luiza Jarovsky publicó en la plataforma X, anteriormente conocida como Twitter, que se estaban haciendo públicas conversaciones confidenciales con ChatGPT. Jarovsky alertó sobre el hecho de que, al usar la función de compartir del chatbot, los usuarios permitían que sus conversaciones fueran indexadas por Google.
Riesgos de privacidad y reacciones de los usuarios
La función requería que los usuarios tomaran medidas explícitas para compartir sus conversaciones, como marcar una casilla que indicaba «hacer que este chat sea rastreable» y aceptar que «aparecería en las búsquedas web». Aunque las conversaciones compartidas eran anonimizadas, lo que reducían el riesgo de identificación personal, muchos usuarios expresaron su preocupación sobre la posibilidad de que algunos pudieran marcar la casilla sin leer los términos, exponiéndose así a compartir información privada o embarazosa.
En su publicación inicial, Jarovsky ofreció ejemplos de usuarios que compartían sus más profundos miedos con ChatGPT, abarcando temas desde acoso hasta sesiones de terapia improvisadas. Estos testimonios resaltan la vulnerabilidad de los usuarios al interactuar con tecnologías avanzadas de inteligencia artificial.
Business Insider ha intentado contactar tanto a Jarovsky como a representantes de OpenAI para obtener declaraciones adicionales, pero hasta el momento no ha recibido respuesta. La retirada de esta función pone de manifiesto la creciente atención sobre la privacidad y la protección de datos en el ámbito de la inteligencia artificial.
