domingo, octubre 26, 2025

OpenAI retira función de ChatGPT por preocupaciones de privacidad

OpenAI elimina una nueva función de ChatGPT que permitía indexar conversaciones privadas tras críticas sobre privacidad.
por 3 agosto, 2025
Lectura de 1 min

OpenAI ha decidido retirar de manera inmediata una nueva función de ChatGPT que permitía a los usuarios hacer «rastreables» sus conversaciones privadas con la herramienta de inteligencia artificial. Esta decisión se produce tras las preocupaciones sobre la posibilidad de que se compartieran accidentalmente datos sensibles.

El anuncio fue realizado por Dane Stuckey, director de seguridad de la información de OpenAI, a través de una publicación en redes sociales. En su mensaje, Stuckey describió la función como un «experimento de corta duración» destinado a ayudar a los usuarios a descubrir conversaciones útiles, pero subrayó que su eliminación responde al compromiso de la empresa con «la seguridad y la privacidad».

Preocupaciones sobre la indexación de datos

Según Stuckey, la función había generado «demasiadas oportunidades para que la gente compartiese accidentalmente cosas que no quería». Como consecuencia, OpenAI iniciará el proceso de eliminación del contenido indexado en motores de búsqueda como Google, con la previsión de que este cambio esté implementado para todos los usuarios a lo largo de la mañana del día siguiente.

La controversia comenzó cuando la redactora de newsletter Luiza Jarovsky publicó en la plataforma X, anteriormente conocida como Twitter, que se estaban haciendo públicas conversaciones confidenciales con ChatGPT. Jarovsky alertó sobre el hecho de que, al usar la función de compartir del chatbot, los usuarios permitían que sus conversaciones fueran indexadas por Google.

Riesgos de privacidad y reacciones de los usuarios

La función requería que los usuarios tomaran medidas explícitas para compartir sus conversaciones, como marcar una casilla que indicaba «hacer que este chat sea rastreable» y aceptar que «aparecería en las búsquedas web». Aunque las conversaciones compartidas eran anonimizadas, lo que reducían el riesgo de identificación personal, muchos usuarios expresaron su preocupación sobre la posibilidad de que algunos pudieran marcar la casilla sin leer los términos, exponiéndose así a compartir información privada o embarazosa.

En su publicación inicial, Jarovsky ofreció ejemplos de usuarios que compartían sus más profundos miedos con ChatGPT, abarcando temas desde acoso hasta sesiones de terapia improvisadas. Estos testimonios resaltan la vulnerabilidad de los usuarios al interactuar con tecnologías avanzadas de inteligencia artificial.

Business Insider ha intentado contactar tanto a Jarovsky como a representantes de OpenAI para obtener declaraciones adicionales, pero hasta el momento no ha recibido respuesta. La retirada de esta función pone de manifiesto la creciente atención sobre la privacidad y la protección de datos en el ámbito de la inteligencia artificial.

Redacción

Equipo editorial especializado en actualidad ibérica, economía y política. Información rigurosa y análisis profundo de España y Portugal las 24 horas del día.

Previous Story

Microsoft Authenticator elimina el autorelleno de contraseñas

Next Story

Cadillac irrumpe en Europa para competir con Mercedes y BMW

No te pierdas

La batalla por el contenido generado por IA se intensifica con Sora y Vibes

Las nuevas plataformas Sora de OpenAI y Vibes de Meta generan vídeos

El imperio Walton: la fortuna de los herederos de Walmart

Los herederos de Walmart alcanzan una fortuna conjunta de 377.000 millones de