A principios de esta semana, los internautas se vieron sorprendidos por una falla del chatbot ChatGPT. En realidad, fue OpenAI quien se vio obligado a desactivar el servicio tras una fuga de datos difundida en las redes sociales.
El chatbot mantiene el historial de conversaciones, que se presenta en forma de pestañas con, para cada una, un título que resume los intercambios. Sin embargo, los internautas descubrieron que el historial mostrado no era el suyo y algunas capturas de pantalla compartidas en Reddit o Gorjeo mostrando títulos como «terapia de apoyo emocional» o «desarrollo del socialismo chino». Afortunadamente, era imposible acceder al contenido de los intercambios y, en cambio, el sitio mostraba un error. Sin embargo, el simple hecho de poder leer los títulos de las pestañas de otros usuarios es una inquietante invasión de su privacidad.
El caso fue confirmado en Twitter por Sam Altman, CEO de OpenAI. Según él, la filtración fue causada por un error en una biblioteca de funciones de código abierto que ya se ha solucionado. Sin embargo, esto plantea la cuestión del procesamiento y la seguridad de los datos personales recopilados por OpenAI, especialmente sabiendo que el chatbot se puede usar para escribir mensajes personales, crear documentos para el trabajo o simplemente discutir temas delicados…