Sam Altman, CEO de OpenAI, ha alertado sobre la ausencia de protección legal para las conversaciones personales mantenidas con ChatGPT. A diferencia de las interacciones con profesionales humanos, como médicos o abogados, estos diálogos podrían ser utilizados en procedimientos judiciales.
Esta advertencia, hecha en el pódcast ‘This Past Weekend w/ Theo Von’, subraya un vacío legal emergente. Millones de usuarios globalmente emplean la inteligencia artificial para compartir información íntima y confidencial. Esta práctica no fue anticipada por los desarrolladores. Ahora, plantea serias implicaciones para la privacidad y seguridad de los datos personales.
El fenómeno del «confesionario digital»
Desde su lanzamiento, ChatGPT ha trascendido su propósito inicial. Ahora es un espacio de desahogo y confidencia personal para millones de usuarios. Reportes globales y estudios recientes lo confirman. Además un informe del Instituto de Tecnología de Massachusetts (MIT) en 2024 mostró que más del 20% de los usuarios frecuentes usó el chatbot para problemas emocionales.
Esta cifra parece haber aumentado exponencialmente en 2025. Esto se debe a una creciente confianza de los usuarios en la IA. También hay una mayor propensión a compartir detalles íntimos. Este uso no previsto ha llevado a la herramienta a un «limbo legal». Las interacciones carecen de las protecciones inherentes a las relaciones con profesionales regulados.
Advertencias de OpenAI y consecuencias potenciales
La principal preocupación de Sam Altman es clara. Las conversaciones con ChatGPT, incluyendo texto, audio y documentos adjuntos, no están amparadas por el secreto profesional o la confidencialidad legal. Esto significa que, en un eventual proceso judicial, los registros de estas interacciones podrían ser solicitados.
Además podrían ser utilizados como prueba en contra de un usuario. Altman enfatizó que esta situación no se consideró al inicio del desarrollo. Pero ahora representa un «gran problema». La nueva función de «memoria» en los chatbots agrava este riesgo. La información íntima podría ser accesible y correlacionada en futuros diálogos o investigaciones.
Falsa sensación de confidencialidad y vacío regulatorio
La Universidad de Stanford también ha advertido sobre la «falsa sensación de confidencialidad». Esta puede llevar a los usuarios a revelar «detalles extremadamente sensibles». No son plenamente conscientes de los riesgos asociados. Esta vulnerabilidad se acentúa por la ausencia de una regulación específica. No se contempla la privacidad de las interacciones con inteligencia artificial.
Es una «zona gris» entre la tecnología y la salud mental. Un informe de ‘The Future of Privacy Forum’ destaca que millones de usuarios podrían estar desprotegidos. Esto es especialmente cierto en jurisdicciones donde las leyes de protección de datos personales no han sido actualizadas. No incluyen el uso de chatbots conversacionales en contextos tan sensibles.
Llamados a la acción y medidas necesarias
Ante este panorama, expertos en derecho digital y privacidad están instando a los desarrolladores de IA, como OpenAI. Se les pide implementar mecanismos más estrictos de anonimización y protección de datos. Paralelamente, se considera fundamental educar a los usuarios sobre las limitaciones de estas herramientas.
También se les debe informar sobre las eventuales repercusiones jurídicas de compartir información personal. La complejidad de este desafío radica en equilibrar la innovación tecnológica con la protección de la privacidad individual. Esto ocurre en un entorno digital en constante evolución, donde las fronteras entre lo público y lo privado se desdibujan rápidamente. (10).