28.5 C
Buenos Aires
sábado, enero 24, 2026

“Podríamos estar obligados a entregar tus datos”: la advertencia más cruda del CEO de OpenAI sobre ChatGPT como terapeuta

Sam Altman, CEO de OpenAI —la empresa detrás de ChatGPT—, lanzó una de las advertencias más contundentes hasta ahora sobre los riesgos ocultos del uso masivo de la inteligencia artificial. En una entrevista con el podcast This Past Weekend, reconoció con preocupación un fenómeno creciente: millones de personas, especialmente jóvenes, están utilizando sistemas como ChatGPT para hablar de sus emociones, contar sus secretos más íntimos o buscar contención emocional, sin saber que no están protegidos por ninguna norma de confidencialidad.

“La gente habla de las cosas más personales de su vida con ChatGPT. Especialmente los jóvenes…”, expresó Altman. Lejos de elogiar este fenómeno como un avance, el CEO mostró inquietud por la falta de garantías legales: “Si hay una demanda, podríamos estar obligados a presentar esa información. Y creo que eso está muy mal”, confesó.

A diferencia de lo que ocurre con un psicólogo, un abogado o un médico —donde rige el secreto profesional—, ninguna conversación con una IA cuenta con protección jurídica. No existe un marco legal que garantice privacidad, confidencialidad o resguardo frente a terceros. Peor aún: gran parte de esos datos pueden, en algunos casos, ser usados para entrenar nuevos modelos. La confianza que los usuarios depositan en estos sistemas, dice Altman, es “sin garantías”.

Este vacío normativo plantea un dilema ético urgente. A medida que la inteligencia artificial se convierte en una suerte de interlocutor emocional cotidiano, muchos no advierten que sus charlas más íntimas quedan registradas, sin control ni defensa posible. Si una persona revela pensamientos suicidas, admite delitos, o simplemente confiesa angustias profundas, esa información puede ser técnicamente almacenada, y potencialmente utilizada en el futuro.

“No hay leyes que impidan que eso se use. No hay privacidad garantizada. Y si un juez lo pide, no tenemos cómo negarnos”, insistió Altman.

El escenario es alarmante: ninguna jurisdicción del mundo cuenta hoy con una legislación robusta que contemple la privacidad de los datos en contextos emocionales entre humanos y sistemas de IA. Sin embargo, algunos países están comenzando a dar el debate. En la Argentina, el Senado de la Nación ya discute el primer proyecto integral de regulación de la inteligencia artificial, impulsado por el senador rionegrino Martín Doñate. La iniciativa —única en América Latina— propone regular el uso de estos sistemas desde una perspectiva de derechos humanos, privacidad, protección de datos sensibles y transparencia algorítmica.

El proyecto contempla la creación de un régimen jurídico específico, adaptado a los riesgos y desafíos de la IA en contextos personales, laborales, educativos y emocionales. Ya se han realizado jornadas con académicos, científicos, programadores, especialistas en ciberseguridad y representantes de distintos sectores de la vida institucional del país, lo que coloca a la Argentina a la vanguardia del debate global.

La advertencia de Altman no es técnica, es política. ¿Quién protege lo que sentís? ¿Quién cuida lo que le contás a una máquina? ¿Y qué pasa cuando la intimidad se convierte en dato, y el dato en mercancía?

En la era de la inteligencia artificial, la privacidad no puede ser una ilusión.


Fuente: Declaraciones de Sam Altman en This Past Weekend Podcast
✍️ Por Redacción TE
Publicado el 31 de julio de 2025

Ultimas Noticias
-Publicidad-spot_img
-Publicidad-spot_img
Noticias relacionadas