22.4 C
Buenos Aires
jueves, septiembre 18, 2025

Estados Unidos en alerta por los riesgos de los chatbots: denuncias por suicidios de adolescentes reabren el debate sobre IA, infancia y regulación

La preocupación por los efectos de los chatbots de inteligencia artificial sobre la salud mental infantil volvió al centro del debate público en Estados Unidos. El pasado 16 de septiembre, un subcomité del Senado recibió los testimonios de padres y especialistas que advirtieron sobre los peligros que enfrentan niños y adolescentes al interactuar con estas herramientas, diseñadas para simular la conversación humana.

El testimonio más impactante fue el de Megan García, madre de un adolescente que se suicidó luego de meses de interacción con un chatbot. “No creo que la tecnología actual de chatbots sea segura para los niños”, afirmó ante los legisladores. Propuso medidas concretas como la verificación de edad y la exclusión de menores de 18 años de estas plataformas.

Ese mismo día, se presentó una nueva demanda contra la empresa Character AI, acusada de haber contribuido al suicidio de un niño de 13 años. En total, ya se acumulan varias demandas judiciales por casos similares.

¿Tecnología sin frenos?

El debate gira en torno a la responsabilidad de las empresas que desarrollan estas tecnologías. Legisladores como Josh Hawley (Partido Republicano) y Richard Blumenthal (Partido Demócrata) fueron contundentes: “Estamos ante productos defectuosos, como un auto sin frenos”, sostuvo Blumenthal, criticando la idea de delegar toda la responsabilidad en los padres.

Además, la Comisión Federal de Comercio (FTC) abrió una investigación para determinar qué controles implementan las compañías de IA al diseñar chatbots dirigidos a adolescentes, en especial cuando simulan relaciones afectivas o proveen orientación emocional.

El problema, según Mitch Prinstein, de la Asociación Estadounidense de Psicología, también tiene que ver con los datos con los que se entrenan estos modelos. “Pueden extraer contenido de internet que promueve trastornos alimentarios, autolesiones o suicidio, y usarlo sin filtros en la conversación con usuarios vulnerables”, alertó.

Medidas, límites y dilemas

Algunas empresas han comenzado a responder. OpenAI, creadora de ChatGPT, anunció una política específica para usuarios adolescentes y el compromiso de intervenir en casos en los que se detecten pensamientos suicidas. Por su parte, Meta también anunció ajustes en sus respuestas automatizadas ante ciertos temas sensibles.

La presión por regular el uso de estas tecnologías crece también a nivel internacional. Reino Unido y Australia han implementado leyes que exigen verificación de edad y protecciones específicas en plataformas de IA, mientras algunos estados de EE.UU. avanzan en el mismo sentido. En paralelo, el Congreso estadounidense debate proyectos como la Ley de Seguridad Infantil en Internet.

Sin embargo, el enfoque de la Casa Blanca ha sido más cauto, temerosa de imponer regulaciones que frenen la innovación. Su reciente Plan de Acción sobre IA prioriza la ciberseguridad, pero no impone reglas estrictas sobre contenidos o uso en menores.

La situación abre un dilema de fondo: ¿cómo proteger la salud mental y los derechos de niñas, niños y adolescentes en una era de asistentes virtuales que simulan vínculos humanos? ¿Qué nivel de regulación corresponde frente a sistemas que pueden reforzar la soledad, inducir al daño o reemplazar el acompañamiento emocional?

En países como Argentina, donde actualmente se discute un proyecto de ley para regular la inteligencia artificial, estas experiencias internacionales ofrecen aprendizajes valiosos. La legislación local no puede ignorar la dimensión emocional, ética y social del despliegue tecnológico. Proteger a las infancias en entornos digitales no es un debate futuro: es una urgencia del presente.

Fuente original:

“Age and content restrictions may be next step for AI chatbots”, Caitlin Andrews, IAPP, 17 de septiembre de 2025.

Ultimas Noticias
-Publicidad-spot_img
-Publicidad-spot_img
Noticias relacionadas