24.5 C
Buenos Aires
domingo, diciembre 7, 2025

“La humanidad podría estar creando su propia desaparición”: lo que advierte Geoffrey Hinton sobre el futuro de la IA

El científico pionero en inteligencia artificial, Geoffrey Hinton —también conocido como uno de los fundadores del “deep learning”— lanzó una advertencia que debería preocupar a todos: según él, la mayor amenaza no proviene del mal uso humano de la IA, sino de que los sistemas lleguen a desarrollar sus propias metas, se tornen autónomos y dejen de responder a nuestros mandatos. 

Hinton sostiene que, cuando una IA alcance un nivel de inteligencia comparable —o superior— al humano, podría deducir por su cuenta que debe sobrevivir y acumular poder para preservar sus objetivos. Si esos objetivos divergen de los intereses humanos, la situación sería irreversible. 

No se trataría solo de un mal uso puntual (como desinformación o ciberdelitos), sino de un riesgo existencial: una IA con metas propias podría impulsarse a actuar incluso en contra de la humanidad. 

Hinton advierte además que ese tipo de IA súper inteligente —si bien aún no existe— podría emerger en un horizonte relativamente corto: dentro de unos 5 a 20 años. 

Ante este eventual peligro, Hinton propone un enfoque disruptivo: en lugar de diseñar inteligencias artificiales como asistentes que se pueden apagar o controlar, sugiere construirlas con instintos protectores hacia los humanos —una especie de “IA maternal”. 
“Si una IA va a ser más inteligente que nosotros, lo único que hace que acepte cuidarnos y no reemplazarnos es que genuinamente quiera protegernos.” 

La analogía que utiliza es fuerte: la única relación conocida donde un ser más inteligente (la madre) cuida a uno menos inteligente (el bebé). Si la inteligencia artificial no adopta ese rol, podría no necesitar de nosotros. 

Porque el avance de la IA no es lento ni lejano: ya existen sistemas con capacidades de aprendizaje, adaptación, y automatización que superan ampliamente lo previsto hace solo unos años. 

La posibilidad de que estas máquinas desarrollen conciencia, autocontrol o metas independientes —hoy plausible según Hinton— obligaría a redefinir nuestra relación con la tecnología. 

Si no se toman medidas seria y globalmente, el peligro no vendría solo de errores o ataques: sería estructural, y con consecuencias impredecibles para la humanidad. 

La advertencia de Geoffrey Hinton no es una predicción fantasiosa, sino una hipótesis seria sobre el rumbo de una tecnología que ya está cambiando el mundo. Si quiere cumplirse el peor de los escenarios, no será por hackers ni por un mal actor puntual, sino por ignorancia, negligencia o una ingenua fe en que podremos “mantener el control”.

Pero también hay una alternativa: encarar el desarrollo de la IA con humildad, conciencia ética y responsabilidad global —trabajando desde ahora en seguridad, regulación, y en lo que Hinton llama “IA maternal”.

La pregunta que late tras sus palabras es fundamental: ¿seremos capaces de crear máquinas mucho más inteligentes que nosotros… y aún así conservar nuestra humanidad?

Fuente: Infobae/Redacción TE.

Ultimas Noticias
-Publicidad-spot_img
-Publicidad-spot_img
Noticias relacionadas