19.7 C
Buenos Aires
viernes, octubre 24, 2025

Científicos y figuras públicas exigen freno al desarrollo de la “super IA”Un comunicado firmado por más de 700 personas advierte sobre los riesgos de una inteligencia artificial que podría superar las capacidades humanas.

Un grupo de destacados investigadores, celebridades y líderes políticos publicó este miércoles un documento conjunto instando a detener el avance del desarrollo de una posible “superinteligencia artificial” hasta que se demuestre que es completamente segura y controlable.

La iniciativa proviene del Future of Life Institute (FLI), con sede en Estados Unidos, que desde hace años trabaja en alertar sobre los impactos de tecnologías disruptivas. En su comunicado, señalan que la velocidad del progreso en IA plantea escenarios “potencialmente catastróficos” y piden que no se impulse una super IA antes de alcanzar “un consenso científico, mecanismos de control robustos y el respaldo de la sociedad”.

Entre los firmantes figuran científicos de renombre, personalidades de la tecnología, artistas y políticos que coinciden en que esta frontera tecnológica exige cautela. Argumentan que, al igual que otras grandes transformaciones históricas (como la energía nuclear o la biotecnología), la IA de nivel superhumano podría tener consecuencias profundas para la humanidad.

El texto del FLI subraya que “el desarrollo de una inteligencia que nos sobrepase podría terminar siendo irreversible” y advierte contra el riesgo de que dicha tecnología “escale más allá de nuestra supervisión”. Por ello proponen una moratoria temporal hasta que se garantice que tales sistemas puedan alinearse con valores humanos, evitar errores graves y mantenerse bajo control.

— ¿Por qué ahora? Porque la capacidad de los modelos de IA ha crecido de forma vertiginosa en los últimos años, y algunos investigadores creen que estamos más cerca de lo que se pensaba de una inteligencia artificial que supere a la humana en múltiples dominios.

— ¿Y qué se solicita? Que se suspendan nuevos entrenamientos de modelos superpotentes, que se divulgue públicamente la investigación relevante, que haya auditorías independientes, y que los gobiernos y organismos internacionales participen en el control.

La declaración ya está generando debate global: algunos la apoyan como un llamado serio al sentido común, otros la critican por temerosa o por obstaculizar la innovación. Lo cierto es que plantea una pregunta fundamental: ¿queremos avanzar tan rápido hacia una IA que podría cambiarlo todo sin saber con certeza cómo controlarla?

En Argentina y América Latina, el documento ha sido seguido con atención, donde ya se discuten tanto las promesas de la IA como sus riesgos: desde automatización de empleos hasta sesgos algorítmicos. Pero la advertencia ahora adquiere otro nivel: no se trata solo de “mala IA”, sino de “una IA que podría ser más inteligente que nosotros”.

Queda por ver cómo responderán los desarrolladores, las empresas tecnológicas y los gobiernos. Mientras tanto, el llamado del FLI resuena con fuerza: “Detengamos el desarrollo hasta que estemos seguros de que puede beneficiarnos sin destruirnos.”

Fuente: Página 12/Redacción TE.

Ultimas Noticias
-Publicidad-spot_img
-Publicidad-spot_img
Noticias relacionadas