La Comisión Europea confirmó que, a partir del 2 de agosto, comienzan a regir las disposiciones específicas de la Ley de Inteligencia Artificial para los modelos de propósito general. Se trata de una regulación pionera que impactará a desarrolladores, empresas tecnológicas, gobiernos y proveedores de servicios en todo el mundo, incluyendo a quienes operan o licencian estos sistemas desde América Latina.
La normativa define a los modelos de IA de propósito general como aquellos entrenados con grandes volúmenes de datos, capaces de realizar de forma competente una amplia variedad de tareas y que pueden ser integrados en múltiples aplicaciones o sistemas. A diferencia de los sistemas de IA —que son aplicaciones completas con interfaz— estos modelos constituyen la capa base que nutre a otros desarrollos posteriores.
La Comisión publicó recientemente el Código de Prácticas que aclara cómo identificar si un modelo califica dentro de este régimen. Uno de los criterios centrales es la capacidad computacional utilizada en su entrenamiento: más de 10²³ operaciones de punto flotante por segundo. Es decir, estamos hablando de modelos como ChatGPT, Claude, LLaMA y otros similares, que tienen una presencia creciente en múltiples industrias y sectores del conocimiento.
La norma también introduce una categoría crítica: los modelos de IA de propósito general con riesgo sistémico. En esos casos, cuando el impacto o el alcance potencial del modelo puede alterar significativamente la salud pública, los derechos fundamentales o la estabilidad económica y social, se presume una responsabilidad mayor. Si el entrenamiento del modelo supera las 10²⁵ operaciones de punto flotante por segundo, se aplican obligaciones reforzadas: evaluaciones de impacto, medidas de ciberseguridad, monitoreo de incidentes y sistemas de gestión de riesgos específicos.
Uno de los aspectos más relevantes para los actores fuera de la Unión Europea es su alcance extraterritorial. La Ley establece que si un sistema de IA basado en uno de estos modelos genera resultados utilizados en territorio europeo, sus desarrolladores y proveedores quedarán automáticamente alcanzados por la normativa, incluso si no operan ni comercializan directamente en la región. Esto impone una obligación concreta a startups, universidades, empresas tecnológicas y gobiernos que trabajen con modelos abiertos o licencien herramientas de IA desde otras regiones.
En todos los casos, los proveedores deberán garantizar transparencia sobre los datos de entrenamiento, los derechos de autor, la documentación técnica, y designar un representante legal en Europa que asuma responsabilidades frente a la Oficina de IA de la UE. Este representante, además de ser el punto de contacto oficial, deberá custodiar la documentación, certificar el cumplimiento de las obligaciones normativas e incluso notificar a las autoridades europeas en caso de incumplimientos.
La regulación europea, inspirada en el modelo del Reglamento General de Protección de Datos (RGPD), consolida una arquitectura de control preventivo que busca posicionar a la UE como líder en la gobernanza ética de la inteligencia artificial. Pero también abre interrogantes: ¿cómo se equilibra este marco con la necesidad de innovación rápida en mercados emergentes?, ¿qué desafíos plantea a América Latina, donde la legislación sobre IA aún es incipiente?
Desde TecnoEnergía sostenemos que esta normativa europea es mucho más que un límite: es una señal clara del rumbo que podría tomar la regulación global. Si América Latina no quiere quedar fuera de juego, deberá avanzar en la elaboración de marcos propios, promover estándares de transparencia y uso seguro, y desarrollar capacidades regulatorias y tecnológicas soberanas.
La competencia global por la IA no solo será técnica: también será jurídica, ética y geopolítica. Y en esa carrera, la UE acaba de tomar la delantera.
Redacción TecnoEnergía – Regulación, innovación y tecnología con impacto estratégico.
Fuentes: Código de Prácticas de la Comisión Europea (julio 2025), Ley de Inteligencia Artificial de la UE, artículos 3, 51 a 55, IAPP (International Association of Privacy Professionals), análisis de Andreas Mätzler y Katharina Jokic (Prighter).