El derecho siempre llega tarde. La inteligencia artificial, en cambio, no espera. Mientras los juristas discutimos conceptos, afinamos categorías y pulimos textos normativos, los sistemas de aprendizaje automático se entrenan, se despliegan y se optimizan a una velocidad que vuelve anacrónico cualquier cronograma legislativo. La metáfora es conocida pero eficaz: el derecho camina; la IA corre.
Las grandes empresas tecnológicas exhiben hoy códigos éticos, marcos de autorregulación y comités de buenas prácticas que suenan convincentes en foros y presentaciones. Transparencia, responsabilidad, respeto por los derechos humanos: un vocabulario impecable. Sin embargo, cuando esos principios se enfrentan al incentivo económico, su solidez suele evaporarse. La ética corporativa funciona, muchas veces, como una declaración de intenciones más que como un límite real al comportamiento de mercado.
Nada de esto resulta novedoso. La historia económica —también la argentina— demuestra con creces que, ante determinadas presiones, los valores declamados ceden frente a la rentabilidad. En el ecosistema de la IA, la carrera por llegar primero, captar usuarios y consolidar posiciones estratégicas suele imponerse sobre cualquier prudencia normativa. El resultado es un desarrollo tecnológico acelerado y una ética que llega siempre después.
Frente a ese escenario, algunas jurisdicciones intentaron reaccionar. La Unión Europea dio un paso ambicioso con la aprobación del AI Act, una norma que clasifica los sistemas de inteligencia artificial según su nivel de riesgo, prohíbe ciertos usos considerados inaceptables y establece exigencias estrictas para los sistemas de alto riesgo. Documentación técnica, control sobre los datos de entrenamiento, obligaciones de transparencia y supervisión humana: Europa ensayó, por primera vez, un intento integral de encuadrar jurídicamente a la IA.
Estados Unidos, fiel a su tradición fragmentaria en materia regulatoria, avanzó de manera más dispersa. En ese contexto, California se convirtió en un laboratorio normativo. Leyes y proyectos buscaron imponer evaluaciones de impacto, auditorías de sesgos y mayores deberes de información en decisiones automatizadas que afectan derechos. En 2025, esa agenda se amplió hacia los modelos más potentes —la llamada frontier AI— y hacia mecanismos administrativos de supervisión y protección del consumidor.
A nivel federal, los esfuerzos se concentraron en fenómenos puntuales, como las deepfakes, abordadas mediante esquemas de notificación y remoción que recuerdan a viejos dispositivos de protección de la propiedad intelectual en plataformas digitales. Una respuesta conocida frente a un problema radicalmente nuevo.
En América Latina, el panorama es distinto y, en cierto sentido, más preocupante. Abundan los proyectos que replican modelos extranjeros sin adaptación real, impulsados más por el atractivo discursivo de la IA que por una comprensión profunda de sus implicancias. Se legisla mirando el árbol, mientras el bosque —enorme, complejo, inminente— crece sin control.
¿Qué tienen en común las experiencias europea y californiana? Ambas parten de tres premisas claras: reconocer la existencia de riesgos, clasificarlos; formular principios y obligaciones técnicas (calidad de datos, trazabilidad, supervisión humana); y prever sanciones e incentivos para garantizar el cumplimiento. Es, en esencia, una arquitectura jurídica clásica, coherente y bien intencionada.
Pero esa arquitectura exhibe límites estructurales. El primero es temporal: una norma puede tardar años en gestarse, mientras que un modelo de IA de última generación puede entrenarse y desplegarse globalmente en semanas. El segundo es material y geopolítico: las grandes plataformas operan a escala planetaria, concentran infraestructura, datos y talento, y pueden adaptarse para cumplir formalmente regulaciones locales sin alterar el núcleo de su poder real.
Leídas con atención, estas normas no constituyen un control efectivo de la IA, sino un conjunto de obligaciones diferidas. Su aplicación depende de agencias administrativas, estándares técnicos aún inexistentes, procedimientos de auditoría en construcción y, sobre todo, de voluntad política para supervisar actores con recursos descomunales. En ese interregno, las lagunas operativas son inevitables.
Aquí emerge la hipótesis central: la inteligencia artificial se está convirtiendo en un nuevo factor de poder. No sólo económico, sino político y social. Los sistemas algorítmicos moldean decisiones, reorganizan mercados, influyen en procesos democráticos y producen “verdades” estadísticas que luego estructuran conductas. Quien controle esas infraestructuras detentará —al menos por un tiempo— una posición dominante.
El derecho romano ofrece una clave conceptual útil. Distinguía entre la norma y el hecho, entre la autoridad formal y las fuerzas sociales que, con el tiempo, crean derecho. Primero ocurren los hechos; después, el derecho intenta ordenarlos. El problema actual es que esos hechos se producen en tiempo real y se replican de manera automática. La prudencia romana sigue siendo una lección válida, pero hoy se enfrenta a una aceleración inédita.
De esta constatación se desprenden algunas consecuencias prácticas: la regulación deberá ser más flexible y veloz, apoyarse en estándares dinámicos y agencias con capacidad técnica real; la supervisión internacional será imprescindible; y la distribución del poder tecnológico no puede quedar fuera de la política pública. No alcanza con regular usos: es necesario intervenir sobre quién controla las palancas del sistema.
Aun así, conviene ser honestos. Ninguna norma, por sofisticada que sea, logrará “domar” completamente a la inteligencia artificial. El derecho puede limitar daños, sancionar abusos y proteger derechos, pero no puede detener una dinámica material basada en economías de escala, aprendizaje continuo y redes interconectadas de máquinas y usuarios.
En esa carrera desigual, la ley será un actor relevante, pero no el árbitro exclusivo. La IA impondrá nuevos equilibrios hasta que —si ocurre— emerja una gobernanza internacional capaz de reordenar el tablero.
Decir que la inteligencia artificial doblegará al derecho no es anunciar un colapso jurídico, sino reconocer una tensión real entre dos temporalidades y dos fuentes de poder. El desafío exige algo más que normas bien redactadas: requiere músculo técnico, soberanía tecnológica y una institucionalidad capaz de actuar sin ingenuidad.
Mientras tanto, la IA avanza como un jet supersónico y el derecho intenta alcanzarla con parches lanzados a destiempo. Lo decisivo será construir una red de contención democrática que impida que esa velocidad se traduzca en dominio absoluto. Porque si fallamos, no perderemos sólo una discusión jurídica: habremos cedido un nuevo espacio de poder a quienes hoy controlan —en silencio— los engranajes que ya organizan buena parte de nuestra vida colectiva.
Fuente: adaptación de la nota de opinión de Fernando Tomeo, Abogado, consultor e investigador en Derecho Digital, Data Privacy e IA; profesor Facultad de Derecho UBA y Austral. Redacción TE.




