La inteligencia artificial no es una moda: es el ladrillo con el que se está construyendo la próxima civilización. Pero mientras los algoritmos deciden quién accede a un crédito, quién es sospechoso o qué noticias vemos, el derecho corre detrás y el trabajo —ese viejo ordenador de la vida en sociedad— entra en una zona de incertidumbre. No se trata solo de empleo: se desdibuja aquello que nos organizaba, nos daba identidad y propósito.
Al mismo tiempo, se expanden nuevas tensiones que atraviesan lo más profundo de lo humano: la privacidad como condición de libertad, la protección de los datos como extensión de la identidad, el surgimiento de los neuroderechos frente a tecnologías capaces de intervenir en la mente, y un debate creciente sobre qué entendemos por realidad en entornos cada vez más virtuales.
El desafío de nuestro tiempo quizá sea reordenar lo humano frente a lo inevitable. Y hacerlo, además, en un contexto donde también comienzan a tensionarse las formas tradicionales de representación política y el sentido mismo de las instituciones.
Una reflexión sobre el poder, la regulación y lo que todavía podemos elegir en un mundo que no espera.
Por Martín Doñate*
Vivimos con la sensación de que todo cambia más rápido que nuestra capacidad para entenderlo. Pero no se trata solo de un nuevo teléfono o una aplicación más inteligente. Lo que está ocurriendo es una mutación en la forma en que se organiza el poder, el trabajo y hasta la manera en que tomamos decisiones. La inteligencia artificial no es una herramienta más: es el ladrillo con el que se está construyendo la próxima civilización.
Y, sin embargo, el derecho —esa herramienta que los humanos inventamos para poner orden— corre detrás de un proceso que ya está en marcha. Porque cuando los datos valen más que el petróleo, cuando una empresa tecnológica puede tener más impacto en la vida cotidiana que muchos Estados, las viejas reglas dejan de ser suficientes.
El nuevo tablero global se juega en tres dimensiones: recursos naturales, energía y conocimiento. Pero, a diferencia de otras etapas históricas, ya no se trata de variables independientes. Existe una relación estructural entre ellas: la energía sostiene la tecnología, y la tecnología redefine el poder.
En ese marco, la guerra en Medio Oriente ya no puede leerse solo como un conflicto por territorio o energía. Es también la expresión de un orden global en transformación, donde el verdadero poder se define por la capacidad tecnológica. Porque si la energía sostiene la tecnología, es esta última la que, en última instancia, redefine el poder. En ese escenario, los semiconductores —invisibles pero esenciales— se convierten en uno de los recursos más estratégicos del siglo XXI.
Como señaló Manuel Castells, sociólogo español y uno de los principales teóricos de la sociedad red, vivimos en un entorno donde el poder se ejerce controlando las redes de información. En ese contexto, la inteligencia artificial no solo optimiza procesos: redefine quién manda.
Frente a esto, el derecho está ensayando una respuesta inédita. Normas como el AI Act europeo, el Digital Services Act o el Digital Markets Act ya no se limitan a castigar conductas individuales. Ahora regulan sistemas enteros: plataformas, algoritmos e infraestructuras digitales. El objetivo ya no es solo el sujeto que comete un ilícito, sino el diseño mismo de la tecnología. Como advirtió Lawrence Lessig, jurista y académico de Harvard, “el código regula”. Hoy esa afirmación dejó de ser teórica para convertirse en una realidad cotidiana.
Por eso, conceptos como “proveedor”, “responsable del despliegue”, “transparencia algorítmica” o “explicabilidad” dejaron de ser términos técnicos para transformarse en categorías centrales del debate público. Porque cuando un algoritmo decide quién accede a un crédito, quién es sospechoso para una policía o qué noticias vemos, ya no estamos frente a una cuestión tecnológica: estamos frente a una cuestión de derechos fundamentales.
El propósito: lo que también está en juego
Pero sería un error pensar que esto es solo una cuestión técnica o jurídica. La automatización no está reemplazando tareas aisladas: está replanteando qué significa ser útil en una sociedad. El trabajo, tal como lo conocimos, entra en una crisis de sentido. Y en esa crisis comienza a emerger una palabra que antes pertenecía más a la filosofía que a la economía: propósito.
Porque cuando las máquinas pueden hacer muchas de las cosas que antes hacíamos nosotros, la pregunta ya no es solo “¿qué sabemos hacer?”, sino “¿para qué hacemos lo que hacemos?”. El propósito se convierte en el nuevo horizonte de la motivación humana: aquello que la automatización no puede reemplazar, porque remite a una decisión existencial sobre el tipo de sociedad que queremos construir.
El derecho tradicional —basado en categorías como sujeto, acto y responsabilidad individual— se enfrenta ahora a sistemas autónomos donde es cada vez más difícil identificar a un responsable. Y más allá de lo económico, pensadores como Yuval Noah Harari plantean una pregunta incómoda pero inevitable: ¿qué lugar queda para los humanos cuando las máquinas toman mejores decisiones?
La respuesta, quizás, no esté en la eficiencia, sino en el propósito. En aquello que decidimos hacer porque le da sentido a nuestra existencia colectiva, más allá de que sea “óptimo”.
A este escenario se suma una nueva capa de complejidad que comienza a emerger con fuerza. La discusión ya no se limita a qué hacen los sistemas, sino a hasta dónde pueden llegar. Conceptos como los neuroderechos, orientados a proteger la actividad cerebral frente a tecnologías invasivas; la privacidad como condición estructural de la libertad; y la protección de los datos personales como extensión de la identidad, ponen en cuestión categorías que el derecho daba por supuestas.
Al mismo tiempo, el desarrollo de entornos virtuales e inmersivos, como el metaverso, y la creciente indistinción entre lo material y lo digital obligan a replantear nociones básicas: qué es la presencia, qué es la identidad, qué entendemos por realidad. La frontera entre lo tangible y lo intangible se vuelve difusa, y con ella también se tensiona la forma en que concebimos los derechos.
Pero la transformación no se detiene ahí. También comienza a abrirse un interrogante más profundo: el futuro de las democracias representativas y el sentido de las instituciones tal como las conocimos. En una sociedad atravesada por datos, algoritmos y flujos de información en tiempo real, las formas tradicionales de representación política empiezan a mostrar signos de desajuste.
La pregunta ya no es solo cómo regulamos la tecnología, sino si nuestras instituciones están preparadas para este nuevo tipo de sociedad. No solo está cambiando cómo vivimos: está cambiando cómo nos gobernamos.
✳️ Nota al margen: Quizás este sea el punto menos desarrollado —y al mismo tiempo el más profundo— del debate actual: la necesidad de un nuevo estadio de conciencia en la relación entre humanidad, tecnología y entorno. Una cuestión que excede el derecho, pero que probablemente termine redefiniéndolo.
Mientras tanto, los Estados navegan una contradicción estructural: el derecho sigue siendo territorial, pero la tecnología es global. Por eso emergen fenómenos como la extraterritorialidad normativa —leyes que exceden sus fronteras— o la regulación por bloques geopolíticos.
En paralelo, los Estados pierden centralidad frente a plataformas digitales que concentran más datos que muchos gobiernos. Shoshana Zuboff lo denominó “capitalismo de vigilancia”: un modelo en el que los datos personales se convierten en la materia prima más valiosa y donde la privacidad deja de ser un atributo individual para transformarse en un problema estructural.
En este escenario global, Argentina tiene una oportunidad que no debería desaprovechar. El país cuenta con recursos estratégicos como litio, alimentos y agua; reservas energéticas como Vaca Muerta; y un ecosistema de talento tecnológico reconocido internacionalmente. Pero tener ventajas comparativas no alcanza. El desafío es evitar una inserción periférica y construir un modelo basado en conocimiento, regulación inteligente y desarrollo tecnológico propio.
La inteligencia artificial no es una moda. Es un punto de inflexión comparable a la imprenta o la revolución industrial. Y el derecho, con todas sus limitaciones, está llamado a estar en el centro de ese proceso: reinterpretando sus categorías, construyendo nuevas herramientas y, sobre todo, recordando que lo que está en juego no es solo la eficiencia, sino la calidad de la vida en común.
En definitiva, lo que está en juego no es solo una transformación tecnológica, ni siquiera una transformación jurídica. Es una reconfiguración del poder, del trabajo, de la identidad, de la privacidad y de la democracia tal como las conocimos. La inteligencia artificial no solo redefine lo que hacemos: redefine quiénes somos, cómo nos organizamos y cómo nos gobernamos. En un mundo donde los datos moldean decisiones, los algoritmos median la realidad y las instituciones buscan adaptarse, el desafío ya no es solo regular el cambio, sino decidir qué lugar queremos ocupar en él. Porque cuando la tecnología redefine el poder, lo que queda en juego —en última instancia— es la forma en que elegimos ser humanos.
*Martín Doñate — Director del Instituto Argentina 2050
Abogado, Lic en Ciencias Sociales, Ex Senador Nacional. Autor de los proyectos de Ley de Regulación de Inteligencia Artificial y de Protección de Datos Personales. Fundador de Digital Human Lex (DHLex), estudio jurídico especializado en derecho digital y ciberseguridad.
Fuente: Instituto Argentina 2050




