30.8 C
Buenos Aires
jueves, octubre 23, 2025

Justicia e inteligencia artificial: el fallo de Esquel que marcó un límite*

La anulación de una sentencia redactada con inteligencia artificial en Chubut reabre el debate sobre los alcances del uso tecnológico en el Poder Judicial. El caso revela que el problema no es la IA, sino la falta de control humano.

¿Hasta dónde puede llegar la inteligencia artificial (IA) en la Justicia? ¿Podría un algoritmo redactar una sentencia, o incluso reemplazar a un juez? Lo que hasta hace poco parecía un dilema de ciencia ficción se volvió realidad en Esquel, provincia de Chubut.

El 15 de octubre, la Cámara Penal local anuló una condena al descubrir que el juez de primera instancia había utilizado una herramienta de inteligencia artificial generativa (IAGen) para redactar parte del fallo. En lugar de construir su propio razonamiento jurídico, el magistrado copió párrafos producidos por la IA sin revisión ni supervisión.

El tribunal consideró que esa práctica vulnera el deber de fundamentación personal y afecta derechos esenciales como el debido proceso y la defensa en juicio. En consecuencia, declaró nula la sentencia y ordenó que un nuevo juez revise el caso, además de enviar las actuaciones al Superior Tribunal de Justicia de Chubut para evaluar las consecuencias institucionales.

Una “frase delatora”

El caso salió a la luz cuando los camaristas encontraron, dentro del texto de la sentencia, una línea claramente generada por una IA: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”.
Esa simple frase bastó para revelar el origen automatizado del escrito y confirmar que la herramienta se había utilizado sin control humano, incluso en una parte clave del fallo referida a la validez de las pruebas.

Nunca antes en el país se había registrado un caso en el que fuera un juez —y no un abogado— quien delegara en una IA parte de su tarea de juzgar.

Los fundamentos del fallo

La Cámara Penal basó su decisión en cuatro puntos centrales:
1. Falta de supervisión humana: el juez incorporó texto generado por IA sin revisarlo ni declararlo.
2. Ausencia de transparencia: no dejó constancia del uso de la herramienta ni del “prompt” (instrucción dada).
3. Delegación indebida: la función de juzgar no puede ser transferida a un sistema automático, según los artículos 16 y 75 del Código Procesal Penal de Chubut.
4. Vulneración de garantías constitucionales: al carecer de razonamiento propio, la resolución violó el principio del juez natural y el derecho al debido proceso.

La Cámara recordó que el Superior Tribunal de Justicia de Chubut ya había aprobado, mediante el Acuerdo Plenario N° 5435, las “Directivas para el uso ético y responsable de inteligencia artificial generativa”, en línea con estándares internacionales como la Carta Ética Europea sobre IA en la Justicia (2018), las recomendaciones de la UNESCO (2021) y de la OCDE (2022).

IA y justicia: asistencia, no sustitución

El fallo no condena la tecnología, sino su uso irreflexivo. “La IA no fue el problema; el problema fue la ausencia de control humano”, sintetizó la Cámara.

La Comisión Iberoamericana de Ética Judicial, en su Dictamen N° 24 (2023), ya había advertido que los sistemas de IA pueden mejorar la eficiencia judicial, siempre que se mantenga “la supervisión o revisión humana” para evitar decisiones automáticas carentes de razonamiento.

En esa línea, el Poder Judicial de Río Negro cuenta desde 2024 con un Protocolo de Buenas Prácticas para el uso de IAGen, ampliado este año para incluir también a los auxiliares externos.

Cuando la IA ayuda, sin reemplazar

En contraste, existen experiencias positivas de uso. En Corrientes, el juez José Osvaldo Ledesma recurrió a ChatGPT solo para redactar un párrafo en lenguaje claro, con el objetivo de facilitar la comprensión de su decisión. La IA no intervino en el contenido ni en el razonamiento jurídico, sino que funcionó como herramienta de comunicación.

Como advierte el jurista Gastón Enrique Bielli, los modelos de lenguaje pueden ser aliados del sistema judicial si se usan con prudencia: “Pueden mejorar la eficiencia y el análisis de grandes volúmenes de información, pero su aplicación inadecuada pone en riesgo principios fundamentales de la justicia”.

El acto de juzgar: una tarea humana

El caso Esquel marca un punto de inflexión. La inteligencia artificial puede asistir, agilizar y mejorar la gestión judicial, pero no puede reemplazar la deliberación humana. Juzgar no es solo aplicar la ley: implica interpretar, razonar y ponderar consecuencias con sentido de justicia.

La tecnología puede ser una gran aliada del sistema. Pero solo el juicio humano puede dar sentido al acto de juzgar.

Fuente: KIARA BELICHMiembro del Instituto de Derecho e I.A. del Colegio de Abogados y Procuradores de Neuquén dirigido por la Dra. Vanesa Ruiz./Redacción TE.

Ultimas Noticias
-Publicidad-spot_img
-Publicidad-spot_img
Noticias relacionadas