Columnas
Es hora de trazar límites a la IA en la administración de justicia
Las preguntas que surgen de manera inmediata son, ¿es un uso de alto riesgo que un juez o jueza de la República utilice el sistema de IA de su preferencia para revisar la redacción y edición del texto de una resolución o de una sentencia? ¿Es un uso de alto riesgo que utilice un sistema de IA para investigar e indagar sobre un problema jurídico en concreto? ¿Es un uso de alto riesgo que utilice un sistema de IA para ponderar su decisión o para que le sea sugerida una opción como correcta?
*Nicolás Sanhueza Toro.
En el Congreso Nacional actualmente se tramita el boletín 16821-19, proyecto de ley de inteligencia artificial. Este proyecto regula los sistemas de inteligencia artificial siguiendo el modelo europeo[1], basado en “niveles de riesgo”.
Existe, sin embargo, una diferencia importante en la manera de regular los sistemas de inteligencia artificial de “alto riesgo”: la ley europea contiene, en el art. 6º, una regla general de IA de alto riesgo, luego contiene una remisión a un listado de usos de IA que se consideran de alto riesgo (listado contenido en el “Anexo III”) y finalmente una excepción aplicable a las IA del listado anterior (es decir, que no se considerarán de alto riesgo las IA contenidas en el listado, siempre que se cumplan ciertas condiciones).[2]
La propuesta de ley chilena, en tanto, solo indica que se consideran de alto riesgo aquellos sistemas de IA “que presentan un riesgo significativo de causar perjuicios para la salud, la seguridad, los derechos fundamentales protegidos por la Constitución Política de la República o el medioambiente (sic), así como los derechos de los consumidores”.
Si bien el mensaje reconoce que la lista específica se reserva para ser establecida por el reglamento que deberá dictar el Ministerio de CTCI -lo cual tiene sentido si se piensa en lo rápido que se ponen en marcha nuevos sistemas de IA cada día-, quizás es buena idea, desde ya, dejar ciertas cuestiones fuera y ciertas cuestiones dentro de lo que se considerará como usos de alto riesgo. En específico, a propósito de la relación entre los y las juezas y su uso de sistemas de inteligencia artificial en su trabajo.
Las preguntas que surgen de manera inmediata son, ¿es un uso de alto riesgo que un juez o jueza de la República utilice el sistema de IA de su preferencia para revisar la redacción y edición del texto de una resolución o de una sentencia? ¿Es un uso de alto riesgo que utilice un sistema de IA para investigar e indagar sobre un problema jurídico en concreto? ¿Es un uso de alto riesgo que utilice un sistema de IA para ponderar su decisión o para que le sea sugerida una opción como correcta?
Desde la perspectiva del proyecto de ley chileno, estas preguntas no tienen una respuesta. De acuerdo con el proyecto de ley, habría que esperar al reglamento del Ministerio de CTCI para ver cuáles de esos usos se encuentran dentro de la clasificación de sistemas de alto riesgo.
La ley europea de IA, en tanto, zanja desde ya ciertas cuestiones, ya que se consideran de alto riesgo los sistemas de IA destinados a (i) ayudar a una autoridad judicial en la investigación e interpretación de hechos y de la ley, (ii) asistir en la aplicación de la ley a un conjunto concreto de hechos, y (iii) aquellos sistemas que se utilicen de maneras similares a las (i) y (ii) en métodos de resolución alternativa de conflictos.[3] Por supuesto que estas reglas tienen excepciones: una IA que solo despliega una tarea de procedimiento limitado no es de alto riesgo, aunque se utilice para ayudar a una autoridad judicial en la interpretación de hechos (art. 6º apartado 3).
Dados los riesgos, sin embargo, de utilizar IA en cuestiones más sustanciales, pareciera ser sensato tratar de anticiparse a ciertos casos y tomar posición sobre los límites que es necesario trazar. Para el legislador europeo, esto era claro, ya que la decisión final del asunto siempre debe recaer en una persona humana: “(…) La utilización de herramientas de IA puede apoyar el poder de decisión de los jueces o la independencia judicial, pero no debe substituirlas: la toma de decisiones finales debe seguir siendo una actividad humana.”[4]
En un contexto en que el uso de IAG se ha masificado fuertemente en el último tiempo, ¿acaso no deberíamos trazar desde ya límites similares al uso de IA en la administración de justicia? ¿Es necesario esperar al reglamento de la ley para declarar qué usos de sistemas de IA en la administración de justicia se consideran de alto riesgo? La discusión, creemos, debe ser ahora, puesto que la administración de justicia es precisamente uno de aquellos campos en que los errores pueden significar graves consecuencias para los derechos de las personas.
*Nicolás Sanhueza Toro, Investigador Laboratorio de Justicia Centrada en las Personas UAI.
[1] Véase el texto de la AI Act, en su versión luego del corrigendum de 19 de abril de 2024: https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138-FNL-COR01_EN.pdf
[2] Que la regulación del listado al que hace referencia el art. 6º numeral 2 de la ley europea se contenga en un anexo de la ley tiene un sentido: si bien en principio se parece a un “reglamento”, el Anexo III forma parte integral de la ley europea de IA. En este sentido, fue discutido y aprobado por el legislador europeo. Que el listado se contenga en un anexo permite que la Comisión que, luego, velará por la aplicación de la Ley, pueda modificar el mismo sin la necesidad de someter la cuestión al parlamento europeo (art. 97 sobre actos delegados). Eso sí, es interesante notar que la ley considera casos bastante específicos sobre cuándo y bajo qué condiciones se pueden hacer modificaciones, agregaciones y supresiones al listado del Anexo III (art. 7º).
[3] Anexo III, numeral 8, literal a).
[4] Considerando 61.