Columnas

Hacia una inteligencia artificial compatible con el Estado de Derecho

Por Constanza Muñoz Flandes* y María Francisca Marchessi Concha**.

La transformación digital ha generado profundas oportunidades para mejorar los servicios públicos, optimizar procesos y avanzar en la eficiencia institucional. Sin embargo, la adopción de tecnologías automatizadas por parte del Estado —y en particular, de sistemas de inteligencia artificial (IA)— plantea un desafío crítico: garantizar que estas herramientas operen con respeto absoluto a los derechos fundamentales y a los principios del Estado de Derecho.

Es importante distinguir: no toda automatización implica inteligencia artificial. Existen sistemas automatizados que ejecutan reglas fijas preprogramadas; otros, más complejos, incorporan IA, es decir, modelos capaces de aprender de datos, identificar patrones y tomar decisiones adaptativas. Ambos pueden afectar los derechos de las personas, pero son los sistemas con IA los que representan mayores riesgos, como por ejemplo, sesgos difíciles de detectar, decisiones opacas y ausencia de trazabilidad lógica.

Así, nos encontramos ante una relación tripartita entre el sistema, los desarrolladores y los usuarios (como plantea Saffarizadeh), en la que el alineamiento de la inteligencia artificial no depende únicamente de su desempeño técnico, sino también de la confianza depositada tanto por quienes la diseñan como por quienes la utilizan. Lo anterior adquiere especial relevancia cuando hablamos de procesos o toma de decisiones de índole administrativa o judicial, donde implementar sistemas de IA sin el adecuado control o monitoreo genera el riesgo de afectar la legitimación de esas decisiones por encontrarse en una zona gris de la normativa o, eventualmente, presentar vicios de ilegalidad. Por ello, los sistemas de IA deben diseñarse con mecanismos de supervisión y reorientación que permitan detectar y corregir errores, antes que generen impactos irreparables en las personas. Sin estos mecanismos, la tecnología podría dejar de ser una herramienta al servicio de las personas y convertirse en una autoridad opaca, incompatible con los principios de un Estado de Derecho.

En este punto el principio de “explicabilidad” adquiere un rol fundamental, erigiéndose como una de las garantías esenciales en la protección de los derechos de las personas frente a decisiones automatizadas mediante sistemas de inteligencia artificial. No basta con que el algoritmo sea correcto desde su dimensión técnica, sino que estas decisiones deben poder ser comprendidas, cuestionadas y revisadas por los afectados y/o interesados.

En un contexto institucional, la falta de explicabilidad puede afectar el debido proceso, la transparencia y la confianza en el sistema. Por eso, debe considerarse un requisito indispensable para cualquier implementación de IA en la toma de decisiones públicas.

Que la implementación de inteligencia artificial presenta oportunidades significativas para el desarrollo institucional y social resulta incuestionable. Sin embargo, su adopción sin reglas claras ni mecanismos efectivos de control expone tanto a las instituciones como a las personas a riesgos de distintas categorías. Construir una IA jurídicamente alineada a valores humanos, implica garantizar la trazabilidad, explicabilidad, supervisión y protección de los derechos fundamentales.

En esta nueva era tecnológica, el derecho está llamado a dialogar con la tecnología, no como una barrera, sino como una guía que oriente su uso hacia una implementación legítima, transparente y centrada en la dignidad humana. Solo bajo este enfoque será posible avanzar desde un uso desregulado de tecnologías automatizadas, incluida la inteligencia artificial, hacia un modelo de desarrollo tecnológico responsable, consciente, sostenible y centrado en los derechos fundamentales.

*Constanza Muñoz Flandes

Abogada de la Pontificia Universidad Católica de Chile, Magister en Derecho de la Empresa y diploma en Compliance y Gobiernos Corporativos de la misma casa de estudio. Especialista en el desarrollo de cultura de integridad, gestión de riesgos, prevención de delitos y protección de datos personales.

**María Francisca Marchessi Concha

Abogada de la Pontificia Universidad Católica de Chile, con LL.M. en Law and Technology por King’s College London. Cuenta con diplomados en Derecho e Inteligencia Artificial, y en Compliance y Gobierno Corporativo, ambos cursados en la PUC. Fue ayudante de Derecho Procesal en la misma casa de estudios. Ha trabajado tanto en el sector público como privado, especializándose en cumplimiento normativo, protección de datos personales y tecnologías emergentes.

Artículos relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Close
Close