Columnas

Regulaciones internacionales para la inteligencia artificial

"No hay respuestas genéricas claras a las preguntas de lo que modelos de inteligencia artificial deben o no ser capaces de hacer, por lo tanto no todos los conflictos de valor se pueden resolver tomando decisiones de diseño en la etapa de desarrollo de estos modelos".

Por Jhenny Rivas Alberti * y Alexander Espinoza **

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) realizó un proceso de consulta en el que involucró a una amplia gama de grupos, incluidos representantes de la sociedad civil, el sector privado y el público en general, con el fin de establecer estándares internacionales de inteligencia artificial y garantizar que la tecnología tenga una sólida base que se cimente en una perspectiva de Derecho Humanos.

Pueden mencionarse 3 grandes áreas  que deben tomarse en consideración para esta regulación internacional de la inteligencia artificial: (i) es imprescindible brindar más diversidad en este campo para reducir los sesgos de todo tipo, (ii) la inteligencia artificial en materia de https://estadodiario.com/wp-content/uploads/2018/02/im4-1.jpgistración de justicia pude brindarnos grandes avances pero es necesario garantizar que puedan hacerse más justos y eficientes, (iii) garantizar el acceso al mayor número de personas de los beneficio de la tecnología.

Todos estos elementos se encuadran dentro de los objetivos perseguidos por la Unesco de crear conciencia, educar y promover la reflexión ética. Es por ello por lo que se espera que estas reglas internacionales sirvan como parámetros que establezcan la ruta a seguir en cuanto a la protección de valores que deben ser tomados en consideración en el desarrollo de inteligencia artificial.

Es necesario tomar en consideración que los modelos que utilizan inteligencia artificial se presumen como neutros y se entiende que, al decidir sobre un determinado aspecto, una maquina lo hará de manera más objetiva. No obstante, esos modelos se entrenan con datos que en sí mismos pueden incluir prejuicios reforzando así la discriminación, pero haciéndola más difícil de identificar.

Jhenny Rivas Alberti

El sesgo en los datos puede producirse no sólo por problemas en la recopilación de datos, en una etapa inicial, esto es, en la definición del problema. Cuando se crean modelos de aprendizaje profundo se fija cuál es su objetivo. Esas decisiones se toman en un gran número de casos basadas en razones comerciales y no toman en consideración elementos como equidad, igualdad o solidaridad, por lo que pueden reproducirse las desigualdades ya existentes y aún más grave profundizarse1Barocas, Solon, Hardt, Moritz, Narayanan, Arvind (2019). Fairness in Machine Learning Limitations and Opportunities. Disponible en: https://fairmlbook.org. 

En cuanto a la recolección de datos, los sesgos se pueden producir por dos vías. O bien los datos recopilados no son representativos de la realidad, o contienen prejuicios en sí mismos.

Por otra parte, es posible introducir sesgos durante la etapa de preparación de datos a la hora de seleccionar los atributos que se desean que el algoritmo tenga en cuenta. Por ejemplo: en el caso de modelar la solvencia crediticia, un “atributo” podría ser la edad del cliente, los ingresos o la cantidad de préstamos pagados. Esto es lo que se denomina el “arte” del aprendizaje profundo: elegir qué atributos considerar o ignorar puede influir significativamente en la precisión de la predicción de un modelo. Pero, aunque resulta fácil medir su impacto en la precisión, medir sus sesgos es un proceso bastante complicado2Raso Filippo, Hilligoss Hannah, Krishnamurthy, Vivek, Bavitz, Christopher, Kim, Levin (2018). “Artificial Intelligence & Human Rights: Opportunities & Risks”. The Berkman Klein Center for Internet & Society. Cambridge: Universidad de Harvard.

Alexander Espinoza

En cuanto al sesgo de los datos el primer ángulo el más elemental es el problema de la llamada dieta de datos de un algoritmo, esto es, cuando existen limitaciones en cuanto a la dirección humana, el agente artificial es tan bueno como los datos de los que aprende3Osonde, Osoba, Welser, William (2017). An Intelligence in Our Image: The Risks of Bias and Errors in Artificial Intelligence. Santa Monica: Rand Corporation. Disponible en: https://www.rand.org/content/dam/rand/pubs/research_reports/RR1700/RR1744/RAND_RR1744.pdf. 

Por otra parte, encontramos que el aprendizaje automatizado sobre datos inherentemente sesgados conduce a resultados sesgados. La generación de datos es a menudo un fenómeno social (por ejemplo, interacciones en las redes sociales, discurso político en línea) influido con sesgos humanos. La aplicación de algoritmos de procedimiento correcto a datos sesgados es una buena manera de enseñar a los agentes artificiales a imitar cualquier sesgo que contengan los datos4Caliskan-Islam, Aylin, . Bryson Joanna, Narayanan, Arvind (2017). Semantics Derived Automatically from Language Corpora Necessarily Contain Human Biases. Ithaca, N.Y: Cornell University Library Disponible: https://arxiv.org/abs/1608.07187. 

Otra perspectiva en cuanto al sesgo en los algoritmos se plantea con el trabajo con preguntas políticas o sociales pues estas están influenciadas cultural y socialmente como ilustran los ejemplos de autocompletar de IBM Watson y Google5Grimmelmann, James, Narayanan, Arvind (2016). The Blockchain Gang. Disponible en: http://www.slate.com/articles/technology/future_tense/2016/02/bitcoin_s_lockchain_technology_won_t_change_everything.html. 

A lo anterior se agrega, los juicios en el espacio del comportamiento social, pues estos son a menudo difusos en lugar de criterios binarios bien definidos. Se citan como ejemplo normas culturales difusas,  (“no juro”, “no dar falso testimonio”, “presentar una perspectiva equilibrada”) que influyen en el juicio humano del comportamiento algorítmico correcto6Osonde, Osoba, Welser, William (2017). An Intelligence in Our Image: The Risks of Bias and Errors in Artificial Intelligence. Santa Monica: Rand Corporation. Disponible en: https://www.rand.org/content/dam/rand/pubs/research_reports/RR1700/RR1744/RAND_RR1744.pdf. 

Para los humanos es frecuente aprender a navegar en relaciones difusas complejas, como gobiernos y leyes, permitiendo evaluaciones subjetivas para hacer esto. Los sistemas que se basan en el razonamiento cuantificado (como la mayoría de los agentes artificiales) pueden imitar el efecto, pero a menudo requieren un diseño cuidadoso para hacerlo. Capturar este matiz puede requerir algo más que científicos informáticos y de datos. 

Cada vez hay más trabajo sobre el impacto social y legal de los datos y algoritmos7Gangadharan, Seeta, Peña, Eubanks, V, Barocas, S (2015). Data and Discrimination: Collected Essays, Washington, D.C: Open Technology Institute y un creciente número de evidencias muestra que los algoritmos no tratan automáticamente a diversas poblaciones de manera justa y equitativa sólo por ser algoritmos razonables8Barocas y Selbst, 2016; DeDeo, 2015; Dwork et al., 2012; Feldman et al., 2015; Hardt, 2014, Goddard et al., 2012, Sponholz, 2018.

Así las cosas, aunque es innegable el tema del sesgo en los datos y sus implicaciones en el desarrollo y ejecución de inteligencia artificial, con repercusiones directas sobre el ejercicio de los derechos fundamentales. También es cierto, que las decisiones humanas son difíciles de investigar o revisar. Los seres humanos pueden mentir sobre los factores que consideraron, pero también pueden no entender los factores que influyeron en su pensamiento, dejando espacio para el sesgo inconsciente. La IA puede reducir la interpretación subjetiva de los datos de los seres humanos, los algoritmos de aprendizaje automático aprenden a considerar sólo las variables que mejoran su precisión predictiva, basada en los datos de entrenamiento utilizados9 Kleinberg, Jon, Ludwig, Jens, Mullainathan, Sendhil , Sunstein Cass R (2019).”Discrimination in the age of algorithms”. Journal of Legal Analysis , Volumen 10: 113–174. https://doi.org/10.1093/jla/laz001. 

Estas ventajas sobre los seres humanos implican advertencias, pero apuntan a posibilidades ciertas10Miller, Alex (2018). “Want less-biased decisions? Use algorithms”. Harvard Business Review. Disponible en: https://hbr.org/2018/07/want-less-biased-decisions-use-algorithms. Por lo tanto, es importante el debate y la toma de decisiones en cuanto a las medidas que pueden tomarse para evitar la incrustación de sesgos humanos y sociales evitando así su despliegue a gran escala. 

El tema plantea importantes desafíos en el marco de los derechos fundamentales, pues además de aplicar los derechos fundamentales a la evolución de la inteligencia artificial, también se debería considerar si las tecnologías robóticas podrían desencadenar, a largo plazo, la necesidad de establecer nuevos derechos fundamentales11Koops, E. J, Di Carlo, A, Nocco, L, Cassamassima, V, Stradella, E. (2013). “Robotic technologies and fundamental rights: Robotics challenging the European constitutional framework”. International Journal of Technoethics, 4(2): 15-35..  

A todo evento e independientemente de cómo se generen los modelos de IA, es importante asegurarse de que sus valores estén alineados con los valores humanos para hacer que sea lo más improbable posible cualquier complicación derivada del hecho de que una superinteligencia podría tener compromisos de valor muy diferentes a los seres humanos12Risse, Mathias (2019). “Human Rights and Artificial Intelligence: An Urgently Needed Agenda Mathias Risse Human Rights”. Faculty Research Working Paper Series. Quarterly, Volume 41, Number 1: 1-16.

No hay respuestas genéricas claras a las preguntas de lo que modelos de inteligencia artificial deben o no ser capaces de hacer, por lo tanto no todos los conflictos de valor se pueden resolver tomando decisiones de diseño en la etapa de desarrollo de estos modelos. Esto implica que no debemos pasar por alto los conflictos de valor y derechos que pueden estar involucrados cuando los modelos de IA aterrizan en la sociedad, sino que debemos tratar de hacer frente a estos conflictos, a través de debates críticos tecno-éticos.

El punto de partida de estas discusiones puede ser un enfoque comparativo que pretenda establecer la situación actual de los derechos fundamentales antes de la introducción de la inteligencia artificial en el sistema penal o cualquier otra institucionalidad. Tanto sus fortalezas como debilidades. Esto implica establecer la existencia de adecuados y eficientes mecanismos de protección frente a vulneraciones de derechos fundamentales en el ámbito de que se trate antes la introducción de la IA, para poder establecer en un segundo momento el impacto que tiene la introducción de la IA en el ejercicio de los derechos fundamentales. Impactos positivos, esto es una mayor protección, por ejemplo, o si por el contrario hay un deterioro en el ejercicio de los mismos. Y en qué medidas los mecanismos de protección existentes e inicialmente identificados pueden resolver este detrimento en el ejercicio de los derechos fundamentales.

Si bien admitimos que es difícil el consenso tanto en entornos nacionales como internacionales sobre la mejor manera de regular el desarrollo y el uso de nuevas tecnologías de IA y de IA potencialmente dañinas, así como sobre la forma más eficiente de hacer cumplir la mejor regulación sobre una tecnología de naturaleza globalizada y transfronteriza, estimamos necesario pasar de los principios éticos a una perspectiva que integre la ética, las normas técnicas y los derechos fundamentales.

Esta perspectiva integrada permitirá analizar a fondo cómo las tecnologías de IA podrían eventualmente afectar los derechos fundamentales en diferentes contextos y desarrollar caminos para recursos legales eficaces a tales efectos.

Jhenny Rivas Alberti es abogada Summa Cum Laude por la Universidad Central de Venezuela. Maestría en Derecho Político. Doctora en Derecho por la Universidad de Zaragoza. Docente de la Universidad Católica del Maule y miembro del instituto de Estudios Constitucionales .

** Alexander Espinoza es Doctor en Derecho por la Universidad de Passau, Alemania,Magister Legum Universidad de Passau, investigador en derecho constitucional y Director General del Instituto de Estudios Constitucionales.

Artículos relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Close
Close