Columnas
Inteligencia artificial, ChatGPT y ¿regulación?
"Los riesgos se expanden hacia diversas direcciones. Por ejemplo, es posible percibir de forma aún más patente el riesgo de colusión algorítmica entre competidores, o el establecimiento de condiciones automatizadas que pueden ser abusivas contra clientes, proveedores o competidores. De ello había estado advirtiendo, por ejemplo, la OECD, principalmente en su documento titulado “Algorithms and collusion. Competition policy in the digital age” (2017)."
Por Cristián Reyes Cid *
Esta columna de opinión fue escrita por una inteligencia artificial a la cual se le incorporaron parámetros básicos, tales como la temática requerida, los riesgos asociados, los desafíos éticos involucrados y diversas fuentes disponibles en la web. Bueno, realmente no. O quizás sí.
Lo importante es observar cómo en cuestión de semanas la inteligencia artificial (AI) se ha hecho masiva, popular, alcanzable, a partir de diversas aplicaciones que permiten a los usuarios -incluso de modo gratuito- no sólo responder a toda clase de preguntas o escribir textos completos de manera automática, sino incluso crear canciones, pinturas, fotografías y software, entre otras soluciones.
Ciertamente, surgen a partir de tal realidad cuestionamientos éticos y jurídicos relevantes, dado que los límites entre la intervención humana y la creación artificial se vuelven difusos y confusos, a lo que se suma la posibilidad de que -por ejemplo- se tenga como verdadera información que realmente no lo es o como autor de una obra o producto a una persona que realmente no lo ha creado.
En este sentido, los riesgos se expanden hacia diversas direcciones. Por ejemplo, es posible percibir de forma aún más patente el riesgo de colusión algorítmica entre competidores, o el establecimiento de condiciones automatizadas que pueden ser abusivas contra clientes, proveedores o competidores. De ello había estado advirtiendo, por ejemplo, la OECD, principalmente en su documento titulado “Algorithms and collusion. Competition policy in the digital age” (2017).
También existen riesgos en cuanto a que las plataformas digitales, en especial las redes sociales, provoquen sesgos de información o de preferencias, limiten o bloqueen la competencia entre oferentes de productos y servicios que tengan alguna relación contractual o de propiedad con la plataforma, e incluso se generen contenidos que no sean reales, emitidos por usuarios inexistentes, produciéndose con ello manipulaciones acordes a los criterios e ideologías de quienes dirijan las respectivas plataformas.
Ni hablar de los problemas de derecho de autor que podrían surgir, por ejemplo, a partir de obras elaboradas con la ayuda de una inteligencia artificial. En este caso, ¿una persona física podría atribuirse la autoría de la obra, por el solo hecho de introducir los parámetros respectivos? ¿O la AI ha sido la autora? ¿Si las fuentes para realizar dicha obra pertenecen a terceros, podría estimarse que existe plagio? ¿Dónde establecer los límites para un caso u otro?
Es más, ya han surgido cuestionamiento éticos y legales respecto del caso de un juez colombiano que incorporó en una sentencia consultas efectuadas a ChatGPT, en relación a la solicitud de una madre para que su hijo autista fuera exonerado del pago de citas médicas, terapias y transporte hacia los centros hospitalarios, por no contar con los recursos económicos necesarios. Mientras algunos defienden este actuar, basado en la ayuda y no reemplazo que una AI puede entregar a la labor judicial, otros como el profesor Juan David Gutiérrez ha señalado que “Como ocurre con otras IA en otros ámbitos, bajo la narrativa de una supuesta eficiencia se pone en riesgo los derechos fundamentales”.
Así las cosas, y tomando las palabras que la misma creadora de ChatGPT, Mira Murati, proporcionó a la revista Time, es importante que las empresas que desarrollen AI lo hagan de forma controlada y responsable, pero que además existan “muchos más aportes que vayan más allá de las tecnologías: sin duda, reguladores, gobiernos y todos los demás”.
Este posible establecimiento de reglas -que puede ir desde el nivel de programación, a la posibilidad de que se puedan hacer fiscalizaciones y modificaciones posteriores- debe comenzar pronto, dado el vertiginoso avance de la AI. Sin embargo, debe ser proporcional -a fin de no desincentivar la innovación- y evitar ser redundante con sistemas o normas que ya existan en cada uno de los países.
Lo cierto es que la AI ya no es una realidad eventual. Es ahora y debe ser afrontada ahora.
Fin de la transmisión.
* Cristián Reyes Cid es Senior counsel de Aninat Abogados. Es especialista en industria Fintech, medios de pago y temas generales sobre Libre Competencia.