Al aire

Chile y los Desafíos pendientes en materia de Inteligencia Artificial

"Creemos que el futuro Proyecto de Ley sobre Inteligencia Artificial, debería incluir un catálogo taxativo de actividades o de sectores que serán considerados de alto riesgo, los cuales quedarían automáticamente sujetos a este régimen excepcional de responsabilidad objetiva, pudiendo actualizarse dicho listado cada cierto periodo de tiempo".

Por Paulina Martínez Verdejo * y Octavio Kehr Castillo **

El pasado 27 de enero de 2021, finalizó en nuestro país el periodo de consulta pública sobre “Política Nacional de Inteligencia Artificial”, la cual fue realizada por el Ministerio de Ciencia y Tecnología. Esta política nacional, se compone de 3 ejes principales, que son a saber: i) Factores Habilitantes (Infraestructura Tecnológica, Desarrollo de Talento y Datos); ii) Desarrollo y Adopción; y iii) Ética, Aspectos Legales y Regulatorios e Impactos Socioeconómicos (Ética, Impactos en el Trabajo, Relaciones de Consumo, Propiedad Intelectual, Ciberseguridad, Ciberdefensa y Género).

Ahora, si bien esta política nacional solo marca los lineamientos generales que deberían seguirse en materia de inteligencia artificial en los próximos 10 años en nuestro país, se extraña que en dicha política no se haya planteado el tema de la responsabilidad civil por los daños o perjuicios que pueden ser causados por un sistema de inteligencia artificial (en adelante indistintamente “IA”), el cual es un aspecto que debió haber sido abordado en esta consulta pública. Dicho lo anterior, podemos mencionar el caso de la Unión Europea, donde su Parlamento aprobó en octubre del año pasado un Reglamento sobre el nuevo “Régimen de Responsabilidad Civil en Materia de Inteligencia Artificial”, el cual debería entrar en vigor el segundo semestre de este año. Ahora bien, entre los aspectos destacados en la normativa europea, se encuentran: i) El establecimiento de un marco jurídico horizontal y transversal en materia de inteligencia artificial, y ii) El establecimiento de diversos regímenes de responsabilidad civil dependiendo del tipo de riesgo. 

Paulina Martínez Verdejo

En cuanto a este último punto, y al igual como lo consagra el Reglamento aprobado por el Parlamento Europeo, somos partidarios de que el futuro proyecto de ley que regule la inteligencia artificial en Chile, establezca un régimen especial de responsabilidad civil, distinguiendo entre supuestos de responsabilidad objetiva y de responsabilidad subjetiva. En el caso de la primera hipótesis, sería conveniente consagrarla para los casos de sistemas de IA que sean autónomos y de alto riesgo, entendiendo por alto riesgo “cuando su funcionamiento autónomo conlleva un potencial significativo de causar daño a una o más personas, de forma aleatoria, y yendo más allá de lo que cabe esperar razonablemente”.

En este sentido, creemos que el futuro Proyecto de Ley sobre Inteligencia Artificial, debería incluir un catálogo taxativo de actividades o de sectores que serán considerados de alto riesgo, los cuales quedarían automáticamente sujetos a este régimen excepcional de responsabilidad objetiva, pudiendo actualizarse dicho listado cada cierto periodo de tiempo. Ahora, si bien somos partidarios de aplicar este régimen de responsabilidad objetiva a los operadores de un sistema de inteligencia artificial de alto riesgo, como lo sería por ejemplo el sistema de alarmas por derrumbe en una faena minera que utiliza CODELCO, consideramos que es razonable que dichos operadores puedan eximirse de responsabilidad en los supuestos de fuerza mayor o de caso fortuito.

Adicionalmente, y al igual como lo estableció el Reglamento aprobado por el Parlamento Europeo, somos de la idea de exigir a los operadores de un sistema de Inteligencia artificial de alto riesgo, la contratación de un seguro obligatorio de responsabilidad civil, debiendo existir de todas formas un justo equilibrio entre lo que es la protección a los usuarios, y los incentivos que se puedan dar a empresas (sean Grandes o PYMES) que busquen innovar en la creación de tecnología, servicios y productos relacionados con la inteligencia artificial. 

Octavio Kehr Castillo

Por otro lado, en los casos de actividades o de sectores que no sean considerados de alto riesgo, la cual sería la regla general, creemos que dichas actividades o sectores debiesen estar sujetos a un régimen de responsabilidad subjetiva, teniendo los usuarios afectados la posibilidad de acogerse a un sistema de presunción de culpa del operador del sistema de IA en caso de existir algún daño. De esta manera, si el operador desea eximirse de su obligación legal de indemnizar perjuicios, debe probar que ha cumplido con el deber de diligencia exigido. 

A modo de ejemplo, podemos mencionar el caso de la compañía UBER1Isaac, Mike; Wakabayashi, Daisuke; Conger, Kate (August 19, 2018). “After Fatal Accident, Uber’s Vision of Self-Driving Cars Begins to Blur” (print). Proquest Digital Microfilm New York Times. The New York Times. , donde el año 2018 en Arizona, USA, una mujer murió al ser atropellada por un automóvil perteneciente a dicha compañía, el cual estaba siendo conducido mediante un software de manejo automatizado. En este caso, se logró comprobar la responsabilidad de UBER y de la persona que iba como piloto de seguridad del automóvil, quien no actuó con la debida diligencia al manejar el vehículo. A consecuencia de este hecho, inmediatamente le fueron suspendidas las licencias a UBER para hacer pruebas de manejo automatizado en algunas ciudades (Tempe, Pittsburgh y Toronto), sin perjuicio de las demandas civiles y penales que tuvo que enfrentar dicha compañía y el conductor del automóvil.

Así las cosas, es necesario el establecimiento de un régimen especial de responsabilidad civil en materia de inteligencia artificial, distinto al régimen general de responsabilidad contractual (artículos 1556, 1557, y 1558) y extracontractual (artículos 2314 y 2319) establecido en el Código Civil. Esto, por cuanto la actual normativa sobre productos defectuosos y peligrosos de la Ley 19.496 sobre Protección de Derechos del Consumidor, resulta insuficiente en los casos de incumplimientos e infracciones por parte de productores, operadores, y vendedores de sistemas de inteligencia artificial.

En síntesis, podemos concluir que, si bien la política nacional de inteligencia artificial en nuestro país se encuentra lejos de alcanzar el nivel de desarrollo de países como Estados Unidos, China, la Unión Europea, y Japón, creemos que es satisfactorio que al menos el debate ya se haya instalado dentro del mundo académico, quedando sin embargo un largo camino por recorrer.

* Paulina Martínez Verdejo es Abogada de la Universidad Finis Terrae, Master of Laws (LL.M) in Compliance  en la University of Fribourg, Suiza.

** Octavio Kehr Castillo es Abogado de la Universidad de los Andes, Master of Laws (LL.M) in International Dispute Settlement del Graduate Institute of International and Development Studies de la University of Geneva, Suiza.

Artículos relacionados

Agregar un comentario

Su dirección de correo no se hará público. Los campos requeridos están marcados *

Close
Close