Al aire

La No Discriminación de Algoritmos en el Trabajo y Desafíos de la Ley N°21.431

Se destaca que esta normativa vino en agregar al Código del Trabajo un artículo de gran trascendencia, no solo en el ámbito del trabajo, sino que también en el avance de la regulación de la Inteligencia Artificial en nuestra legislación, siendo así la primera norma en prohibir la discriminación por parte de los algoritmos, encontrándose así en lineamiento con las Políticas de la Unión Europea.

*Raimundo Hurtado

Con fecha 11 de marzo del año 2022 se publicó la Ley N°21.431 que “Modifica el Código del Trabajo Regulando el Contrato de Trabajadores de Empresas Digitales de Servicios”, la cual tiene por principal objeto regular, de manera innovadora y trascendente en nuestra región, la situación ajurídica producida por la aparición de nuevas tecnologías en el plano del trabajo desde hace algunos años, principalmente por las denominadas “economías colaborativas” que prestan servicios en algunas áreas como delivery o transporte, entre ellas PedidosYa, UberEats, Rappi, Beat, Uber, Cabify, DiDi, Yummy Rockets, entre otras.

Se destaca que esta normativa vino en agregar al Código del Trabajo un artículo de gran trascendencia, no solo en el ámbito del trabajo, sino que también en el avance de la regulación de la Inteligencia Artificial en nuestra legislación, siendo así la primera norma en prohibir la discriminación por parte de los algoritmos, encontrándose así en lineamiento con las Políticas de la Unión Europea.[1]

Estipula así el nuevo artículo 152 quinquies E del Código del Trabajo una prohibición de discriminación por parte de los mecanismos automatizados en la toma de decisiones. Establece que, en la implementación de los algoritmos, la empresa de plataforma digital de servicios deberá respetar el principio de igualdad y el de no discriminación y para ello, tomará todas las medidas y resguardos que sean necesarios con el fin de evitar cualquier tipo de discriminación entre los trabajadores, particularmente en la asignación de trabajo, oferta de bonos e incentivos, cálculo de remuneraciones, entre otros. Asimismo, también será considerada discriminación la conducta del empleador aparentemente neutra, y cuyo resultado afecte desproporcionadamente a uno o más trabajadores.

Sin perjuicio de que en nuestra legislación ya se ha estipulado el principio de no discriminación en diversos cuerpos normativos, como el artículo 19 N°2 de la Constitución Política de la República, la Ley N°20.069 que establece medidas contra las discriminaciones arbitrarias, y el mismo artículo 2 inciso tercero del Código del Trabajo, llama la atención la creación de este artículo, debido a que desde el desarrollo de este principio, el legislador lo ha abordado solamente desde la perspectiva de las relaciones humanas y nunca en la interacción entre una persona y un programa computacional, o bien en este caso entre un trabajador y una aplicación.

De este modo, el acto discriminatorio implica un reproche doble por parte del legislador, por un lado, el daño o perjuicio causado al sujeto pasivo en razón de la discriminación arbitraria que ha intervenido y por otro lado, se reprocha el acto del sujeto activo, por el contenido anti ético que subyace en este. Asimismo, en virtud de dicho acto, es que nace la necesidad de dar, hacer o no hacer algo por parte del sujeto activo a favor del sujeto pasivo, en orden de reestablecer la situación antijurídica producida.

Ahora bien, en el caso de los algoritmos, se desvanece la existencia del segundo elemento del reproche social y jurídico de la discriminación, debido a que es claro que los algoritmos, faltos de conciencia, no pueden discriminar con una intención, sino que en el caso de haberlo hecho es por la existencia de una “falla” o sesgo en la programación, ya sea este latente (latent bias), de interacción (interaction bias) o de selección (selection bias). [2] Por ejemplo, hipotéticamente podría ocurrir que la plataforma comience a otorgar más encargos a algunos trabajadores por sobre otros en razón de su nacionalidad, debido a que algunos trabajadores de cierta nacionalidad han resultado ser más rápidos al momento de entregar los pedidos, siendo, por tanto, más eficientes para el algoritmo (caso de sesgo latente o latent bias).

Debido a lo anterior, pareciera ser que lo lógico sería la implementación de una responsabilidad de tipo objetiva, en la que el empleador -en este caso la empresa de plataformas digitales de servicios- responda por cualquier acto de discriminación realizado por el algoritmo, tal como si lo hubiese hecho por sí mismo, a pesar de no existir intención de ejecutar un acto discriminatorio. Sin embargo, el legislador en la segunda parte del inciso primero del Artículo 152 quinquies E del Código del Trabajo pareciera haberse inclinado por una moderación del régimen anterior, transformando la obligación de no discriminación del algoritmo del empleador a una obligación de medios: Para ello, tomará todas las medidas y resguardos que sean necesarios con el fin de evitar cualquier tipo de discriminación entre los trabajadores, particularmente en la asignación de trabajo, oferta de bonos e incentivos, cálculo de remuneraciones, entre otros.”

En este sentido, la incorporación de esta norma a nuestra legislación implica un doble desafío. Por un lado, los Tribunales de Justicia una vez entre en vigencia la Ley N°21.431 (el 01 de septiembre de 2022), deberán plantear mediante la jurisprudencia, la aplicación del régimen de responsabilidad correspondiente y sus alcances a los actos provocados por los algoritmos, además del alcance de la obligación de no discriminar para el empleador en dicho ámbito y los medios por los cuales se podrá eximir de responsabilidad el empleador por la comisión de dichos actos.

Por otro lado, si bien el legislador ha establecido la posibilidad de que las Empresas de Plataformas Digitales de Servicios puedan eximirse de responder por actos discriminatorios realizados por los algoritmos propios, mediante la utilización de medidas y resguardos que demuestren la intención de haber evitado la existencia de una discriminación, no se han establecido los métodos por los cuales se da cumplimiento a dicho supuesto legal. mediante la realización de auditorías, revisiones periódicas de la codificación del programa y las bases de datos utilizadas, entre otros métodos.

* Raimundo Hurtado, abogado asociado del equipo laboral  Morales & Besa

[1] Resolución del Parlamento Europeo de fecha 20 de octubre del año 2020, sobre el “Marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas”.

[2] Amunategui Perelló, Carlos (2021): “Arcana Technicae, El derecho y la Inteligencia artificial” pg. 58.

Artículos relacionados

Agregar un comentario

Su dirección de correo no se hará público. Los campos requeridos están marcados *

Close
Close