Columnas

Responsabilidad profesional ¿Humano o IA?

La creciente utilización de herramientas de inteligencia artificial (IA) plantea preguntas cruciales sobre la responsabilidad en casos de resultados perjudiciales. A través de ejemplos como chatbots que difunden odio y abogados que confían ciegamente en la IA, el texto explora las complejidades éticas y legales, cuestionando si la responsabilidad recae en los usuarios o los creadores de la IA.

Por: Diego Navarro*

Microsoft diseñó un chatbot para replicar la conducta de un adolescente. A las pocas horas de su lanzamiento comenzó a difundir mensajes de racismo y odio.

Otro sistema, diseñado por Amazon para reclutar a profesionales, realizó la selección discriminando según género de los postulsantes. La compañía usó currículos de la última década para entrenar su modelo. Como la mayoría de los currículos habían sido presentados por hombres, la IA inherentemente buscó aquellos currículos con más semejanza a aquellos con los cuales fue entrenada.

Diego Navarro
Diego Navarro

Un abogado en EE.UU. utilizó ChatGPT para realizar investigación de antecedentes en la construcción de un caso y terminó siendo multado por el tribunal.
Confío en que los resultados de ChatGPT eran precisos, sin tomar el tiempo para verificar que los casos citados fuesen reales. ChatGPT no sólo inventó citas, sino también casos completos que estaban relacionados con su investigación y que apoyaban su argumento. El abogado declaró en la audiencia: “Nunca hubiera imaginado que ChatGPT fabricaría casos.”

Todo esto nos lleva a la pregunta ¿Quién es el responsable por los resultados generados al utilizar herramientas con Inteligencia Artificial (IA)? ¿Los usuarios o los creadores de la IA?

Jaime Mañalich en una columna publicada en La Tercera (17 de enero de 2024) “IA, una nueva luz, pero cuidado”, plantea una incógnita ¿Cuándo la IA se equivoque y produzca daño, de quién es la responsabilidad?

La respuesta no parece ser clara y surgen diversas disyuntivas: Un caso hipotético podría ser el de un vehículo autónomo que utiliza inteligencia artificial para administrar su conducción ¿Si ocurre un accidente, puede el conductor eximirse atribuyendo la culpa al fabricante? ¿Puede el fabricante abstraerse de toda responsabilidad arguyendo en los términos y condiciones en la venta del vehículo de que no se hace responsable por accidentes?

Una situación un poco más clara parece ser la del abogado que usó ChatGPT para formular un caso, obteniendo resultados inventados por ChatGPT ¿Es el profesional responsable o ChatGPT?

A medida que aumente el uso de herramientas de Inteligencia Artificial para apoyar a profesionales en sus tareas, surgirán diversas disyuntivas a las que nos veremos enfrentados desde el debate público hasta lo legislativo y, seguramente, lo judicial. El nivel de responsabilidad que le asignaremos a la Inteligencia Artificial frente a consecuencias imprevistas o que produzcan daño como resultado de su utilización, es relevante.

Asumir que la IA es inteligente y puede resolver problemas complejos es bastante cómodo. Confiamos en que los resolverá de forma correcta y los profesionales podremos dedicarnos a otras tareas. ¿Pero es realmente así?

Kate Crawford, investigadora de Microsoft Research Lab, Nueva York, expuso en la última versión del Congreso Futuro “La Inteligencia Artificial no es artificial ni inteligente”. Dice Crawford que la IA no es un ente abstracto ajeno a la sociedad que se gobierna por sí mismo. Los desarrollos de IA son herramientas concretas, construidas y entrenadas por humanos para realizar tareas como cualquier otra herramienta tecnológica.

No son -aún- entes abstractos capaces de producir ideas y razonar por sí mismos, sino software de apoyo al trabajo profesional.  Se cae en un grave error al sostener que se le podría atribuir alguna responsabilidad o utilizar como eximente el hecho de que se depositó la confianza en dicha herramienta para realizar una determinada labor. Todo profesional es responsable del producto de su trabajo y, como tal, de revisar dicho resultado independiente de las herramientas tecnológicas que haya utilizado para realizarlo.

Los gobiernos han comenzado a debatir sobre tomar medidas en quién recae la responsabilidad de la IA y los legisladores se ven inclinados en responsabilizar a las organizaciones cuando los sistemas de IA causen daños.

De hecho, ya se están elaborando algunas normativas internacionales, con la Unión Europea a la cabeza 1(https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence)

Sin embargo, no está claro si estas medidas garantizarán de forma efectiva una IA ética y fiable y si responsabilizarán a las organizaciones cuando no cumplan las directrices sobre IA.

Los responsables políticos y los expertos en tecnología debaten sobre el alcance de la regulación. Algunos creen que una regulación excesiva podría limitar la creatividad y el avance tecnológicos. Sin embargo, una regulación demasiado escasa podría permitir la proliferación de sistemas de IA perjudiciales. Dónde trazar la línea sigue siendo objeto de debate.

*Diego Navarro. Abogado y emprendedor con más de 15 años de experiencia en comunicaciones corporativas y tecnología. Fundador y CEO de SPEKTR, una startup de inteligencia artificial jurídica que busca revolucionar la industria legal y el trabajo cualitativo de abogados.

Artículos relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Close
Close