Columnas

Más tecnología, más responsabilidad

Por Andrés Arellano*

Hace algunas semanas se conoció un caso donde un abogado citó jurisprudencia inexistente frente a un tribunal, lo cual derivó en una multa para el profesional y luego en un comunicado de su parte pidiendo disculpas. Las disculpas se centraron en explicar que la referencia había sido generada por una inteligencia artificial, producto del fenómeno conocido como alucinaciones, es decir, cuando un modelo de inteligencia artificial «inventa» información.

Este es el primer caso públicamente conocido en Chile, pero es probable que hayan ocurrido otros que pasaron desapercibidos, donde ni las partes ni los jueces detectaron el problema y los argumentos se respaldaron en jurisprudencia ficticia

Andrés Arellano

Este fenómeno está lejos de ser aislado. En los últimos tres años, su incidencia ha explotado. En Estados Unidos, en 2023 se reportaron 10 casos; en 2024, 35; en 2025, la cifra saltó a 484; y en lo que va de 2026 ya suman 91. Esto claramente va de la mano con el fuerte aumento en el uso de herramientas de IA por parte de las firmas legales. Y no estamos hablando de situaciones que solo le ocurren a abogados con poca experiencia o estudios de bajo prestigio. Grandes oficinas como Morgan & Morgan, K&L Gates y Butler Snow LLP han sido parte de estos casos.

El problema tampoco es exclusivo de la profesión legal. En otras disciplinas de servicios profesionales ocurre lo mismo: datos inventados en un estudio de mercado, referencias falsas en una campaña de marketing, información errónea en artículos de prensa, y en general en cualquier área de trabajo de conocimiento. Pero probablemente una de las industrias más sensibles es la jurídica, ya que en su esencia está el esclarecimiento de los hechos, la búsqueda de la verdad y la determinación de posibles consecuencias en función de esto.

¿La solución es dejar de usar estas herramientas? Evidentemente no, eso simplemente no es un escenario realista. Las industrias que no se suban a este carro van a dejar de ser competitivas y quedarán rezagadas frente a las que sí lo hagan.

Los conceptos relevantes aquí tienen que ver con la responsabilidad y ética profesional, el alcance que se le da a las herramientas de inteligencia artificial y las competencias que se requieren para utilizarlas. Los profesionales del derecho deberán formarse y entrenarse en el correcto uso de estas herramientas: entender cómo funcionan, qué se puede esperar de ellas, cómo se distinguen unas de otras y conocer sus vulnerabilidades y fortalezas.

Pero más importante aún es lo que tiene que ver con la responsabilidad y la ética profesional. En ningún caso tiene sentido excusarse endosando responsabilidad a una herramienta tecnológica. Jamás pensaríamos que un ingeniero calculista culparía a un software matemático por haber errado al calcular los parámetros para la construcción de un edificio. El responsable y quien pone su firma será siempre el profesional. La misma obligación y estándar ético se le debe exigir a los abogados en el ejercicio de la profesión.

Esta situación, en cierto modo, es alentadora. Los avances tecnológicos no reemplazan, ni probablemente reemplazarán, ciertas dimensiones de la interacción humana que solo las personas pueden aportar. Quienes temen por los vertiginosos avances de la tecnología debieran más bien entusiasmarse y profundizar en aquellas competencias que son exclusivamente humanas.


*Asociación de Legaltech de Chile ALTECH y Fundador de Magnar

Artículos relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Close
Close