Columnas

Inteligencia Artificial y Responsabilidad: ¿Estamos preparados para los vacíos legales del futuro?

Por Felipe Romo Andrade*

La Inteligencia Artificial generativa llegó para transformarlo todo, impulsando la eficiencia y automatizando tareas del día a día. Hoy es una herramienta poderosa que todos debemos aprender a manejar para no quedarnos atrás, incluido el derecho. Pero su adopción masiva en países pioneros ha revelado un problema crucial: ¿quién responde cuando un sistema autónomo causa un daño?

Felipe Romo Andrade

Recientemente, un abogado en Estados Unidos enfrentó sanciones tras presentar un escrito judicial con jurisprudencia inventada. Había confiado ciegamente en una herramienta de IA que, en un fenómeno conocido como “alucinación”, fabricó precedentes legales inexistentes. Este no es un caso aislado. En 2024, un tribunal canadiense obligó a Air Canadá indemnizar a un pasajero, luego de que su asistente virtual proporcionara información falsa sobre descuentos, sentando un precedente sobre responsabilidad por errores generados por IA. Y en Australia, Deloitte reconoció que parte de un informe oficial fue redactado con IA y contenía errores significativos, lo que obligó a revisar sus protocolos internos.
Casos como estos muestran que el problema ya es real y creciente. ¿Podría ocurrir algo similar en Chile? Sí, y probablemente ya esté sucediendo de forma silenciosa.

Mientras Europa avanza con una regulación pionera el Reglamento de IA de la Unión Europea que impone altos estándares de transparencia, control y responsabilidad según niveles de riesgo. Brasil discute un proyecto que, entre varios puntos, propone establecer responsabilidad civil objetiva por los daños causados por estas tecnologías. En Chile, en tanto, seguimos a la espera en un proyecto de ley de Inteligencia Artificial en tramitación en el Congreso Nacional. Mientras tanto, distintas entidades implementan herramientas de IA sin un marco normativo que delimite responsabilidades claras.

El gran desafío: los vacíos de responsabilidad

El corazón del problema son los llamados “vacíos de responsabilidad”, concepto que gana fuerza en la discusión jurídica internacional. Estos vacíos surgen cuando las normas tradicionales no logran asignar la culpa de manera satisfactoria tras un perjuicio causado por una tecnología compleja.
A veces nadie resulta responsable; otras, la culpa recae sobre el operador humano más cercano al sistema, pese a que tenía poco control real. También puede ocurrir que múltiples actores, desde el desarrollador hasta el usuario final, se señalen entre sí, sin que exista una atribución efectiva.

En Chile, sin una ley específica, aplicar las reglas clásicas de responsabilidad civil, basadas en probar la culpa, resulta insuficiente cuando un sistema de IA actúa de forma impredecible o sus decisiones son opacas. ¿Demandamos al desarrollador, al usuario o a la empresa que lo implementó? Hoy no hay claridad.

Mirando al espejo internacional

Chile suele inspirar sus normativas en realidades europeas. El Reglamento de IA de la UE representa el marco más avanzado del mundo, estableciendo prohibiciones a prácticas de IA inaceptables y creando obligaciones estrictas para sistemas de alto riesgo. Estos deben ser transparentes, robustos y contar con supervisión humana. Sin embargo, incluso en Europa, la ley no resuelve del todo los dilemas de responsabilidad civil por daños.
En Estados Unidos, la regulación sigue siendo fragmentada y reactiva. Si ni siquiera los países más avanzados tienen respuestas definitivas, ¿cómo nos preparamos nosotros?

Surgen entonces propuestas innovadoras desde académicos extranjeros donde están hablando de una responsabilidad compartida y proporcional entre todos los actores de la cadena desde quien diseña hasta quien implementa la IA según su nivel de control e influencia. Otra idea es invertir la carga de la prueba, de modo que, ante un daño, sea el proveedor tecnológico quien deba demostrar que actuó con la debida diligencia y que su producto no causó el perjuicio.

Conclusión

La IA llegó para quedarse y ofrece enormes beneficios en productividad y eficiencia. Pero sin un marco de responsabilidad claro y moderno, cada error o “alucinación” puede transformarse en un caso sin responsables, erosionando la confianza en la justicia y afectando a las personas.
Mientras la ley chilena no avance con una regulación precisa, la prudencia manda, la supervisión humana crítica y la transparencia en el uso de estas herramientas son nuestra única defensa frente a los vacíos legales del futuro.
A ello se suma la necesidad de fortalecer nuestras tech skills y aplicar criterio jurídico con responsabilidad. Chile tiene la oportunidad de aprender de los tropiezos ajenos y construir una regulación proactiva. No esperemos a que el primer “caso ChatGPT” local nos tome por sorpresa y encuentre al sistema legal en un vacío.


*Felipe Romo Andrade es abogado corporativo con 15 años de experiencia en la industria multinacional.

Artículos relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Close
Close