Columnas
Cuando un escrito impecable puede ser falso
La IA no solo introduce errores. Cambia los supuestos sobre los que opera la justicia.
Por: Daniel S. Acevedo Sánchez | Linkedin | Email*
Durante décadas, los sistemas judiciales han operado sobre una confianza estructural rara vez explicitada: los escritos presentados por los abogados, aunque imperfectos, son producto de un razonamiento humano verificable. El juez podía confiar en que una cita correspondía a un fallo real y en que el error, cuando ocurría, era humano y rastreable. Esa confianza está empezando a erosionarse, y conviene tomarse en serio lo que eso significa.
El 18 de abril de 2026, la firma estadounidense Sullivan & Cromwell, una de las más prestigiosas del mundo, se disculpó ante el juez Martin Glenn, del tribunal de insolvencias del Distrito Sur de Nueva York, por un escrito que contenía citas legales fabricadas por inteligencia artificial. La firma reconoció tener políticas integrales sobre uso de IA, pero admitió que sus controles internos no se siguieron. Damien Charlotin, investigador que mantiene un registro público de estos incidentes, ya tiene catalogados más de mil casos similares en distintas jurisdicciones, varios con sanciones económicas y costas a los abogados responsables.

Lo importante de estos casos no es la cantidad. Es lo que revelan. El error en la práctica legal cambió de naturaleza. Ya no se manifiesta como un argumento débil, sino como un texto perfectamente estructurado, técnicamente impecable y aparentemente bien fundamentado, salvo por el detalle de que lo que afirma no existe. Eso plantea un problema que el sistema judicial todavía no sabe procesar, porque su estándar de revisión nunca contempló esta posibilidad.
El estándar tradicional asume que verificar un escrito significa leerlo, contrastarlo y confiar en la forma del argumento. Pero cuando la forma puede fabricarse con la misma calidad estética que el contenido legítimo, la lectura deja de ser suficiente. Aparece una nueva exigencia: verificar la trazabilidad del conocimiento jurídico que sostiene el escrito.
El sistema empieza a reaccionar, pero lentamente. En Estados Unidos, el Comité de Reglas de Evidencia del Judicial Conference discute la propuesta de Regla 707, que sometería la evidencia generada por máquinas a estándares equivalentes al testimonio experto, con validación metodológica de los outputs de IA. La votación está prevista para mayo de 2026. Es un primer paso, pero solo eso, en una sola jurisdicción, para un fenómeno global.
Chile, con un Poder Judicial cada vez más digitalizado y con la Ley 21.719 de protección de datos personales que entra en vigencia en diciembre de 2026, no es ajeno a esta tendencia. La pregunta no es si los tribunales chilenos enfrentarán escritos asistidos por IA con errores no detectados. Es cuándo y con qué capacidad de respuesta. Y esa respuesta no puede limitarse a sancionar al abogado responsable: tiene que pensar en cómo se protege la integridad del proceso cuando el documento que llega a la sala ya no tiene la misma confiabilidad implícita que tenía hace cinco años.
El sistema judicial no descansa solo sobre normas. Descansa sobre confianza. Y cuando esa confianza se basa en supuestos que dejan de ser ciertos, los mecanismos de validación tienen que redefinirse. En un entorno donde un documento puede ser impecable y al mismo tiempo incorrecto, el litigio deja de ser solo una cuestión de argumentación jurídica. Pasa a ser, también, una cuestión de verificación estructural.
*Consultor en transformación digital y estrategia – Legal, Tax & Finance




