ColumnasTILT

“Deepfake Mom”: Desafíos tecnológicos y Derecho

"En el entendido de que estos videos (deepfake o ultrafalsos) suponen más de un problema que, como mínimo puede afectar los derechos de imagen, honor y reputación de las personas contenidas en ellos, la invitación es a preguntarnos si ¿estamos lo suficientemente preparados para la defensa de los mencionados derechos frente a ciertos usos de la inteligencia artificial".

Por Michelle Azuaje Pirela *

Los deepfakes son vídeos en los que el rostro y/o la voz de una persona (normalmente figuras públicas), han sido manipulados utilizando software de inteligencia artificial que permite que estos hagan y digan cosas distintas a las contenidas en el video original. A través de ello se logran efectos hiperrealistas que generan la sensación de que el vídeo alterado es auténtico. En español se les llama también “ultrafalsos” y nacieron en 2017 cuando un usuario de “Reddit” publicó vídeos pornográficos falsos en los que se intercambiaron los rostros de las actrices originales por varias actrices de Hollywood sin que mediara su consentimiento para ello. 

En otras oportunidades hemos advertido sobre los riesgos de que este tipo de contenidos prolifere en la red y sobre su relación con la propiedad intelectual y otros derechos. Para resumir, preocupa entre otras cosas que, dada su gran sofisticación a veces es difícil precisar si estos son reales o falsos. Además, que la mencionada sustitución de rostros o sonidos a través de deepfake en Internet puede ser muy sencilla, rápida y, en ocasiones de libre acceso.  

Estos videos en estricto rigor no están prohibidos y pueden crearse con los más diversos fines. En ese sentido, algunos usos serían legítimos siempre que se hagan, por ejemplo, con fines de sátira, humor o parodia (cumpliendo los requisitos de ley) y en ese contexto, siempre que contengan la advertencia de su falsedad. De lo contrario, pueden generar riesgos de suplantación de identidades, desinformación, difamación, entre otros.

Otro uso que en los últimos meses se ha valorado como positivo, es por ejemplo el que propone TrueSync1Para conocer esta herramienta véase su página web: https://www.flawlessai.com/product, un sistema que utiliza la inteligencia artificial y un motor de preservación de rendimiento para crear una “sincronización perfecta” en los vídeos doblados en varios idiomas. Para los que amamos el cine esta suena como una muy buena noticia. Pero sin perjuicio de que con ello se solucionaría uno de los principales defectos del doblaje (que es precisamente la dificultad de lograr esa sincronización entre la voz y los gestos del actor original) cabe preguntarse ¿el actor original debe prestar su consentimiento para que se realice esta manipulación digital? Por otra parte ¿cómo afectaría la masificación de esta tecnología a los actores de doblaje? ¿significaría que ya no serán necesarios? ¿Debemos fomentar eso? Nos referiremos a ello en otra ocasión. 

En esta oportunidad queremos destacar que la manipulación de estos videos con fines “maliciosos” es más que un problema meramente hipotético que ya comienza a dar algunos dolores de cabeza al derecho desde diversas perspectivas.  Así, aunque para muchos el problema se ve un tanto “lejano” cuando se piensa que son personajes públicos o actrices de Hollywood sus principales afectados, la verdad es que -lamentablemente- esto no siempre es así. De hecho, ¿qué pensaría si fuese un pariente -una hija- la supuesta víctima de semejante situación? Y ¿qué opinaría si le cuento que la persona señalada de atacarla es la madre de una compañera de su equipo de cheerleaders?

Michelle Azuaje Pirela

Pues sí, en marzo de 2021, varios medios estadounidenses reportaban el caso de una madre a la que llaman “deepfake cheerleader mom” o simplemente “deepfake mom”, a quien acusan de haber creado fotos y videos falsos para atacar en secreto a algunas compañeras del equipo de porristas de su hija. En tales contenidos se mostraba a miembros del equipo Victory Vipers “desnudos, bebiendo y fumando”2Sobre la noticia véase: Mother ‘used deepfake to frame cheerleading rivals’, disponible en: https://www.bbc.com/news/technology-56404038. En fin que se trata de contenidos en los que se muestra supuestamente a varias menores de edad en situaciones que podrían provocar su expulsión del equipo por faltas de conducta, pero más que eso de la difusión de material que involucra desnudos de menores de edad. 

Aunque algunos medios parecen haber condenado a la madre de una de las porristas, en este momento una de las discusiones se ha centrado en determinar si los videos y fotos son reales o falsos y en ¿a quién debemos creerle? Pero jurídicamente la discusión lleva a debates bastante más profundos, como, por ejemplo, si se distribuye un video con desnudos que involucre a menores de edad: ¿en qué caso debería haber mayor pena: en caso de que el video sea real o en caso de que sea un deepfake? Y ¿qué pena debería tener la sola producción con independencia de la distribución del mismo contenido? ¿Quedan cubiertas estas situaciones en las leyes penales vigentes? 

Sin pretender entrar en discusiones penales (lo que prefiero dejar a los expertos en el área) lo cierto es que estas situaciones no siempre encuentran acomodo en la legislación actual de varios países. En ese sentido, la proliferación de estos videos afecta especialmente a mujeres y está impulsando movimientos para ampliar las leyes contra la “pornovenganza” (por ejemplo, en Estados Unidos y Reino Unido), y otras para el desarrollo de herramientas tecnológicas que permitan detectarlos.  

El caso de la deepfake mom ha sido utilizado por medios de comunicación norteamericanos para evidenciar el “temible poder de la inteligencia artificial”, pero, aunque es una de las líneas de investigación todavía no se ha comprobado que se trate realmente de deepfakes ni la culpabilidad de la persona señalada de crearlos3Remember the ‘deepfake cheerleader mom’? Prosecutors now admit they can’t prove fake-video claims. Disponible en: https://www.washingtonpost.com/technology/2021/05/14/deepfake-cheer-mom-claims-dropped/. 

Ahora bien, más allá de sus resultados, desde otro punto de vista este y otros casos plantean diversas interrogantes, como, por ejemplo: ¿saben o deben saber los operadores de justicia en general lo que es un ultrafalso? ¿cómo se entendería correctamente probada la falsificación en juicio? ¿lo saben los abogados? ¿quién nos prepara para saber eso? ¿quién nos prepara para hacerle frente a los desafíos tecnológicos que plantea la inteligencia artificial?. Pues bien, aunque en muchos casos puede resultar “fácil” advertir que se trata de un video manipulado, esto no siempre es así, a veces se requerirá un mayor conocimiento técnico porque como se ha dicho, puede que los resultados sean hiperrealistas. De hecho, a veces se necesita de la ayuda de la propia inteligencia artificial para detectarlos. 

En el entendido de que estos videos suponen más de un problema que, como mínimo puede afectar los derechos de imagen, honor y reputación de las personas contenidas en ellos, la invitación es a preguntarnos si ¿estamos lo suficientemente preparados para la defensa de los mencionados derechos frente a ciertos usos de la inteligencia artificial?4Véase también “No era yo, era un deepfake: ¿puede la justicia lidiar con la información sintética?”, en ¿Qué hay de nuevo en IA? CETyS, mayo 2021. Más allá de que frecuentemente se afirme que estas y otras situaciones se pueden prevenir con “alfabetización” y “cultura digital”, o con informar sobre la falsedad del contenido audiovisual (aunque sin duda esto también es necesario), la realidad muestra que el derecho puede quedarse sin herramientas por lo que es necesario reflexionar sobre las diversas aristas de este y otros temas vinculados con la inteligencia artificial. 

* Michelle Azuaje Pirela es doctora en Derecho, Universidad Autónoma de Chile. Máster en Derecho de la Empresa, Universidad de Alcalá. Abogada, Universidad del Zulia. Coordinadora del Instituto de Investigación en Derecho, Universidad Autónoma de Chile, Sede Temuco. Investigadora responsable del proyecto Fondecyt de Postdoctorado 2021, N° 3210519, titulado: Transparencia algorítmica y propiedad intelectual: propuestas para Chile. Coordinadora del Proyecto Inteligencia Artificial y Derecho: www.iaderecho.cl.

Artículos relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Revisa también

Close
Close
Close