El uso indiscriminado de la tecnología deepfake, capaz de manipular digitalmente una imagen o vídeo, sumó un nuevo capítulo luego que un grupo de alumnos del colegio Saint George utilizó la herramienta digital para fabricar imágenes explícitas de menores de edad. ¿Cuáles son los riesgos de la deepfake que en Chile aún no se sanciona su uso?
Hace años la Inteligencia Artificial (IA) parecía más bien un asunto lejano que no impactaría en nuestras vidas, ya que esta tecnología se encontraba disponible en lugares de difícil acceso, como en la industria del cine. No obstante, hoy cualquier persona puede utilizarla para recrear la imagen o la voz de una persona mediante un vídeo o un audio, nos referimos a la tecnología denominada deepfake.
Este tiene su origen en el análisis de datos, en este caso, de los rasgos físicos de una persona (desde el cabello, piel, boca, labios y ojos) con el propósito de agregarla a una imagen generada por Inteligencia Artificial.
Y a tal nivel de masividad llegó el uso de la IA que también es ocupado para fabricar vídeos pornográficos, en una grave acción que tiene su réplica en las aulas chilenas.
Es justo este escenario que abre el debate en torno a los cuidados para identificar un deepfake.
El deepfake en el cine
Pero antes de exponer el caso chileno, hay que remontarse al uso de esta tecnología en el cine. Este hecho ocurrió durante la filmación de Furious 7 en el año 2013, que sufrió la pérdida de uno de sus protagonistas Paul Walker, tras morir en un accidente automovilístico.
Durante la instancia, los expertos en efectos especiales decidieron escanear la cara de sus hermanos Caleb y Cody, ayudados por una técnica similar al deepfake.
Básicamente, los encargados llegaron a recrear la textura de la piel, las gesticulaciones y hasta la voz en la icónica escena, donde el personaje de Brian O’Conner se despide de Dominic Toretto.
En una entrevista con The Hollywood Reporter, el supervisor de efectos visuales de Furious 7, Joe Letteri, describió que parte de su trabajo fue evitar que los espectadores sintieran “el valle inquietante”, el estado en que las personas rechazan un personaje por parecerse a un ser humano pero sin ser totalmente uno.
Con los años la idea de revivir a actores fallecidos, cuando todavía no terminaban su actuación, se transformó en una constante en Hollywood.
Ocurrió de nuevo con Carrie Fisher que interpretó a la princesa Leia Organa en la trilogía original de Star Wars, pero que quedó a medio terminar después de la muerte de la actriz en el año 2016.
¿La solución? el director de la última cinta de la saga J.J. Abrams decidió ocupar antiguas tomas de Fisher, pero donde otra actriz personificó a la princesa durante las escenas de El ascenso de Skywalker.
El caso del colegio Saint George
Volviendo al país, hace pocos días se informó sobre un grupo de alumnos del colegio Saint George que ocuparon una página de libre acceso en la web, para “crear” imágenes con contenido sexual de siete compañeras, abriendo nuevas preguntas sobre el uso de esta tecnología.
Según consta en la nota publicada por el medio Interferencia, ellos llegaron incluso a difundir las imágenes intervenidas a través de redes sociales. Pero ¿cuál es el alcance que tiene este hecho y de qué manera la justicia sanciona la utilización de la tecnología deepfake?
Para la abogada Romina Garrido, quien es Subdirectora del GobLab de la Universidad Adolfo Ibáñez, este hecho no se trata de un delito, puesto que ocupar el deepfake no se encuentra tipificado en nuestra legislación vigente.
Es más, para Garrido lo que se configura en este caso, es la suplantación de identidad, un delito que no “está cubriendo completamente el daño que produce una imagen falsa creada por inteligencia artificial”, detalla en entrevista con BioBioChile.
La desprotección de las víctimas de deepfake
Bajo este contexto, la especialista reconoce en que actualmente la IA se hace presente en todos los ámbitos de la vida, donde la intimidad y la honra de una persona queda desprotegida ante la falsificación.
En Chile hay un proyecto de ley que busca sancionar la violencia digital en sus diversas formas, pero recién se encuentra en su primer trámite en la Cámara de Diputadas y Diputados.
La abogada y académica de la Facultad de Derecho de la Universidad de Chile, e investigadora del Centro de Derecho Informático (CEDI), de la misma institución, Danielle Zaror, conversó con el Expreso Bío Bío para mencionar que esta iniciativa presentada en el congreso “iba en sentido de ampliar este tipo penal, por el que usurpara la identidad de otro, valiéndose de su nombre, voz, fotografías, videos, y otros”, sin embargo, la discusión no ha avanzado desde su presentación.
Los daños irreparables de un deepfake
Como vimos, el uso del deepfake no es tan sencillo, porque implica una serie de interrogantes sobre su uso. Por lo mismo algunos estudios sobre el tema confirmaron que cada vez es más difícil reconocer si una imagen es real.
Según un informe de la compañía de seguridad Kaspersky, el 72% de la población chilena no es capaz de distinguir una imagen hecha a partir de un deepfake.
Ante este escenario, Fabio Assolini, director del Equipo Global de Investigación y Análisis para América Latina en Kaspersky sostuvo que “los deepfakes representan una amenaza creciente para la integridad de la información digital, ya que su uso tiende a ser cada vez más imperceptible”.
“Nos enfrentamos a un escenario en el que vemos una manipulación digital avanzada que compromete la verdad, exige cautela y necesita concientizar sobre este fenómeno. Ya es posible crear videos y audios falsos en internet de celebridades, figuras públicas o líderes de opinión, que pueden ser utilizados para desacreditar a una víctima o incluso extorsionar a quienes creen lo que la estafa muestra”, enfatizó.
Recomendaciones para reconocer una falsificación
No obstante, desde Kaspersky indicaron algunas señales de un contenido falso:
1.- ¿La imagen parece muy inconsistente, con fallas en el doblaje y sombras aleatorias?
Busca incoherencias en los movimientos faciales, expresiones o movimientos corporales que parezcan extraños o poco naturales. Busca desalineaciones en los ojos, la boca u otras partes de la cara. Si detectas estas anomalías, es importante que pongas en duda la autenticidad del video.
2.- ¿La información es demasiado buena para ser cierta?
Comprueba si el contenido es verosímil y si coincide con otras fuentes de información fiables. Es importante desconfiar de videos o audios que parezcan fuera de contexto o que presenten información sospechosa, así como promociones demasiado buenas para ser ciertas. Busca también el origen de los contenidos y comprueba la credibilidad de las fuentes implicadas. Desconfía de los contenidos compartidos por fuentes desconocidas o no verificadas.
3.- ¿El audio o video solicitan descargar una aplicación o incluso pagar a un tercero?
Como se ha visto anteriormente, los deepfakes de figuras públicas ya han dado a conocer estafas de robo financiero, con la idea inicial de descargar una aplicación o realizar inversiones en ciertas plataformas. Sé consciente de la existencia de los deepfakes e infórmate sobre las tecnologías de manipulación digital. Cuanto más consciente seas, mejor podrás detectar posibles estafas.