Resumen automático generado con Inteligencia Artificial
La tecnología deepfake, antes reservada para grandes empresas, ha llegado al alcance de todos, siendo utilizada con oscuros propósitos como la suplantación de identidad, elaboración de información falsa y montajes políticos. En una conversación con BioBioChile, el subdirector del Centro de Datos e Inteligencia Artificial de la Universidad de Concepción, Manuel Pérez, advierte sobre los riesgos de los deepfakes, señalando que estas manipulaciones pueden generar desinformación y confusión en la opinión pública. Ante la proliferación de esta tecnología, Pérez destaca la importancia de examinar detalladamente los materiales audiovisuales para identificar posibles inconsistencias que revelen su falsedad. Asimismo, destaca la necesidad de cuidar la privacidad en línea y evitar compartir información personal en redes sociales. A pesar de que en Chile no está tipificado como delito, la circulación de deepfakes puede vulnerar el derecho a la protección de la honra, por lo que se aconseja reportar contenidos falsos y recurrir a la policía en caso de ser víctima de suplantación de identidad.
Desarrollado por BioBioChile
Tras el aumento de aplicaciones con Inteligencia Artificial que imitan los rostros o voces de personas, con el fin de crear fotografías, videos o grabaciones falsas, es importante tener claras las señales que dejan estas herramientas para poder identificar lo verdadero de lo falso.
Actualmente, la tecnología deepfake ya no es un avance al que sólo tienen acceso las grandes empresas de producción cinematográfica, sino que está al alcance de todas las personas. Imágenes, videos o grabaciones hechas con Inteligencia Artificial (IA) que han sido usadas para más (oscuros) objetivos que la mera entretención, como la suplantación de identidad, elaboración de información falsa, fraudes, estafas y montajes políticos para manipular la opinión de las personas, entre otros propósitos.
En conversación con BioBioChile, el subdirector del Centro de Datos e Inteligencia Artificial (CDIA) de la Universidad de Concepción, Manuel Pérez, explicó los riesgos de la proliferación de deepfakes, identificó algunas señales o inconsistencias en los modelos de la IA y entregó consejos para no ser víctimas de estos montajes.
La latente amenaza del deepfake
Pocos imaginaron que, con el boom de las aplicaciones de filtros para fotografías y videos, estaría tan cerca la irrupción y acceso público del deepfake. “Una imagen falsa que es generada por modelos de Inteligencia Artificial, entrenados con el fin de reemplazar partes de una imagen, y así, generar una distinta que parezca real”, según el profesional de la UdeC, y que imita casi a la perfección tu apariencia o voz, lo que ha generado un intenso debate a nivel internacional.
Tras la gran cantidad de supuestas fotos filtradas de famosas desnudas y videos pornográficos, pareciera que no hay límites en el uso (y abuso) de esta tecnología. La IA ya no es sólo una herramienta útil, sino que también es un arma para esparcir contenido, material e información falsa. ¿Cómo saber si lo que estoy viendo es real o no?
“Uno de sus principales riesgos es la proliferación de desinformación. Y es que, por medio de redes sociales, las noticias falsas o propagandas se pueden esparcir rápidamente. Esto provoca que, a partir de esta desinformación, las personas no puedan distinguir entre lo que es verdad y lo que es mentira, y quienes la usan, pueden obtener ventajas manipulando la opinión pública. Tiene un gran impacto psicológico”, advierte el ingeniero a la presente redacción.
Sin embargo, y a raíz del polémico caso de los estudiantes del colegio Saint George que crearon y difundieron fotos eróticas de sus compañeras (menores de edad) con la ayuda de aplicaciones con inteligencia artificial, el daño a la reputación personal y el aumento de delitos relacionados al deepfake son factores que generan preocupación en la comunidad informática.
“Se pueden generar imágenes, videos y audios de personas diciendo o haciendo cosas, pero que realmente nunca sucedió, y por otro lado, se puede incitar a la población a caer en fraudes y estafas”, recalca el especialista.
Según un informe de la compañía de seguridad Kaspersky, el 72% de la población chilena no es capaz de distinguir una imagen hecha a partir de un deepfake.
¿Cómo identificar lo real de lo falso?
Pese a la gran cantidad de aplicaciones que brindan la oportunidad de crear una imagen, video o grabación asistido por una Inteligencia Artificial, las herramientas a las cuales tienen acceso la gran parte de la población -ya sean gratuitas o pagadas- suelen tener bastantes limitaciones e inconsistencias que se logran apreciar si analizamos minuciosamente cada detalle de estos montajes.
Es por ello que el experto del CDIA señala que la principal recomendación para no caer en un material audiovisual falso es examinarlo, ya que fácilmente “se pueden encontrar algunas características que evidencian su falsedad, como en el pelo, la textura del rostro, las sombras y los patrones de luces“.
“Los mejores modelos aún siguen teniendo inconsistencias en la generación de datos, como en las expresiones faciales o gestos que no son naturales. Además, también falta que estos modelos entiendan factores culturales propios de cada país y son difíciles de procesar en tiempo real, por lo que siempre son videos que han sido grabados con anterioridad”, complementa.
En el caso de las noticias falsas que se viralizan a partir de montajes con IA, Pérez asevera que lo más importante es no confiar sólo en una fuente, sino que explorar otras y verificar si esos hechos ocurrieron realmente, ya que si bien existen “herramientas capaces de detectar estos patrones que han sido diseñados por la propia IA o páginas webs que ayudan a identificarlos”, los deepfakes y las fake news siguen siendo una estrategia para confundir y manipular a la población a conveniencia de ciertos sectores políticos.
Para evitar ser víctima directo de deepfake, Manuel Pérez aconseja:
– Manejar personalmente y tener resguardos respecto de tu presencia online.
– Cuidar tus restricciones de privacidad.
– Evitar tener perfiles públicos o acceso a tu contenido personal en redes sociales.
– Ser cuidadoso con lo que compartes.
– No aceptar a cualquier persona en redes sociales.
– Leer y estar atentos a los términos y contrato que uno acepta a la hora de descargar una aplicación.
– Evitar las aplicaciones que accedan a tus datos personales, fotografías y videos.
¿Qué dice la ley?
Las redes sociales pueden transformarse en un arma de doble filo y en un puente que permita ser víctimas de suplantación de identidad a través de la tecnología deepfake. Un daño irreparable que, de acuerdo a la abogada y subdirectora del Laboratorio de Innovación Pública de la Escuela de Gobierno (GobLab) de la Universidad Adolfo Ibáñez, Romina Garrido, no constituye un delito, ya que no se encuentra tipificado como tal en la legislación chilena vigente.
En esos casos y si tu rostro o voz ya se encuentran circulando en Internet, a partir de un contenido falso elaborado por IA, el especialista de la CDIA de la Universidad de Concepción enfatiza en que reportar es una buena forma de combatir el crecimiento de deepfakes.
“En la actualidad, distintas plataformas tienen detectores de contenido falso, por lo que reportar estos montajes es importarte, también si es que fuiste víctima de esto, además de acercarte a la policía”, puntualiza Pérez.
Entonces, ¿no hay nada que hacer legalmente si fui víctima de suplantación de identidad con esta herramienta? Mientras se encuentra en primer trámite un proyecto de ley que busca sancionar la violencia digital en sus diversos tipos, la generación y circulación de montajes que perjudiquen la reputación personal de una persona afecta al menos dos derechos fundamentales garantizados por la Constitución de Chile, por lo que la víctima o cualquiera su nombre tiene la opción de interponer un recurso de protección ante la Corte de Apelaciones.
Lo primero que resulta vulnerado es el derecho a la protección de la honra (artículo 19, N°4), que señala que toda persona tiene derecho a que su prestigio o imagen pública no sea objeto de imputaciones y actos o conductas que no ha ejecutado. Por último, el deepfake también transgreden la integridad psicológica de la víctima; un daño que busca evitar el mismo artículo de la carta fundamental.
Nuestra sección de OPINIÓN es un espacio abierto, por lo que el contenido vertido en esta columna es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial de BioBioChile
Estamos recopilando más antecedentes sobre esta noticia, quédate atento a las
actualizaciones.
Alerta de Spoiler
Este artículo podría contener información clave sobre la trama de un libro, serie o
película.
Advertencia de imágenes explícitas
¡Cuidado! Las imágenes de este artículo pueden herir la sensibilidad de algunas personas.
VER RESUMEN
Resumen automático generado con Inteligencia Artificial
{{ post.resumen_de_ia }}
Desarrollado por BioBioChile
Este artículo describe un proceso judicial en curso
Existe la posibilidad de que los cargos sean desestimados al finalizar la investigación, por
lo cual NO se debe considerar al o los imputados como culpables hasta que la Justicia
dicte sentencia en su contra. (Artículo 04 del Código Procesal Penal)
Violencia contra la mujer
Si eres víctima o testigo de violencia contra la mujer, denuncia al
149 de Carabineros, recibe orientación llamando al
número corto 1455 del Sernameg o pulsa para
usar el chat de orientación Sernameg
Suicidio
Si necesitas ayuda psicológica especializada o conoces a alguien que la requiera, el Ministerio
de Salud tiene un teléfono de ayuda atendida por profesionales todos los días del año y las 24 horas,
marcando desde celulares el *4141. Además, puedes recurrir a Salud Responde en el 600 360 7777.
Las personas sordas pueden recibir asistencia ingresando a
este enlace.
Transporte privado
Las aplicaciones de transporte privado pagado aún no se encuentran normadas por la legislación chilena.
Estudio científico
Este artículo se basa en un estudio científico que puede ser sometido a nuevas pruebas para ser validado o descartado. Sus resultados NO deben considerarse concluyentes.