La plataforma de videos en internet YouTube anunció este lunes que eliminará contenidos “manipulados o alterados engañosamente” para influenciar a los votantes, en un nuevo esfuerzo por combatir la desinformación.
El servicio, propiedad del gigante Google, dijo que la medida forma parte de un esfuerzo por ser una “fuente más confiable” de noticias y promover un “discurso político saludable”.
Leslie Miller, vicepresidente de YouTube para asuntos de gobierno y políticas públicas, dijo en un blog que los estándares comunitarios del servicio prohibirán “contenido que haya sido manipulado técnicamente o modificado de manera que resulte engañoso para los usuarios” y que represente un “riesgo grave de daño flagrante”.
Las nuevas directivas también prohíben contenidos que divulguen información engañosa sobre la participación en la elección, como fechas falsas o requisitos para votar inexistentes, o el proceso del censo.
Este cambio en la política llega en medio de una creciente presión hacia los gigantes de Silicon Valley para que mejoren sus prácticas destinadas a prevenir la divulgación de noticias falsas, y una preocupación especial por los videos llamados “deepfake”, contenidos falsos de apariencia creíble realizados con ayuda de sistemas de inteligencia artificial.
El anuncio se da también pocas horas antes de que en el pequeño estado de Iowa arranque el maratón de las primarias demócratas de cara a la elección presidencial de noviembre, cuatro años después de los esfuerzos de manipulación y desinformación registrados en los comicios de 2016.
Preocupación por elecciones 2020
Según Paul Barrett, del Centro para los Negocios y los Derechos Humanos de la New York University y autor de una investigación sobre desinformación política, los estándares anunciados por la plataforma de video no son nuevos, pero sí bienvenidos.
“La compañía merece elogios por exponerlos en términos claros y advertir que su intención es fiscalizar esta política en forma vigorosa”, dijo Barrett.
“El comunicado de hoy de YouTube parece reiterar su determinación a no permitir que engañen a sus usuarios durante la campaña electoral 2020”, agregó.
Tanto Facebook como Twitter han anunciado en los últimos meses el cierre de miles de cuentas falsas asociadas a campañas de manipulación política.
Sin embargo, la red social que dirige Mark Zuckerberg se ha negado ha censurar los avisos publicitarios políticos que contengan postulados engañosos o falsos. Twitter, por su parte, anunció una prohibición de los anuncios con fines políticos en su plataforma.
Google, el gigante de la búsqueda en línea, ha impuesto a su vez restricciones a los anuncios hipersegmentados, y dijo el año pasado que incrementaría el control sobre la desinformación vinculada a temas electorales y eliminaría la publicidad con consignas falsas, incluyendo la que se canaliza por YouTube.
“Cada plataforma está sopesando libertad de expresión contra manipulación a los votantes, pero las operaciones de información trabajan a través de distintas plataformas y se aprovechan de estos agujeros”, dijo Karen Kornbluh, investigadora que trabaja sobre la desinformación política para The German Marshall Fund, un organismo de cooperación.
“Es por eso que las plataformas deberían unirse y desarrollar reglas compartidas, claras, consistentes y que pueden hacerse cumplir para proteger a los votantes de convertirse en blancos fáciles de las campañas de desinformación”, añadió.
En un comunicado aparte, la directora de confianza y seguridad de Google, Kristie Canegallo, dijo que su empresa está trabajando con otras compañías y agencias estatales, incluido el FBI, para “identificar malos actores, desactivar sus cuentas, advertir a los usuarios sobre ellos, y compartir información relevante con funcionarios de la industria y con quienes hacen cumplir las leyes”.