Los sistemas automáticos de Facebook generan contenido para grupos vinculados al terrorismo, que los algoritmos no reconocen como tales, según dijo el jueves una ONG estadounidense.
El Centro Nacional de Denunciantes (NWC) -que se dedica al apoyo, asistencia y protección de denunciantes- pasó cinco meses investigando las páginas de Facebook de 3.000 usuarios que habían dado “me gusta” o estaban vinculados a organizaciones consideradas terroristas por las autoridades estadounidenses.
Según esta ONG, los grupos yihadistas Estado Islámico y Al Qaida estaban “abiertamente” activos en la red, cuyos sistemas automáticos no siempre identifican todo el contenido problemático.
Como resultado, los algoritmos pueden crear contenido automáticamente, como pequeños montajes de “recuerdos” que contienen publicaciones de los grupos en cuestión, lo que lleva a la ONG a decir que Facebook crea inadvertidamente contenido extremista.
“Los esfuerzos de Facebook para cazar (contenido relacionado con) el terrorismo son débiles e ineficaces”, según la ONG, que también escribe que la red social crea y promueve contenido de este tipo a través de su tecnología.
El NWC dijo que presentó una queja ante el regulador bursátil estadounidense, la SEC, en nombre de un “denunciante” que solicitó el anonimato.
Preguntado por AFP, Facebook argumentó que “suprime” los contenidos de “terrorismo” a un “ritmo mucho más alto que hace dos años”.