Inicio Tecnología Facebook vuelve a fallar al detectar discurso de odio en anuncios

Facebook vuelve a fallar al detectar discurso de odio en anuncios

12
Facebook vuelve a fallar al detectar discurso de odio en anuncios
Facebook vuelve a fallar al detectar discurso de odio en anuncios

SAN FRANCISCO (AP) — La prueba no podría haber sido mucho más fácil, y Facebook aún falló. Facebook y su empresa matriz Meta fracasaron una vez más en una prueba de qué tan bien podían detectar el discurso de odio obviamente violento en los anuncios enviados a la plataforma por los grupos sin fines de lucro Global Witness y Foxglove.

Los mensajes de odio se centraron en Etiopía, donde los documentos internos obtenidos por la denunciante Frances Haugen mostraron que la moderación ineficaz de Facebook está “literalmente avivando la violencia étnica”, como dijo en su testimonio ante el Congreso de 2021 . En marzo, Global Witness realizó una prueba similar con el discurso de odio en Myanmar , que Facebook tampoco pudo detectar.

El grupo creó 12 anuncios basados ​​en texto que utilizaban un discurso de odio deshumanizante para pedir el asesinato de personas pertenecientes a cada uno de los tres principales grupos étnicos de Etiopía: los amhara, los oromo y los tigrayanos. Los sistemas de Facebook aprobaron la publicación de los anuncios, tal como lo hicieron con los anuncios de Myanmar. Los anuncios en realidad no se publicaron en Facebook.

Esta vez, sin embargo, el grupo informó a Meta sobre las violaciones no detectadas. La compañía dijo que los anuncios no deberían haber sido aprobados y señaló el trabajo que ha realizado «desarrollando nuestra capacidad para captar contenido de odio e incendiario en los idiomas más hablados, incluido el amárico».

Una semana después de escuchar a Meta, Global Witness presentó dos anuncios más para su aprobación, nuevamente con un discurso de odio flagrante. Los dos anuncios, nuevamente en texto escrito en amárico, el idioma más utilizado en Etiopía, fueron aprobados.

Meta no respondió a varios mensajes para hacer comentarios esta semana.

“Elegimos los peores casos que se nos ocurrieron”, dijo Rosie Sharpe, activista de Global Witness. “Los que deberían ser los más fáciles de detectar para Facebook. No eran lenguaje codificado. No eran silbatos para perros. Eran declaraciones explícitas que decían que este tipo de personas no son humanos o que este tipo de personas deberían morir de hambre”.

Meta se ha negado constantemente a decir cuántos moderadores de contenido tiene en países donde el inglés no es el idioma principal. Esto incluye moderadores en Etiopía, Myanmar y otras regiones donde el material publicado en las plataformas de la empresa se ha relacionado con la violencia en el mundo real.

En noviembre, Meta dijo que eliminó una publicación del primer ministro de Etiopía que instaba a los ciudadanos a levantarse y “enterrar” a las fuerzas rivales de Tigray que amenazaban la capital del país.

En la publicación eliminada desde entonces, Abiy dijo que la “obligación de morir por Etiopía nos pertenece a todos”. Llamó a la ciudadanía a movilizarse “portando cualquier arma o capacidad”.

Sin embargo, Abiy ha seguido publicando en la plataforma, donde tiene 4,1 millones de seguidores. Estados Unidos y otros han advertido a Etiopía sobre la “retórica deshumanizante” después de que el primer ministro describiera a las fuerzas de Tigray como “cáncer” y “mala hierba” en comentarios realizados en julio de 2021.

«Cuando los anuncios que llaman al genocidio en Etiopía pasan repetidamente por la red de Facebook, incluso después de que Facebook marca el problema, solo hay una conclusión posible: no hay nadie en casa», dijo Rosa Curling, directora de Foxglove, una organización legal sin fines de lucro con sede en Londres que se asoció con Global Witness en su investigación. “Años después del genocidio de Myanmar, está claro que Facebook no ha aprendido la lección”.