Facebook dice que elimina el 95 % de los discursos de odio de forma proactiva

FECHA:

San Francisco (EE.UU.), 19 noviembre.- La red social Facebook presentó este jueves su último informe sobre el cumplimiento de las normas comunitarias en la plataforma, en el que aseguró que el 95 % de los discursos de odio son eliminados de forma proactiva sin necesidad de que los usuarios los denuncien.

La empresa de Menlo Park (California, EE.UU.) explicó que hace tres años, en 2017, la inteligencia artificial únicamente le servía para detectar de forma proactiva el 23,6 % de los mensajes de odio, de manera que el resto solo eran retirados cuando algún usuario denunciaba estos contenidos y por tanto aumentaba su exposición.

Sin embargo, entre julio y septiembre de este año, de las decenas de millones de contenidos de odio eliminados en Facebook e Instagram (de su propiedad), el 95 % fueron suprimidos de forma proactiva al ser detectados por sistemas de inteligencia artificial, reduciendo así significativamente su tiempo de exposición.

En concreto, la compañía retiró por este motivo 22,1 millones de mensajes en Facebook durante esos tres meses (una cantidad similar a la del trimestre anterior) y 6,5 millones en Instagram (el doble que en el trimestre precedente).

Cabe destacar que el período contenido en el informe de este jueves incluye parte de la campaña presidencial estadounidense, pero no la recta final (octubre) ni la jornada electoral en sí o los varios días que duró el escrutinio de los votos en noviembre.

La compañía que dirige Mark Zuckerberg añadió por primera vez en el informe datos sobre la «prevalencia» de los mensajes de odio, es decir, el porcentaje de veces que los internautas ven contenidos que violan las normas comunitarias de la plataforma.

Para cuantificar esta variable, la empresa toma una muestra aleatoria de contenidos visibles en Facebook (es decir, que no han sido retirados) y analiza cuáles de ellos son mensajes de odio (que atentan contra grupos de personas por su raza, sexo, cultura, creencias religiosas, orientación sexual, etc).

Según este método, la prevalencia de contenidos de odio entre julio y septiembre fue de entre el 0,10 y el 0,11 %, lo que supone que de cada 10.000 veces que un usuario vio contenidos en Facebook, diez u once de ellos contenían mensajes de odio.

En una llamada telefónica con un grupo de periodistas -entre ellos, Efe- para responder a preguntas sobre el informe, el vicepresidente de Integridad de Facebook, Guy Rosen, defendió la decisión de la empresa de hacer regresar a la oficina a sus moderadores de contenido, pese a la pandemia de covid-19.

Rosen salió al paso de la carta publicada por 200 de estos moderadores que pedían seguir trabajando desde casa para evitar riesgos de contagio, y explicó que la razón por la que se les pide que vuelvan a la oficina es porque hay materiales muy sensibles que no pueden revisarse desde el hogar.

COMPARTIR NOTICIA:

Síguenos en redes

145,000FansMe gusta
3,100SeguidoresSeguir
26,600SeguidoresSeguir
21,388SeguidoresSeguir
21,600SuscriptoresSuscribirte

Muro de Facebook

Popular

Más Noticias

Presunto líder de ‘Los Colonos’ es asegurado por microtráfico en Guaviare.

SAN JOSÉ DEL GUAVIARE, COLOMBIA (22 NOV 2024) –...

Putin elogia el nuevo misil hipersónico y lo compara con armas estratégicas

Moscú, 22 de noviembre de 2024.- El presidente de...

Sheinbaum responde a Trudeau que el T-MEC trilateral «es muy bueno» para Canadá

Ciudad de México, 22 de noviembre de 2024.- La...

Israel prohíbe la detención administrativa, sin cargos, para los colonos de Cisjordania

Jerusalén, 22 de noviembre de 2024.- El ministro israelí...