Facebook asegura que sus medidas en contra de discursos de odio son eficaces
Internet

Facebook asegura que sus medidas en contra de discursos de odio son eficaces

Guy Rosen, vicepresidente de integridad de Facebook, publicó un comunicado en respuesta a las afirmaciones publicadas en The Wall Street Journal sobre la eficacia de su inteligencia artificial (IA) para eliminar los discursos de odio de la plataforma, y aseguró que “los datos extraídos de documentos filtrados se están utilizando para crear una narrativa de que la tecnología que usamos para combatir el discurso de odio es inadecuada y que deliberadamente tergiversamos nuestro progreso. Esto no es verdad”.

En la publicación, el ejecutivo de la compañía afirmó que “centrarse sólo en la eliminación de contenido es la forma incorrecta de ver cómo luchamos contra el discurso de odio. Eso es porque el uso de la tecnología para eliminar el discurso de odio es sólo una forma de contrarrestarlo. Necesitamos estar seguros de que algo es un discurso de odio antes de eliminarlo”, y subrayó que la IA utilizada para eliminar este tipo de contenido también limita el alcance que estas publicaciones puedan tener, además restringe la interacción con usuarios con este tipo de mensajes.

Sin embargo, el reportaje publicado por WSJ dio a conocer que dicha IA es limitada, pues no es lo suficientemente exacta para detectar este tipo de publicaciones, por lo que sólo una pequeña parte es eliminada o restringida.

“La IA de Facebook no puede identificar consistentemente videos de disparos en primera persona, diatribas racistas, e incluso en un episodio notable que desconcertó a los investigadores internos durante semanas, la diferencia entre peleas de gallos y accidentes automovilísticos”, informó el diario.

Del mismo modo, según testimonios de algunos empleados recogidos por WSJ, la compañía disminuyó el monitoreo humano de estas publicaciones: “Facebook hace dos años redujo el tiempo que los revisores humanos se centraron en las quejas de incitación al odio de los usuarios e hicieron otros ajustes que redujeron el número total de quejas. Eso hizo que la empresa dependiera más de la aplicación de sus reglas por parte de la IA e infló el aparente éxito de la tecnología en sus estadísticas públicas”.

Como respuesta a estas críticas, Rose aseguró que sus métricas han sido malinterpretadas, pero que sí han obtenido resultados favorables, como la que identifica publicaciones en contra de las reglas de la red social mediante su IA antes de que usuarios la reporten, “sabíamos que teníamos que hacerlo mejor y, por lo tanto, comenzamos a desarrollar tecnología para identificar contenido potencialmente infractor sin que nadie nos lo señale”.

Finalmente, el vicepresidente resaltó que la empresa somete sus métricas a organismos externos para asegurar su fiabilidad, “nos hemos comprometido a someternos a una auditoría independiente, con la firma de auditoría global EY, para asegurarnos de que estamos midiendo e informando nuestras métricas con precisión.

(CSP)

18 de octubre de 2021