Fundado en 1910

El director ejecutivo de Facebook, Mark Zuckerberg, comparece ante una audiencia en el Capitolio (EE.UU.)GTRES

Facebook ignoró informes que alertaban sobre la difusión de mensajes de odio y trata de personas

Los algoritmos de la red social presentan lagunas a la hora de combatir la violencia contra las minorías o la explotación humana 

la filtración de una nueva ola de documentos internos vuelve a dejar a Facebook en entredicho. La empresa que preside Mark Zuckerberg estaba al tanto de que el algoritmo de la red social «no era neutral». Es decir, Facebook ha consentido la difusión de información errónea y mensajes de odio, entre otras cosas, tal y como se desprende de los reportajes que han ido destapando varios medios estadounidenses.

The Facebook Papers, denominados así los informes que han sacado a la luz The Wall Street Journal, New York Times, CNN y el Financial Times, revelan que los empleados de la compañía ya habían alertado de que el funcionamiento básico de la red social promovía la violencia, trata de personas, discursos de odio y la desinformación.

«Tenemos evidencias de que la mecánica de nuestro producto, como la viralidad, las recomendaciones y la optimización para fomentar la participación, es una parte importante de por qué este tipo de discurso prolifera en la plataforma», aseguraba un informe de 2019. De hecho, se ha detectado que se incita a la violencia en países vulnerables como Etiopía, donde una guerra civil ha hecho estragos durante el último año.

Refiriéndose a la seguridad de Facebook, el documento agregó: «Ya sea por razones técnicas (precisión) o filosóficas,  el resultado es que Facebook promueve (no necesariamente de forma consciente) este tipo de actividades. La mecánica de nuestra plataforma no es neutral».

El documento fue revelado este lunes por el New York Times como parte de una ola de historias sobre la compañía, basadas en las divulgaciones hechas a la Comisión de Bolsa y Valores (el organismo de control financiero de EE. UU.).

Las preocupaciones de Apple

Dicho informe también hace pública la  incapacidad de Facebook para abordar el discurso de odio y el contenido dañino fuera de Estados Unidos. De hecho, la incitación al odio y la desinformación es sustancialmente peor entre los usuarios que no hablan inglés, según los Facebook Papers. Gran parte de la infraestructura de moderación de Facebook no cuenta con los recursos suficientes para operar en otros idiomas que no sean el inglés, y su software tiene dificultades para comprender, por ejemplo, ciertos dialectos del árabe.

En ese sentido, el algoritmo de moderación de Facebook solo pudo identificar el 0.2% del material dañino en Afganistán. El resto del contenido perjudicial fue detectado por el personal, a pesar de que la empresa carecía de moderadores que hablaran pashto o dari, los principales idiomas del país. 

Apple amenazó hace dos años con eliminar Facebook e Instagram de su Apple store (tienda de aplicaciones) por la preocupación de que las dos plataformas se estuvieran utilizando para fomentar el abuso y  la esclavitud humana. Sin embargo, Facebook consiguió calmar a Apple al mostrarle detalles de que trabajaban para abordar el problema. 

En otro documento publicado por el Financial Times se revelaba que Facebook frenó los intentos de eliminar aquellas publicaciones favorables a los partidos de derecha. La idea era «no dañar a los actores políticos poderosos, aunque incumplieran la política interna de Facebook, para evitar que pudiesen tomar represalias».

«En Estados Unidos parece que las intervenciones han sido casi exclusivamente en nombre de editores conservadores», recogía el documento, refiriéndose a empresas como Breitbart y PragerU.

A través de su portavoz, Facebook ha respondido a las acusaciones.  «Somos una empresa y obtenemos beneficios, pero la idea de que lo hagamos a expensas de la seguridad o el bienestar de las personas malinterpreta dónde se encuentran nuestros propios intereses comerciales. Hemos invertido 13.000 millones de dólares y tenemos a más de 40.000 personas para hacer un trabajo: mantener a la gente segura en Facebook».