Fundado en 1910
Campo de refugiados de Kutupalong, en Bangladés

Campo de refugiados de Kutupalong, en Bangladés

La verificación de Facebook y la limpieza étnica de rohinyás en Birmania: ¿por qué no fue suficiente?

El programa de verificación de datos introducido por Meta en 2016 fue incapaz de prevenir una de las tragedias más atroces del siglo XXI

El programa de verificación de datos introducido por Meta en 2016, aunque diseñado para combatir la desinformación y el discurso de odio, demostró ser incapaz de prevenir una de las tragedias más atroces del siglo XXI: la persecución y masacre de la comunidad rohinyá en Myanmar en 2017.

Este sistema, que dependía de socios acreditados para validar información, no logró contrarrestar la propagación de mensajes violentos en una plataforma que ya estaba profundamente arraigada en la sociedad birmana. El clero budista en Birmania también fue uno de los colectivos del país que más contribuyó a difundir mensajes de odio a través de Facebook, su correa transmisora con unos 22 millones de usuarios entonces en el país, de los alrededor de 52 millones de ciudadanos.

Rohinyás en el campo de refugiados de Kutupalong en Bangladés (2017)

Rohinyás en el campo de refugiados de Kutupalong en Bangladés (2017)

Meta fue acusada de haber permitido que sus algoritmos priorizaran contenido polémico y divisivo, incluyendo publicaciones que incitaban al odio contra los rohinyás. La ONG Amnistía Internacional denunció que estas prácticas contribuyeron a las atrocidades cometidas por el Ejército de Myanmar y señalaron que los algoritmos amplificaron discursos extremistas como los del comandante jefe Min Aung Hlaing, quien negó abiertamente la existencia de esta minoría en su propio país.

El error de Meta

A pesar de que Meta reconoció en 2018 no haber hecho lo suficiente para evitar que su plataforma se utilizara para incitar a la violencia, el daño ya estaba hecho. Más de 720.000 rohinyás se vieron obligados a huir a Bangladesh, dejando un legado de marginación y dolor que aún persiste.

En 2025, la decisión de Meta de desmantelar su programa de verificación en Estados Unidos ha generado críticas de sectores de la izquierda que advierten sobre un aumento en la desinformación y los discursos de odio, cuando se ha demostrado que este sistema no evitó la tragedia y sí permitió la supremacía de la izquierda en las redes sociales.

Mujer rohinyá con su hijo en el campo de refugiados de Kutupalong (Bangladés)

Mujer rohinyá con su hijo en el campo de refugiados de Kutupalong (Bangladés)

Sin embargo, es importante cuestionar si sistemas de verificación similares hubieran tenido un impacto real en situaciones como la de Myanmar. El problema fundamental radica en la dependencia de algoritmos diseñados para priorizar interacciones y contenido viral, en lugar de proteger a comunidades vulnerables.

El problema fundamental radica en la dependencia de algoritmos diseñados para priorizar interacciones y contenido viral

Aquí es donde la iniciativa de las 'notas de la comunidad' ofrecerán una alternativa mejor. Este sistema, que permite a los usuarios calificar y contextualizar publicaciones, representa un enfoque descentralizado y más participativo. En lugar de confiar únicamente en algoritmos o en verificadores externos, se distribuye el poder de decisión entre los propios usuarios. Esta herramienta, que ya utiliza la red social X, podría ser más efectiva para identificar y desmentir desinformación, especialmente en regiones donde las dinámicas culturales y políticas son complejas.

No se trata de eximir a Meta de su responsabilidad en el caso rohinyá, sino de reconocer que cualquier solución efectiva debe ir más allá de controles superficiales que, como se ha demostrado, han estado alineados a la izquierda. Dar poder a los usuarios para que participen activamente en la regulación del contenido es un cambio de modelo importante, aunque queda un largo camino por recorrer para garantizar que tragedias como esta no se repitan.

Temas

comentarios
tracking