Mark Zuckerberg, director de Meta, anunció ayer que su empresa iba a cancelar el programa de «fact-checking»
¿Cómo funcionaba la moderación de Facebook y cómo será a partir de ahora?
La compañía sustituirá el sistema por notas de la comunidad, similar al modelo utilizado en X (anteriormente Twitter)
Meta, empresa matriz de Facebook, Instagram, WhatsApp y Threads, anunció el pasado 7 de enero la eliminación de su programa de verificación independiente de contenidos en Estados Unidos. Este sistema, vigente desde 2016, etiquetaba las publicaciones falsas o engañosas identificadas por verificadores externos. La empresa ha decidido reemplazarlo por un modelo de notas de la comunidad, inspirado en la estrategia adoptada por X, la red social propiedad de Elon Musk.
Motivos detrás del cambio
La decisión fue comunicada mediante una nota de prensa publicada en la página oficial de Meta y un video explicativo del CEO, Mark Zuckerberg, difundido en sus redes sociales. En el comunicado, la compañía argumentó que, aunque el programa fue implementado como respuesta a demandas sociales y políticas, terminó generando problemas significativos.
Meta admitió que el sistema derivó en errores frecuentes, frustrando a los usuarios y obstaculizando la libertad de expresión. «Se censuró contenido inofensivo, muchos usuarios quedaron injustamente sancionados, y nuestra capacidad de reacción ante estos casos fue lenta», señala la empresa.
Con el nuevo enfoque, Meta busca «volver a priorizar la libertad de expresión» y reducir el uso de etiquetas intrusivas en las publicaciones. Según el comunicado, el sistema de notas de la comunidad permitirá a los usuarios colaborar en la identificación y contextualización de contenidos potencialmente engañosos, fomentando un modelo menos sesgado.
Funcionamiento del sistema de notas
El nuevo sistema, similar al empleado en X, implicará que las notas sean creadas y evaluadas por los propios usuarios. Para prevenir sesgos, estas notas deberán contar con acuerdos entre personas con perspectivas diversas. Además, Meta planea garantizar la transparencia sobre cómo se seleccionan las notas visibles en sus plataformas.
La implementación comenzará en los próximos meses y estará disponible en Facebook, Instagram y Threads. Los usuarios interesados ya pueden inscribirse para participar en la iniciativa.
La decisión de Meta ha generado un amplio debate. La European Fact-Checking Standards Network (EFCSN) expresó su descontento en un comunicado, calificando la medida como una respuesta políticamente motivada. Clara Jiménez, presidenta de la EFCSN, declaró que la vinculación entre verificación de datos y censura es falsa y malintencionada.
Por su parte, Angie Drobnic Holan, directora de la Red Internacional de Fact-Checking (IFCN), aseguró que la eliminación del programa afectará negativamente a los usuarios en su búsqueda de información precisa y confiable. Holan enfatizó que la labor de los verificadores no consiste en censurar, sino en proporcionar contexto y evidencia sobre afirmaciones potencialmente falsas.