Mark Zuckerberg, director ejecutivo de Meta, culpó a los socios de verificación de datos de la compañía por algunos de los problemas de moderación de Facebook, diciendo en un video que “los verificadores de datos han estado demasiado sesgados políticamente” y han “destruido más confianza de la que crearon”.
Los grupos de verificación de datos que trabajaron con Meta se han mostrado en desacuerdo con esa caracterización, diciendo que no tenían ningún papel en decidir qué hizo la empresa con el contenido que fue verificado.
“No creo que estuviéramos haciendo nada, de ninguna forma, con parcialidad”, dijo Neil Brown, presidente del Instituto Poynter, una organización global sin fines de lucro que dirige PolitiFact, uno de los socios de verificación de datos de Meta. “Hay una montaña de lo que se podía controlar y estábamos agarrando lo que podíamos”.
Brown dijo que el grupo utilizó las herramientas de Meta para enviar verificaciones de datos y siguió las reglas de Meta que impedían que el grupo verificara los datos de los políticos. Meta finalmente decidió cómo responder a las verificaciones de datos, agregando etiquetas de advertencia, limitando el alcance de algunos contenidos o incluso eliminando las publicaciones.
“No eliminamos ni pudimos eliminar contenido”, escribió Lori Robertson, editora en jefe de FactCheck.org, que se ha asociado con Meta desde 2016, en una publicación de blog. “Cualquier decisión para hacer eso fue de Meta”.
En cambio, Meta está cambiando a un programa al que llama Community Notes, que le permitirá confiar en sus propios usuarios para escribir verificaciones de datos en lugar de organizaciones de terceros. Los investigadores han descubierto que el programa puede ser eficaz cuando se combina con otras estrategias de moderación.