Investigadores de Facebook encontraron que su ‘lista blanca de política’ influyó en la difusión de información errónea.

Durante un discurso en septiembre de 2019 en Washington, D.C., el jefe de política global y comunicaciones de Facebook, Nick Clegg, dio una ferviente defensa de la política de la compañía de no revisar a los políticos, diciendo que no era el papel de la red social “intervenir cuando los políticos hablan”.

Durante un discurso en septiembre de 2019 en Washington, D.C., el jefe de política global y comunicaciones de Facebook, Nick Clegg, dio una ferviente defensa de la política de la compañía de no revisar a los políticos, diciendo que no era el papel de la red social “intervenir cuando los políticos hablan”.

Entre bastidores ese verano, algunos de los empleados de Facebook habían argumentado justo lo contrario, advirtiendo que eximir a los políticos de la verificación de hechos “es proteger el contenido que es especialmente probable que engañe”, según una presentación interna revisada por The Information y dos personas familiarizadas con el asunto. Citaron una encuesta que hicieron y que encontró que los usuarios de Facebook eran más propensos a creer en información falsa si es compartida por un político.


El Takeaway

  • Facebook creó una lista de cuentas políticas exentas de verificación de hechos en 2018
  • Un año después, los empleados intentaron sin éxito disolver la lista
  • Citaron una investigación que mostraba que los falsos mensajes de los políticos influenciaban a los usuarios

Desde 2018, Facebook había mantenido una “lista blanca política” de unas 112.000 cuentas pertenecientes a funcionarios gubernamentales y candidatos cuyos posts no podían ser comprobados, un proceso que puede dar lugar a sanciones por posts que contengan información errónea, como la reducción del alcance, según la presentación. Los empleados, encabezados por un trío de investigadores del equipo de Facebook encargados de supervisar su papel en el discurso cívico, querían que la lista se disolviera. La existencia de esta lista y la investigación sobre su impacto no han sido reportadas anteriormente.

Los líderes de Facebook no siguieron la recomendación de terminar la lista. Después de reunirse con los investigadores, decidieron continuar manteniendo la mayoría de los puestos de los políticos exentos de verificación de hechos, con la excepción de las disputadas bromas que comparten de otras fuentes. Los ejecutivos también acabaron por dar luz verde a una política de aplicación de etiquetas globales a todos los puestos políticos durante las elecciones de noviembre de 2020 en los Estados Unidos, vinculándolas a los resultados.

Esos tratamientos no han impedido a los líderes políticos como el presidente Donald Trump difundir información falsa sobre las elecciones, dicen los expertos externos. Varias de las disputadas afirmaciones de Trump estuvieron entre las publicaciones más comprometidas de la red social en las últimas semanas, según la herramienta analítica de Facebook CrowdTangle.

Protecciones electorales

Facebook introdujo la lista de líderes políticos exentos en la segunda mitad de 2018, cuando todavía se tambaleaba por las revelaciones de cómo los operativos políticos extranjeros manipulaban a los usuarios estadounidenses durante las elecciones de 2016. Deseosos de reparar la imagen pública de la compañía, los líderes de Facebook ensalzaron las medidas que estaban tomando para eliminar la desinformación durante las elecciones presidenciales de EE.UU. y Brasil.

Los candidatos políticos y los funcionarios electos, sin embargo, no estaban sujetos a la misma vigilancia que otras cuentas. Facebook comenzó a excluir una larga lista de cuentas de “cualquier intervención anti-información”, según la presentación de los empleados de julio de 2019. No está claro cuántas cuentas políticas están en la lista de Facebook ahora o cómo se mantiene.

“No creemos que sea apropiado para nosotros evitar que el discurso de un político sea sometido al escrutinio público”, dijo el portavoz de Facebook Joe Osborne en una declaración. “Las conclusiones de la investigación son por qué aplicamos controles de hechos y sus consecuencias, como degradaciones y etiquetas, a los mensajes que un político comparte cuando contiene contenido previamente desacreditado, como enlaces, videos o fotos”.

Señaló un post de Facebook del 11 de noviembre de Trump en el que volvió a compartir un video insinuando que las boletas de voto por correo estaban siendo tomadas ilegalmente de un sitio de colecta. Facebook aplicó una advertencia de verificación de hechos sobre el video, degradando su distribución y enlazando con historias de Reuters y la Prensa Asociada diciendo que el video no mostraba fraude electoral.

Encuesta sobre la confianza política

A fin de construir su caso para disolver la lista, a mediados de 2019 los investigadores de Facebook compartieron las conclusiones de una encuesta que realizaron y que subrayó la facilidad con que los usuarios de Facebook creían en información falsa si la compartía un miembro de su partido político. En la encuesta, 2.600 usuarios de Facebook en los EE.UU. que se identificaron como republicanos o demócratas vieron una serie de publicaciones mayormente falsas previamente compartidas por cuentas en la lista de políticos protegidos de Facebook.

En promedio, los participantes que se identificaron como republicanos dijeron que confiaban 3,1 puntos porcentuales más en los posts compartidos por la cuenta de un político de su partido político que en una cuenta de un ciudadano, sin importar si el post era verdadero o falso. Los participantes demócratas fueron 4,2 puntos porcentuales más confiados en los políticos de su propio partido que cuando un nombre civil compartía puestos.

Los participantes en la encuesta de ambos partidos también se mostraron más interesados en ver puestos similares de los políticos que en ver puestos más similares compartidos por personas normales, lo que refleja cómo el contenido compartido por los políticos “se percibirá como más digno de confianza, interesante y útil”.

“Permitir que el contenido de las listas blancas evada nuestras típicas intervenciones de desinformación privilegia el mismo contenido que tiene una mayor probabilidad de engañar a la gente en cuanto a su confiabilidad y utilidad”, resumieron en su presentación.

Los hallazgos de Facebook son “completamente consistentes con décadas de investigación” y “probablemente subestiman el efecto” que el discurso de los políticos tiene en los ciudadanos, según Matthew Baum, profesor de políticas públicas y comunicaciones globales de la Universidad de Harvard.

Una investigación publicada esta semana por una coalición de expertos en desinformación, The New York Times, y el grupo progresista de derechos humanos Avaaz, encontró que un pequeño número de políticos y figuras públicas fueron en gran parte responsables de la difusión de afirmaciones incorrectas sobre el proceso de votación a través de los medios de comunicación social en las últimas semanas. Estos “superdifusores” fueron liderados por Trump, cuyos controvertidos posts han estado entre los más comprometidos con Facebook después del día de las elecciones.

Otras figuras públicas suelen amplificar el discurso de los políticos en línea, creando una cámara de eco y ampliando el alcance de lo que dicen, según Shannon McGregor, investigadora y profesora de la Universidad de Carolina del Norte, Chapel Hill, que estudia de cerca el papel de los medios sociales en el proceso político. “Siempre que hablan, hay un montón de actores a su alrededor que amplifican”, dijo.

Aún así, Zuckerberg se ha resistido a los llamados a moderar el discurso de los políticos, diciendo que dicho discurso ya está fuertemente escudriñado y que no es el papel de una empresa privada censurar a los funcionarios electos. Facebook dice que su política es eliminar los mensajes de los políticos que podrían conducir a daños físicos o suprimir la votación, aunque ha dado amplia latitud este año a los mensajes de Trump que, por ejemplo, compartieron falsos reclamos sobre el voto por correo o sugirieron violencia hacia los manifestantes de Black Lives Matter.

La comprobación de los hechos impide que se extienda

Desde que comenzó su programa de verificación de hechos con un puñado de organizaciones después de las elecciones presidenciales de EE.UU. en 2016, Facebook lo ha ampliado ampliamente y ahora paga a docenas de grupos en todo el mundo para revisar los mensajes que los usuarios y los empleados de la compañía marcan para su revisión.

Si estos verificadores de hechos consideran que una publicación es inexacta, Facebook puede imponer sanciones estrictas que incluyen la colocación de un banner de advertencia en la parte superior de la publicación y la reducción de su visibilidad a través de los algoritmos de Facebook. Si la misma página comparte repetidamente información falsa que es desacreditada, Facebook puede suprimir el alcance de todo su contenido.

Funcionarios de la compañía han dicho que estas etiquetas de advertencia reducen significativamente la propagación de los mensajes correspondientes. En una llamada a los reporteros la semana pasada, el vicepresidente de Facebook que lidera sus esfuerzos de integridad electoral, Guy Rosen, dijo que el 95% de los usuarios en promedio no hacen clic a través de la etiqueta de advertencia de los verificadores de hechos de terceros. Dijo que entre marzo de 2020 y las elecciones de noviembre, Facebook aplicó etiquetas de advertencia de información errónea a 180 millones de publicaciones, la mayoría de ellas relacionadas con la pandemia de coronavirus.

La recomendación del año pasado por el equipo de Integridad Cívica de Facebook para terminar con su exención de verificación de hechos para los políticos es uno de varios casos en los que los empleados han presionado por acciones más agresivas contra los puestos de los líderes electos.

Este verano, docenas de empleados de Facebook de la misma unidad propusieron penas más estrictas para los políticos y figuras públicas en Facebook, como bloquear la posibilidad de comentar o compartir fácilmente las publicaciones si se meten en conflicto con las políticas de la compañía, informó The Information la semana pasada. La dirección de Facebook también rechazó esa propuesta. Algunos empleados también han argumentado a favor de mantener ciertas medidas de emergencia que Facebook desplegó durante la elección, sólo para encontrar resistencia de los ejecutivos más pragmáticos que están preocupados por frenar el crecimiento, informó el martes The New York Times.

El enfoque de Facebook hacia el discurso político ha divergido drásticamente del de Twitter desde el año pasado, como la presentación interna de los investigadores de Facebook señaló. Hicieron referencia a un anuncio de Twitter de junio de 2019 en el que la compañía dijo que etiquetaría y degradaría los mensajes violentos de los políticos, explicando en una entrada de blog que estaba tomando la decisión debido a la “enorme influencia” que los políticos tienen en el discurso público.

Desde entonces, Twitter ha aplicado la política a cientos de tweets relacionados con las elecciones presidenciales de noviembre, incluidos varios del Presidente Trump que incluían información controvertida sobre el proceso de votación. Cuando se aplica, la acción limita severamente el compromiso con el puesto infractor, restringiendo la capacidad de volver a compartir, gustar o responder.

En su informe del año pasado, los investigadores de Facebook calificaron la política de Twitter de “una función de transparencia crucial, que informa a los usuarios cuando y por qué las políticas de Twitter no se aplican por igual”.


Alex Heath


HyperNoir.

Related Posts