Facebook rechazó la presión de los empleados para controlar las publicaciones políticas engañosas

En el período previo a las elecciones, el personal de Facebook propuso limitar la participación en los posts de políticos y figuras públicas que van en contra de las políticas de la empresa, de manera similar al enfoque que desplegó Twitter. Pero el CEO de Facebook, Mark Zuckerberg y otros altos líderes rechazaron la propuesta.

El 3 de noviembre, Facebook añadió un aviso bajo un post del presidente Donald Trump que incluía la afirmación infundada de que sus oponentes estaban tratando de “robar la elección”. Los seguidores de Trump compartieron el post 26.000 veces mientras hacía de su cuenta de Facebook una parte clave de su arsenal para plantear dudas sobre el resultado de las elecciones de EE.UU.

Meses antes, docenas de empleados de Facebook de la unidad de Integridad Cívica de la compañía, que se encarga de determinar cómo la empresa maneja el contenido relacionado con las elecciones, habían anticipado y tratado de evitar la propagación de tales publicaciones. Conmocionados por una publicación incendiaria de Trump dirigida a los manifestantes de Black Lives Matter, propusieron penas más estrictas para los políticos y las figuras públicas en Facebook, como bloquear la posibilidad de comentar o compartir fácilmente las publicaciones si se metían en conflicto con las políticas de la empresa.


El Takeaway

En el período previo a las elecciones, el personal de Facebook propuso limitar la participación en los posts de políticos y figuras públicas que van en contra de las políticas de la empresa, de manera similar al enfoque que desplegó Twitter. Pero el CEO de Facebook, Mark Zuckerberg y otros altos líderes rechazaron la propuesta.

Sin embargo, después de semanas de deliberaciones que comenzaron en junio, los altos líderes de Facebook, liderados por el CEO Mark Zuckerberg, vetaron los cambios propuestos por preocupaciones de que tales medidas parecieran cruzar la línea de la censura, según tres personas familiarizadas con las conversaciones. La decisión fue parte de un tema familiar en Facebook, ya que Zuckerberg ha insistido repetidamente en no restringir el discurso político.

En su lugar, Facebook eligió un enfoque más suave para las elecciones de los EE.UU.: poner una etiqueta en todas las publicaciones relacionadas con las elecciones, independientemente de su contenido, con información sobre los resultados. La compañía no usó ninguna medida para limitar la capacidad de las publicaciones falsas de Trump para llegar a más gente. Por el contrario, un sitio de medios sociales más pequeño, Twitter, eligió manejarlos de manera más agresiva, limitando su difusión.

Mientras que los funcionarios de Facebook han pregonado la preparación de la compañía para combatir la interferencia electoral este año, los investigadores han criticado su enfoque de etiquetado como demasiado suave para frenar significativamente la proliferación de información errónea en su servicio. Los miembros de la campaña del presidente electo Joseph Biden han criticado a Facebook por no detener la propagación de los mensajes de Trump y sus aliados que buscan socavar el proceso electoral.

“Las etiquetas con las que se presentaron son bastante débiles y discretas, y fundamentalmente no tienen en cuenta el papel clave que Facebook juega en la difusión y amplificación de la desinformación”, dijo Evelyn Douek, una profesora de la Facultad de Derecho de Harvard que estudia las prácticas de moderación de contenido de las empresas de tecnología.

Las deliberaciones internas de Facebook este año, que llevaron a su actual enfoque, muestran cuán reacia ha sido la mayor red social del mundo a vigilar lo que dicen y comparten sus usuarios. Eso ha sido especialmente cierto para los mensajes de políticos como Trump, quien regularmente usa el servicio para galvanizar a sus más de 32 millones de seguidores.

Él y otros republicanos se han quejado cada vez más de que las medidas para etiquetar o restringir los mensajes equivalen a la censura, cargos que han redoblado después de que Twitter y Facebook empezaran a etiquetar los mensajes electorales este mes. Citando esas quejas, han amenazado con hacer retroceder una ley de décadas de antigüedad, la Sección 230, que protege a las empresas tecnológicas de EE.UU. de la responsabilidad por lo que sus usuarios comparten. Los demócratas que sostienen que Facebook no ha hecho lo suficiente para vigilar el contenido también han presionado por la reforma de la ley. El martes, Zuckerberg, junto con el CEO de Twitter, Jack Dorsey, está testificando ante el Comité Judicial del Senado sobre los posibles cambios en la Sección 230.

En una declaración, el portavoz de Facebook Andy Stone dijo que “el discurso político es el contenido más escudriñado en nuestra plataforma” y que las etiquetas de la compañía son “sólo una pieza de nuestros mayores esfuerzos de integridad electoral”. Dijo que Facebook ha eliminado más de 265.000 piezas de contenido por violar sus políticas de supresión de votantes, junto con docenas de redes de cuentas que buscan influenciar encubiertamente la opinión pública. No comentó sobre la propuesta de los empleados y la decisión de los ejecutivos de rechazarla.

Salida de los empleados

El movimiento de Facebook para etiquetar los posts políticos en el período previo a las elecciones del 3 de noviembre resultó de un período de discordia interna este verano. También marcó un cambio en la visión de Zuckerberg de que Facebook no debería intervenir en el contenido de su servicio.

Mientras que Facebook ha añadido etiquetas a las noticias, que sus verificadores independientes revisan, la compañía se ha resistido a los llamados a intervenir cuando se trata de discursos de políticos y otras figuras públicas, incluso si lo que comparten va en contra de sus políticas. En 2016, estableció oficialmente una excepción de interés periodístico para las publicaciones que violaran sus normas si la empresa consideraba que eran de interés público.

Facebook comenzó a cambiar esa postura después de un intenso alboroto de los empleados a finales de mayo, cuando Trump publicó un post que llamaba “matones” a los manifestantes de Black Lives Matter y usaba la frase “Cuando empieza el saqueo, empieza el tiroteo”. Los activistas de derechos civiles y algunos empleados de Facebook dijeron que violaba las políticas de Facebook sobre el fomento de la violencia.

Twitter decidió proteger un tweet idéntico de Trump detrás de un mensaje de advertencia y restringió el intercambio. Pero Facebook lo dejó intacto, defendiendo esa posición diciendo que al hacerlo servía para advertir a los usuarios sobre el potencial uso de la fuerza por parte del gobierno.

Además de provocar una rara protesta pública del personal de Facebook, la decisión también provocó un inusual nivel de activismo dentro de la empresa, presionando a los líderes para reformar su enfoque. Los empleados del equipo de Integridad Cívica de Facebook elaboraron una propuesta, “Abordar las violaciones de interés periodístico”, para limitar el compromiso de futuras publicaciones de figuras públicas que rompan las reglas de la compañía.

Falta de convicción moral

Respaldada por los líderes del grupo de Integridad Cívica y compartida ampliamente a través de una versión interna de Facebook para los empleados llamada Workplace, la propuesta sesgó la política de la empresa de no interferir con los mensajes que consideraba de interés periodístico, incluso si esos mensajes violaban sus propias directrices.

“Si bien tiene principios, este enfoque permite que prolifere el contenido dañino, daña las normas del discurso y sugiere una falta de convicción moral”, se lee en la propuesta del 1 de junio, que fue revisada por The Information.

Las maquetas de productos adjuntas para Facebook e Instagram incluían una opción para proteger los mensajes violatorios detrás de un banner de advertencia que los usuarios se verían forzados a aprovechar. Mientras que la gente podría entonces leer la publicación, no les gustaría o comentar sobre ella, limitando su amplificación a través de los algoritmos de Facebook.

Además, cuando los usuarios intentan volver a compartir la publicación, se les muestra una ventana emergente que les advierte que la publicación va en contra de las políticas de Facebook, pero que la compañía la considera de interés periodístico. “Este contenido no debería beneficiarse de la amplificación algorítmica, ya que la libre expresión no es lo mismo que la libre distribución”, decía la propuesta.

El plan rápidamente llamó la atención de Zuckerberg y los altos ejecutivos. Durante las siguientes semanas, las conversaciones internas crecieron para abarcar cómo la compañía debería etiquetar los posts en tiempos de tensión como las próximas elecciones de noviembre.

La propuesta enfrentó la resistencia de los líderes de Facebook. En una serie de reuniones remotas por video en junio, los líderes de la News Feed dijeron que sospechaban de restringir la participación de los posts, con algunos argumentando que la compañía no debería interferir con lo que la gente quería compartir y que sería útil permitir la contra-voz en los comentarios de los posts, según una persona involucrada en las conversaciones. Zuckerberg y los líderes del grupo de políticas expresaron su preocupación de que Facebook comenzara a etiquetar el contenido simplemente porque a la gente de la compañía no le gustaba.

Lenguaje neutral

También argumentaron en contra de ocultar por completo el contenido violatorio, como ha hecho Twitter en algunos casos, debido a la preocupación de que personas ajenas a la empresa acusaran a ésta de censurar ciertas opiniones. El jefe de política y comunicaciones Nick Clegg quería que el lenguaje de las etiquetas se leyera de la forma más neutral posible, a partir de fuentes de información bipartidistas y enlazando con una colección de medios de comunicación de buena reputación.

A finales de junio, como resultado de las conversaciones, Zuckerberg anunció que Facebook por primera vez aplicaría etiquetas a los puestos que consideraba de interés periodístico y los eliminaría. En septiembre, elaboró esos planes, diciendo que la compañía etiquetaría los puestos específicos que deslegitimaban el proceso de votación y los resultados de las elecciones, con enlaces a información autorizada. Semanas más tarde, Facebook decidió aplicar las mismas etiquetas a todas las publicaciones relacionadas con la elección, una medida que sirvió para distanciar aún más a la empresa de posibles afirmaciones de parcialidad política.

Cabe destacar que Facebook no optó por limitar la participación de los mensajes que etiqueta ni por dificultar que la gente comparta las reclamaciones en disputa, un enfoque que Twitter dijo recientemente que llevó a una disminución estimada del 29% en el reencuentro de los mensajes de elecciones en disputa en su sitio.

Los posts de Trump durante la elección han mostrado el enfoque de Facebook en la práctica. Una publicación del 12 de noviembre en la página de Facebook de Trump que afirmaba sin fundamento que los sistemas de votación habían cambiado cientos de miles de votos a Biden de Trump obtuvo más de 200.000 comentarios y casi 300.000 acciones.

Facebook colocó una etiqueta debajo de la publicación, enlazando con el centro de elecciones de la compañía que sigue los resultados de los medios de comunicación, aunque el espectador de la publicación puede descartar rápidamente la etiqueta. Fue una de las principales publicaciones compartidas en Facebook ese día, según datos de un servicio propiedad de Facebook, CrowdTangle, que mide las interacciones de los usuarios con las páginas.

“En situaciones como ésta, la etiqueta no hace nada”, dijo Alex Stamos, ex jefe de seguridad de Facebook y director del Observatorio de Internet de Stanford, en una llamada a los reporteros la semana pasada. “No apagar los recursos que permiten que estas cosas se vuelvan a compartir es un verdadero problema”.


Alex Heath


HyperNoir.

Related Posts