Para arreglar la sección 230, Amplificación algorítmica del objetivo

Parece inevitable que el gobierno de los Estados Unidos intente reducir algunas de las protecciones que el artículo 230 de la Ley de Decencia en las Comunicaciones ha proporcionado a las empresas de Internet.

Parece inevitable que el gobierno de los Estados Unidos intente reducir algunas de las protecciones que el artículo 230 de la Ley de Decencia en las Comunicaciones ha proporcionado a las empresas de Internet.

La línea fina que necesita caminar es revertir el deslizamiento de las plataformas de medios sociales en un pozo negro de “clickbait” y un criadero de teorías de conspiración, pero dejar el trillón de dólares de valor creado por la Sección 230 en su mayoría ilesos.


El Takeaway

La mejor manera de regular las plataformas de medios sociales se basa en una reciente opinión del juez de la Corte Suprema Clarence Thomas, argumenta el ex científico de datos de Facebook Roddy Lindsay. Se trata de eliminar la inmunidad legal para un enfoque común de la distribución de contenido que recompensa el clickbait y las teorías de conspiración.

Una nueva opinión presentada por el Juez de la Corte Suprema Clarence Thomas hace dos semanas proporciona una intrigante guía para lograr esto de una manera simple: preservar la mayoría de las protecciones de la Sección 230 pero eliminarlas para el contenido amplificado algorítmicamente como el de la alimentación de noticias de Facebook, que impulsa la distribución de artículos estimulantes que atraen más clics y comentarios. Los legisladores que están interrogando a los ejecutivos de las compañías tecnológicas durante las audiencias de esta semana sobre la Sección 230 por el Comité de Comercio del Senado harían bien en considerarlo.

La Sección 230 fue escrita hace casi 25 años para ser un escudo de responsabilidad para los servicios de Internet y sitios web que dependen de contenido generado por el usuario. Las compañías de Internet de consumo como Facebook, YouTube y Twitter han confiado consistentemente en el estatuto para derrotar las demandas de los usuarios descontentos. Durante el último año, los políticos y expertos se han centrado en la Sección 230 como una forma de perseguir sus diversas quejas contra los medios de comunicación social. Una fea cosecha de propuestas de reforma va desde los certificados antibiológicos emitidos por el gobierno de Orwell hasta los centros de llamadas masivas que manejan las quejas de los usuarios, pasando por las llamadas infantiles para la revocación total de la sección.

El 13 de octubre, el juez Thomas entró en esta pelea con una opinión de 10 páginas sobre el artículo 230, adjunta a un procedimiento judicial rutinario.  (La Sección 230 nunca ha sido probada en la Corte Suprema.) Argumentó que la interpretación de los tribunales inferiores de la Sección 230 es incorrecta, proporcionando una inmunidad indebida donde no debería existir. Su principal afirmación es que, aunque la ley aísla a las empresas de medios de comunicación social de la responsabilidad de los editores por albergar contenidos ilegales en sus bases de datos, no pueden estar aisladas de la responsabilidad de los distribuidores si distribuyen contenidos que saben que son problemáticos.

En virtud del derecho anglosajón, si los distribuidores de productos físicos saben que sus productos son defectuosos, pueden ser considerados responsables. En opinión del juez Thomas, nada de lo dispuesto en el artículo 230 sugiere que los distribuidores de información en línea deban ser tratados de manera diferente.

Consagrado en una decisión completa del Tribunal Supremo -o en una enmienda aclaratoria del Congreso-, una nueva responsabilidad del distribuidor para las empresas de medios de comunicación social podría hacer que su relación con los usuarios sea mucho más saludable si incluye un detalle adicional: la definición de “distribución” como “amplificación algorítmica”.

En los sitios de medios sociales, existe una diferencia intuitiva entre alojar el contenido en los perfiles de los usuarios y distribuirlo mediante amplificación algorítmica, lo que añade un impulso de inteligencia artificial para llegar a los usuarios que no solicitaron específicamente un determinado contenido. Cuando navegamos afirmativamente hacia el contenido en el perfil de un usuario, estamos haciendo una elección intencional en ese momento para consumir el discurso de ese usuario en particular. Cuando un algoritmo captura miles de señales implícitas sobre nuestras preferencias ocultas y las utiliza para presentar un contenido muy atractivo -a menudo con titulares salaces y comentarios polarizantes- ese distribuidor algorítmico se apodera de nuestra agencia para elegir el discurso que consumimos.

Si se elabora con cuidado, la responsabilidad del distribuidor por el contenido ilegal amplificado algorítmicamente podría aplicarse a las funciones de los medios sociales como Facebook News Feeds y los widgets de recomendación, pero no al contenido alojado en la página de perfil de su autor. Bajo la amenaza de una demanda por insertar mensajes difamatorios y discursos de odio en los canales de noticias de los usuarios, Facebook y Twitter se verían obligados a limpiar sus páginas de inicio de la amplificación algorítmica. El motor de recomendación de YouTube tendría que ser radicalmente revisado o desechado.

Es hora de retirar estas características. Después de todo, los mismos algoritmos son responsables de la radicalización de la extrema derecha de YouTube en Brasil y han propagado la desinformación viral del Covid-19 en Facebook. “Las plataformas no son capaces de tomar estas decisiones de manera responsable”, declaró el grupo de defensa de Internet Fight for the Future, al hacer un llamado a una moratoria en la amplificación algorítmica en marzo.

La amplificación algorítmica no es necesaria para que podamos disfrutar y obtener utilidad de Internet. La internet antes de que el contenido algorítmico se alimente estaba menos centralizada y era más divertida, con menos guardianes. Aprendimos sobre el mundo y navegamos usando herramientas como marcadores, blogs, fuentes RSS, listas de correo, tableros de mensajes y Wikipedia.

Había (y todavía hay) sitios web de noticias reales, con URLs que escribimos intencionalmente en la barra de direcciones de nuestro navegador – sitios que podrían florecer de nuevo si la generación de tráfico dependiera de los marcadores y las suscripciones de los usuarios en lugar de los clics de los medios sociales.

Una restricción en el contenido algorítmico de los feeds podría ser un momento de la liberación humana moderna. Finalmente tendríamos un aliado político para vencer nuestra tendencia al “doomscroll” o a caer en las ranuras de “Recomendado para ti” durante nuestros inevitables períodos de debilidad mental.

Una restricción en el contenido algorítmico de los alimentos podría ser un momento de la liberación humana moderna. Por fin tendríamos un aliado político para contrarrestar nuestra tendencia al ” doomscroll” o a caer en las ranuras de “Recomendado para ti” durante nuestros inevitables períodos de debilidad mental.

Lo importante es que la reducción de la amplificación algorítmica sería una acción política de contenido neutral que no infringiría el discurso de los usuarios de los medios sociales. Seguirían siendo tan libres de publicar como lo son hoy en día. Los usuarios tendrían una agencia completa para navegar al contenido de cualquier perfil que deseen, libre de los codazos subconscientes de los algoritmos de caja negra.

Políticamente, la amplificación algorítmica es un objetivo aceptable ya que ayudaría al gobierno federal a reconciliar la presión política actual de “hacer algo con los medios sociales” con su apoyo histórico a la libertad de expresión online. El dictamen unánime del Tribunal Supremo de 1997 en el caso Reno c. ACLU, un hito para la libertad de expresión en Internet (que anuló partes de la Ley de Decencia en las Comunicaciones adyacentes al artículo 230), señaló que el contenido de Internet no “aparece en la pantalla de la computadora sin ser solicitado”. Los usuarios rara vez encuentran contenido ‘por accidente'”. La amplificación algorítmica ha cambiado ese supuesto fundamental; en lugar de abrir la caja de Pandora de la reglamentación gubernamental de la palabra, sería institucionalmente preferible volver simplemente a exigir una mayor intención de los usuarios de consumir la palabra en Internet.

Si el Congreso o el Tribunal Supremo se hacen cargo de la acusación contra la amplificación algorítmica, deben utilizar un lenguaje preciso que preserve los beneficios de los algoritmos en otras aplicaciones de Internet. Por ejemplo, no debe impedir que los motores de búsqueda utilicen algoritmos para darnos los resultados de búsqueda más relevantes cuando los solicitemos afirmativamente.

Y aunque la eliminación de las fuentes de contenido algorítmico ciertamente suprimiría los engaños virales y las teorías de conspiración en los medios sociales, los movimientos de base como #metoo y Black Lives Matter también se verían afectados. Mientras que la propagación de estos movimientos a través de los hashtags virales podría ser inicialmente más lenta, un cambio a canales de comunicación privados y tácticas de organización digital probablemente haría a estos grupos más duraderos y les ayudaría a construir poder a largo plazo. Por ejemplo, en los últimos años los grupos progresistas y los sindicatos han utilizado eficazmente la organización relacional, que permite a los adherentes de una campaña política o de un grupo de promoción activar su red de amigos con solicitudes personales por correo electrónico o mensaje privado.

Las propias empresas de Internet harían bien en adoptar y promover esta particular reforma del artículo 230. Mientras no se potencien algorítmicamente los mensajes potencialmente ilegales, estas empresas seguirán recibiendo las mismas protecciones de responsabilidad por el contenido generado por el usuario que reciben hoy en día, sin necesidad de un ejército de censores y abogados. Las compañías de medios sociales americanas pueden dar un paso atrás del campo de minas políticas y volver a construir.

Eliminar el impulso algorítmico tampoco dañaría necesariamente su negocio. Aunque asumimos que las alimentaciones algorítmicas son intrínsecas a su éxito, prosperaron en el pasado sin amplificación algorítmica: Facebook tuvo un gran éxito durante dos años y medio antes de introducir la alimentación de noticias en 2006, y Twitter introdujo por primera vez una alimentación algorítmica en 2016, aproximadamente una década después de su fundación. Para retener los ojos y los dólares de publicidad, estas empresas pueden simplemente priorizar características determinantes y utilitarias como la búsqueda y la mensajería privada, o contratar a editores reales para curar las noticias de alta calidad.

¿Quién sabe? Devolver el control sobre el consumo de contenido a los usuarios podría aumentar la retención y el tiempo de uso de estos servicios.

Reformar o reinterpretar la Sección 230 podría curar los problemas sociales y políticos más espinosos de los medios sociales, pero debe hacerse quirúrgicamente. Reducir la amplificación algorítmica es un compromiso sensato que puede atraer el apoyo bipartidista, y Silicon Valley debería tomarlo en serio.

Roddy Lindsay es un antiguo científico de datos de Facebook y cofundador de Hustle, una startup de mensajería.

Post Anterior

Las tensiones Facebook-Apple están en aumento

Siguiente Post

El Tül de Bogotá recauda 4 millones de dólares para mejorar la cadena de suministro para la construcción en América Latina

Posts Relacionados