Facebook tiene una receta para mejores medios sociales. ¿Por qué la compañía no la está usando?

Un artículo del New York Times de esta semana sobre las dificultades dentro de Facebook para controlar la desinformación después de las elecciones ilumina una idea fascinante: encuestar a los usuarios para generar datos de entrenamiento para los algoritmos de inteligencia artificial

Un artículo del New York Times de esta semana sobre las dificultades dentro de Facebook para controlar la desinformación después de las elecciones ilumina una idea fascinante: encuestar a los usuarios para generar datos de entrenamiento para los algoritmos de inteligencia artificial. Como informó el Times:

La compañía había encuestado a los usuarios sobre si ciertos mensajes que habían visto eran “buenos para el mundo” o “malos para el mundo”. Encontraron que los posts de gran alcance -los que habían visto muchos usuarios- tenían más probabilidades de ser considerados “malos para el mundo”, un hallazgo que algunos empleados dijeron que les alarmaba.

Así que el equipo entrenó un algoritmo de aprendizaje automático para predecir los mensajes que los usuarios considerarían “malos para el mundo” y degradarlos en las noticias. En las primeras pruebas, el nuevo algoritmo redujo con éxito la visibilidad de los contenidos censurables. Pero también redujo el número de veces que los usuarios abrieron Facebook, una métrica interna conocida como “sesiones” que los ejecutivos monitorean de cerca.

Esta métrica se conocía internamente como P (malo para el mundo), en lenguaje estadístico, describiendo la probabilidad, de 0% a 100%, de que un usuario calificara un determinado puesto como malo para el mundo.

Usar encuestas como datos de entrenamiento para la IA, como se reportó que el equipo de Facebook lo hizo, es tremendamente prometedor como un mecanismo para el ranking algorítmico. Las redes sociales podrían mostrarnos contenido que satisfaga necesidades humanas de alto nivel como la moralidad y la igualdad, en lugar de hablar a nuestros más bajos impulsos.

Para entender cómo podría funcionar este enfoque, vale la pena dar un breve rodeo a la ciencia cognitiva.

Históricamente, el News Feed de Facebook, como la mayoría de los sistemas de clasificación de contenidos, ha utilizado preferencias reveladas para inferir qué tipos de contenido atraen más a los usuarios. Estas preferencias reveladas se infieren de los datos de comportamiento como los clics y los gustos que se registran durante la actividad de un usuario. El trabajo del algoritmo de clasificación es averiguar las características que hacen que los usuarios hagan clic y gusten, como el autor y el tema de cada mensaje, y luego usar esa información para mostrar el contenido que tiene más probabilidades de producir más clics y gustos.

El inconveniente de los algoritmos entrenados en preferencias reveladas es que el comportamiento de los usuarios de hacer clic y gustar es más a menudo impulsado por reacciones emocionales generadas desde la parte primitiva de nuestro cerebro conocida como la amígdala. La amígdala humana está más comprometida por estímulos que provocan miedo, ansiedad y excitación sexual.

En los medios sociales, deberíamos esperar que un algoritmo de clasificación de contenidos basado en esa “inteligencia artificial amigódica” cree bucles de retroalimentación que favorezcan los mensajes con imágenes estimulantes y ansiosas y titulares que la gente no pueda resistir hacer clic.

¿Te suena familiar?

El encanto de la IA de la amígdala es simple. Los algoritmos modernos de IA requieren muchos datos de entrenamiento, y los sitios web y aplicaciones están inundados de datos de comportamiento de los usuarios. Hacer clic y gustar son actividades que llevan a pasar más tiempo, a generar más contenido y a recolectar más dinero de publicidad.

Esas conductas también se comercializan de manera brillante, descritas colectivamente con el término aparentemente neutro y no controvertido de “compromiso”, que implícitamente traslada la responsabilidad de la garantía de calidad del algoritmo del diseñador del algoritmo a los usuarios. “Simplemente optimizamos para el compromiso del usuario”, se encoge de hombros el científico de datos de la IA amigdalina, mientras los desafortunados usuarios se pasan las horas.

Lo que nos lleva a P (Malo para el Mundo), y por qué es un concepto tan intrigante.

Responder a una pregunta como “¿Este post es bueno o malo para el mundo?” es un ejercicio que invita a la reflexión y que activa una parte muy diferente del cerebro: la corteza prefrontal, desarrollada de forma única en los simios y en los humanos, que regula la función ejecutiva, la toma de decisiones racionales y el control cognitivo. La corteza prefrontal puede razonar sobre las necesidades de la sociedad y evaluar la información en el contexto de las normas culturales.

Enseñar algoritmos para predecir la probabilidad de que un usuario responda a una encuesta, en lugar de la probabilidad de hacer clic, podría conducir a una clase de algoritmos más beneficiosa socialmente que yo llamaría “IA prefrontal”. La IA prefrontal usa señales de nuestras facultades ejecutivas, no nuestros instintos básicos, como objetivo de la predicción algorítmica.

Es un enfoque humanístico de la IA que recuerda el abrazo de Aristóteles de la eudemonía, una noción holística y orientada al servicio del bienestar, como la cúspide del bien humano, en lugar de la gratificación inmediata y el placer a corto plazo asociados con el hedonismo.

No es sorprendente que el experimento de Facebook con una IA entrenada en una métrica de beneficio social “redujera con éxito la visibilidad de contenido objetable”. Tampoco debería sorprenderme, cuando cambio una dieta de Pop-Tarts y Pepsi por granos enteros y vegetales, encontrar que reduce exitosamente la ocurrencia de dolores estomacales objetables.

El principal inconveniente de la IA prefrontal es que es cara. Las tasas de respuesta de las encuestas en línea son bajas, y reclutar participantes requiere tomar espacios publicitarios en Facebook que de otra manera generarían ingresos. En mi experiencia como creador de la plataforma original de encuestas de investigación de Facebook, el equilibrio entre el poder estadístico y la pérdida de ingresos por publicidad siempre estuvo presente. Generar suficientes datos para entrenar decentemente un algoritmo requeriría decenas de miles de respuestas como mínimo, lo cual requeriría millones de impresiones de un anuncio de reclutamiento. Esto probablemente pone la IA prefrontal fuera del alcance de la mayoría de las empresas de nueva creación.

Inevitablemente, la IA prefrontal y la IA amigdalina entrarán en conflicto. Esto es aparentemente lo que pasó en Facebook, cuando un algoritmo de clasificación entrenado puramente en la métrica del beneficio social llevó a menos sesiones de usuario y por lo tanto menos dólares de publicidad, en comparación con el algoritmo predeterminado.  De acuerdo con el informe de The Times, Facebook eventualmente lanzó una versión diluida del algoritmo que no disminuyó mensurablemente las sesiones de los usuarios.

Creo que Facebook debería actuar más audazmente aquí. Como una de las pocas compañías con la escala, el talento técnico y la infraestructura de investigación para construir una IA prefrontal para alimentar su News Feed, Facebook está en posición de mostrarnos cómo podría ser una IA más socialmente responsable. Sí, siempre hay accionistas y ganancias trimestrales que considerar, pero los inversores y el liderazgo de Facebook… …deberían recordar las palabras en la presentación de la S1 de Facebook para hacerlo público: “Más y más gente quiere usar los servicios de compañías que creen en algo más allá de simplemente maximizar las ganancias”.

Más allá de hacer mejores recomendaciones para el contenido de los medios sociales, la IA prefrontal es prometedora como un enfoque general para una IA más ética. Permite a los científicos de datos luchar contra el sesgo inherente hacia el comportamiento instintivo que plaga los algoritmos entrenados en la observación del comportamiento, pero mantiene el diseño algorítmico dentro del familiar y cómodo reino del modelado cuantitativo. Uno podría imaginarse un algoritmo de préstamo de casas respaldado por el gobierno no sólo evaluando una aplicación basada en la probabilidad estadística de incumplimiento, sino utilizando un modelo basado en encuestas para determinar si una aplicación ayudaría a alcanzar los objetivos de la comunidad en torno a la equidad.

Si las empresas de tecnología y sus científicos de datos continúan encogiéndose detrás del compromiso de los usuarios para justificar la publicación de “clickbait” y la desinformación, la IA prefrontal también podría proporcionar a los reguladores una norma para obligar al cambio. ¿Pero por qué esperar a los reguladores cuando el cambio está al alcance de la mano?


Roddy Lindsay (@RoddyLindsay) es un antiguo científico de datos de Facebook y cofundador de Hustle, una startup de mensajería.



HyperNoir.

Related Posts