Los moderadores de Google y YouTube hablan sobre el trabajo que les dio Trauma de Estrés Post-Traumatico

Estos moderadores ayudan a mantener a Google y YouTube libres de extremismo violento, y ahora algunos de ellos tienen TEPT

Google y YouTube abordan la moderación de contenido de la misma manera que lo hacen todos los otros gigantes tecnológicos: pagar a un puñado de otras compañías para que hagan la mayor parte del trabajo. Una de esas compañías, Accenture, opera el sitio de moderación de contenido más grande de Google en los Estados Unidos: una oficina en Austin, Texas, donde los moderadores de contenido trabajan las 24 horas limpiando YouTube.

Peter es uno de los cientos de moderadores en el sitio de Austin. YouTube clasifica el trabajo para él y sus colegas en varias colas, lo que según la compañía permite a los moderadores desarrollar experiencia en torno a sus políticas. Hay una cola de derechos de autor, una cola de odio y acoso, y una cola de “adultos” para porno.

Peter trabaja lo que se conoce internamente como la “cola VE”, que significa extremismo violento. Es uno de los trabajos más sombríos que hay que hacer en Alphabet. Y como todos los trabajos de moderación de contenido que implican la exposición diaria a la violencia y el abuso, ha tenido consecuencias graves y duraderas para las personas que realizan el trabajo.

En el último año, Peter vio a uno de sus compañeros de trabajo colapsar en el trabajo en apuros, tan agobiado por los videos que había visto que se tomó dos meses de licencia no remunerada del trabajo. Otro compañero de trabajo, afectado por la ansiedad y la depresión causadas por el trabajo, descuidó tanto su dieta que tuvo que ser hospitalizado por una deficiencia aguda de vitaminas.

Peter, que ha hecho este trabajo durante casi dos años, se preocupa por el costo que el trabajo está teniendo en su salud mental. Su familia lo ha instado reiteradamente a que renuncie. Pero le preocupa no poder encontrar otro trabajo que pague tan bien como este: $ 18.50 por hora, o alrededor de $ 37,000 al año.

Desde que comenzó a trabajar en la cola del extremismo violento, Peter notó que ha perdido cabello y ha aumentado de peso. Su temperamento es más corto. Cuando conduce por el edificio donde trabaja, incluso en sus días libres, una vena comienza a latir en su pecho.

“Todos los días ves a alguien decapitando a alguien, o alguien disparando a su novia”, me dice Peter. “Después de eso, te sientes como guau, este mundo es realmente loco. Esto te hace sentir enfermo. Sientes que no hay nada por lo que valga la pena vivir. ¿Por qué nos hacemos esto el uno al otro? ”

Al igual que muchos de sus compañeros de trabajo que trabajan en la fila VE en Austin, Peter es un inmigrante. Accenture reclutó a docenas de hablantes de árabe como él, muchos de los cuales crecieron en el Medio Oriente. La compañía depende de sus habilidades lingüísticas (habla siete) para identificar con precisión el discurso de odio y la propaganda terrorista y eliminarlo de YouTube.

Varios trabajadores con los que hablé esperan convertirse en ciudadanos, una hazaña que solo se ha vuelto más difícil bajo la administración Trump. Les preocupa hablar, a un gerente, a un periodista, por temor a que esto complique sus esfuerzos de inmigración. (Por esta razón, acepté usar seudónimos para la mayoría de los trabajadores en esta historia).

Sin embargo, más que eso, Peter y otros moderadores en Austin me dijeron que querían vivir como los empleados de Google a tiempo completo que a veces visitan su oficina. Me dijeron que un salario más alto, mejores beneficios para la salud y gerentes más solidarios aliviarían la carga del trabajo.

“Vemos a las personas que vienen de allí, cómo están, cómo están actuando de manera más libre”, me dice Peter.

Durante la mayor parte de este año, pensé lo mismo que hizo Peter. Traiga a los moderadores a la casa, pague como pagaría a un oficial de policía o bombero, y tal vez podría reducir el costo de salud mental de la exposición constante a la violencia gráfica.

Luego conocí a una mujer que había trabajado como moderadora de contenido para Google. Ella ganó un buen salario, acercándose a la marca de seis cifras. Hubo excelentes beneficios para la salud y otras ventajas. Pero ninguno de estos privilegios finalmente evitaría que el contenido perturbador que veía cada día la perjudicara.

Después de un año de eliminar el terrorismo y el abuso infantil de los servicios de Google, sufría ansiedad y frecuentes ataques de pánico. Tenía problemas para interactuar con los niños sin llorar. Un psiquiatra le diagnosticó un trastorno de estrés postraumático.

Ella todavía lucha con eso hoy.

Daisy Soderberg-Rivkin estaba trabajando como asistente legal en 2015 cuando vio un listado en línea para un puesto vacante en Google. El trabajo consistía en moderación de contenido, aunque, como muchos trabajos en moderación de contenido, se describía utilizando un eufemismo opaco: en este caso, “las remociones legales se asocian”.

Daisy había crecido con los servicios de Google, y cuando comenzó a pensar en trabajar allí, su mente se centró en las famosas ventajas de la compañía: sus cafés y micro cocinas, masajes gratuitos y limpieza en seco. El trabajo que finalmente solicitó se basó en la sede de Google en Mountain View, California (el equipo luego sería transferido a una oficina satélite en la cercana Sunnyvale) y era un puesto de tiempo completo con beneficios. Pagó $ 75,000 al año, más una subvención de acciones de Google que acercó el total a $ 90,000.

De ninguna manera conseguiré este trabajo , pensó para sí misma. Ella aplicó de todos modos.

La lista decía que los asociados procesarían solicitudes legales para eliminar enlaces de la búsqueda de Google debido a violaciones de derechos de autor, difamación y otro contenido inapropiado. Declaró que los asociados también tendrían que revisar algunos enlaces que contienen imágenes de abuso infantil. “Pero recuerdo muy claramente entre paréntesis que decía:” este tipo de contenido se limitaría a una o dos horas por semana “”, dice Daisy.

La eliminación de contenido perturbador de los servicios de Google requiere la colaboración de varios equipos dentro de la empresa. En su mayor parte, los videos reportados para contenido terrorista o explotación infantil son revisados ​​por contratistas como los de Austin. (Google se refiere a los empleados contratados por empresas de terceros como “vendedores”, pero descubrí que los empleados se describen a sí mismos universalmente como contratistas, y utilizo esa palabra a lo largo de esta historia). Pero Google también contrata a empleados de tiempo completo para procesar solicitudes legales de entidades gubernamentales y, cuando sea necesario, eliminar imágenes, videos y enlaces de la búsqueda web.

Daisy se sorprendió cuando, unos meses después de presentar su solicitud, un reclutador la llamó. En ocho rondas de entrevistas, Googlers la vendió sobre el impacto positivo que tendría su trabajo. Vas a ayudar a apoyar la libertad de expresión en línea , recuerda que le dijeron. Vas a hacer de Internet un lugar más seguro .

“Todo el día estás mirando cuerpos en el piso de un teatro”.

“Se sentía como si te estuvieras poniendo una capa, trabajando en Google, obteniendo tu kombucha gratis, durmiendo en vainas de siesta”, dice ella. “Pero de vez en cuando, tendrías que ver contenido perturbador. Realmente, ¿qué tan malo puede ser? ”

Ella llamó a su madre y le dijo que estaba tomando el trabajo. Ella tenía 23 años.

Daisy, que no tenía antecedentes de problemas de salud mental, no consideró el efecto potencial que podría tener el nuevo trabajo en su psique. Parece que tampoco Google. Durante su orientación, la compañía no ofreció ninguna capacitación para lo que los trabajadores en este campo ahora llaman “resiliencia”: desarrollar herramientas emocionales para hacer frente a un gran volumen de textos, imágenes y videos gráficos e inquietantes.

Daisy fue asignada para revisar las solicitudes legales de eliminación de contenido que se originó en Francia, donde habla con fluidez el idioma nativo. Eventualmente, se convertiría en la líder del programa de la compañía para el terrorismo en el mercado francés. Cada día, abría su cola, clasificaba los informes y determinaba si Google estaba obligado, ya sea por ley o por los términos de servicio de Google, a eliminar un enlace.

Para su sorpresa, la fila comenzó a desbordarse de violencia. El 13 de noviembre de 2015, los terroristas que habían prometido su lealtad al ISIS mataron a 130 personas e hirieron a 413 más en París y su suburbio de Saint-Denis, y la mayoría murió en un tiroteo masivo durante un concierto en el Bataclan.

“Tu día entero estás mirando cuerpos en el piso de un teatro”, dice ella. “Tus neuronas simplemente no funcionan de la manera en que lo harían normalmente. Se ralentiza todo “.

En julio de 2016, terroristas conectados con ISIS condujeron un camión de carga contra una multitud de personas que celebraban el Día de la Bastilla en la ciudad francesa de Niza, matando a 86 personas e hiriendo a 458 más. Los enlaces a fotos y videos gráficos comenzaron a acumularse. Los gerentes presionaron a Daisy para que procesara un número cada vez mayor de solicitudes, dice ella. Necesitamos eliminar esta acumulación , dijeron. Si no lo hacía, le preocupaba recibir una mala crítica.

Daisy trató de trabajar más rápido pero encontró que era una lucha.

“Todo lo que ves son los números que suben en tu cola”, dice ella.

 

En febrero, escribí sobre la vida de los moderadores de Facebook en los Estados Unidos , centrada en un sitio en Phoenix donde los trabajadores se quejaban de bajos salarios, condiciones laborales graves y problemas de salud mental de larga duración. vigilancia de la red social. En junio, escribí un informe de seguimiento sobre un sitio de Facebook en Tampa, Florida, donde un moderador había muerto después de sufrir un ataque cardíaco masivo en el trabajo .

Para entonces, había recibido mensajes de empleados de otras grandes plataformas sociales explicando que estos problemas también afectaban a sus empresas. A principios de este verano, busqué personas que habían trabajado como moderadores de Google o YouTube para comparar sus experiencias con las que había escrito anteriormente. En los últimos cinco meses, entrevisté a 18 empleados y contratistas actuales y anteriores de Google sobre sus condiciones de trabajo y los efectos del trabajo en su salud mental.

Con su gran cantidad de servicios de Internet, algunos de los cuales han atraído a las bases de usuarios con más de mil millones de personas, Google requiere un ejército de moderadores. Gran parte del contenido enviado para su revisión es benigno e incluso tedioso: eliminar el spam de la plataforma publicitaria de Google, por ejemplo, o eliminar listados fraudulentos de Google Maps. Pero se puede encontrar contenido perturbador en casi todas partes donde Google permite a los usuarios subirlo. En octubre, la compañía informó que, en el último año, había eliminado 160,000 piezas de contenido por contener el extremismo violento de Blogger, Google Photos y Google Drive solo, aproximadamente 438 por día.

Incluso en YouTube, gran parte del contenido revisado por los moderadores es benigno. Cuando no se informan videos en sus colas, los moderadores a menudo permanecen inactivos. Una moderadora de lengua finlandesa me dijo que había pasado dos meses en su trabajo sin nada que hacer durante el día. A lo sumo, se le puede pedir que revise algunos videos y comentarios en un lapso de ocho horas. Me contó que pasó la mayor parte de su día de trabajo navegando por Internet antes de dejar el aburrimiento el mes pasado.

Cada disparo, cada muerte, experimenta como si pudiera ser real

Las experiencias de otros moderadores variaron ampliamente según sus ubicaciones, sus tareas y la relativa empatía de sus gerentes. Varios de ellos me dijeron que en su mayoría disfrutan de su trabajo, ya sea porque encuentran que la tarea de eliminar videos violentos y perturbadores de la búsqueda de Google y YouTube es gratificante o porque las tareas asignadas son simples y les permiten un amplio tiempo durante el día para mirar videos o relajarse.

“En general, los empleados sienten que este es un trabajo muy fácil y no es algo de lo que quejarse”, me dijo en un correo electrónico un moderador de YouTube en India, que gana alrededor de $ 850 al mes. “Generalmente pasamos nuestro bienestar jugando juegos como sillas musicales, charadas tontas, Pictionary, etc. ¡Nos divertimos! ”

“Diversión” no fue una palabra con la que hablé para describir el trabajo de moderación del contenido terrorista. En cambio, hablaron de calambres musculares, comer estrés y, en medio del aumento de los alquileres en Austin, la pobreza progresiva. Hablaron de gerentes que les negaron el tiempo de descanso, los despidieron con pretextos endebles y cambiaron sus turnos sin previo aviso.

Para los trabajadores más afectados por la violencia, expresaron una creciente ansiedad por los efectos secundarios de presenciar docenas o más escenas de asesinatos por día.

“Si digo que no me afectó, es una mentira completa”, dice Tariq, quien ha trabajado en la cola de extremismo violento de Austin durante más de 18 meses. “Lo que ves todos los días … te da forma”.

 

Cuando deja su trabajo en Austin, Peter intenta relajarse. Con el tiempo, esto se ha vuelto más difícil. Las películas de acción que alguna vez disfrutó ya no le parecen ficticias. Cada disparo, cada muerte, la experimenta como si fuera real.

“Incluso si sé que … esto no es cierto”, dice Peter.

Algunos de sus compañeros de trabajo se las arreglan usando drogas, principalmente hierba. Desde que Google contrató a Accenture por primera vez para comenzar a aumentar la cola de VE en Texas, los ha visto a todos retirados.

“Al principio, veías a todos diciendo:” Hola, ¿cómo estás? “, Recuerda Peter. “Todos fueron amigables. Iban a registrarse. Ahora nadie quiere hablar con los demás “.

Se unió al proyecto en 2017, el año en que comenzó. En ese momento, YouTube había sufrido una presión considerable para limpiar la plataforma. Los periodistas y académicos que investigaron el servicio habían encontrado un gran volumen de videos que contenían discursos de odio, acoso, información errónea sobre tiroteos masivos y otras tragedias, y contenido dañino para los niños. (Muchos de esos videos se habían encontrado en YouTube Kids, una aplicación que la compañía había desarrollado en un esfuerzo por dirigir a los niños hacia material más seguro).

En respuesta, la CEO de YouTube, Susan Wojcicki , anunció que la compañía expandiría su fuerza laboral global de moderadores a 10,000 , lo cual hizo. Una fracción de ellos, Google no me dijo cuántos, fueron contratados en los Estados Unidos, con la mayor concentración en Austin.

“Pedíamos cosas y decían: ‘Mira, simplemente no tenemos el presupuesto’. Dicen mucho la palabra ‘presupuesto’”

Los moderadores del contenido del contrato son baratos, por lo que ganan un poco más del salario mínimo en los Estados Unidos. Por el contrario, los empleados de tiempo completo que trabajan en moderación de contenido para la búsqueda de Google podrían ganar $ 90,000 o más después de ser promovidos, sin incluir bonos y subvenciones de acciones. Los trabajadores temporales, los contratistas y los vendedores, los trabajadores a los que Googlers se refieren internamente como TVC, ahora representan el 54 por ciento de la fuerza laboral de la empresa .

Kristie Canegallo, vicepresidenta de confianza y seguridad de Google, supervisa a sus miles de moderadores. Ella me dijo que depender de empresas como Accenture ayuda a Google a ajustar los niveles de personal de manera más eficiente. Si la compañía está desarrollando una nueva herramienta para ayudar a capturar videos malos, es posible que inicialmente necesite más moderadores para ayudar a capacitar al sistema. Pero después, esos moderadores ya no son necesarios.

“Contratar con compañías vendedoras realmente nos ayuda a tener flexibilidad para adaptarnos a las demandas cambiantes”, dice Canegallo, quien se unió a Google en 2018 después de servir como subdirector de personal del presidente Barack Obama.

Al igual que otros grandes actores de la industria, el sitio de Accenture en Austin se basa en el modelo de un centro de llamadas. (A diferencia de Facebook, Google se negó a permitirme visitar cualquiera de sus sitios). Los empleados trabajan en un espacio dedicado conocido como el piso de producción donde trabajan por turnos para procesar informes. El trabajo es crítico para permitir la existencia de YouTube: muchos países han aprobado leyes que requieren legalmente que la compañía elimine videos que contengan material terrorista, algunos de ellos en tan solo 24 horas después de recibir un informe.

 

Daisy encontró perturbador el material terrorista, pero estaba aún más inquieta por lo que Google llama imágenes de abuso sexual infantil (CSAI). La lista de empleos le había prometido que solo revisaría el contenido relacionado con el abuso infantil durante una o dos horas a la semana. Pero en la práctica, era una parte mucho más grande del trabajo.

Es ilegal ver CSAI en la mayoría de los casos, por lo que Google configuró lo que los moderadores llamaron una “sala de guerra” donde podían revisar las solicitudes relacionadas con la explotación infantil sin el riesgo de que otros compañeros de trabajo vieran el material sin darse cuenta. Inicialmente, la compañía estableció una rotación. Daisy podría trabajar en CSAI durante tres semanas, luego tener seis semanas de su trabajo regular. Pero la falta de personal crónica, combinada con una alta rotación entre los moderadores, significaba que tenía que revisar los casos de explotación infantil la mayoría de las semanas, dice.

“Comenzamos a darnos cuenta de que, esencialmente, no éramos una prioridad para la empresa”, dice Daisy de Google. “Pedíamos cosas y decían:” Mira, simplemente no tenemos el presupuesto “. Dirían mucho la palabra” presupuesto “.

( Google reportó $ 110 mil millones en ingresos en 2018 .)

Un año después del trabajo, el entonces novio de Daisy le señaló que su personalidad había comenzado a cambiar. Estás muy nervioso, dijo. Hablas mientras duermes. A veces estás gritando. Sus pesadillas estaban empeorando. Y ella siempre estaba, siempre cansada.

Un compañero de cuarto apareció detrás de ella una vez y suavemente la tocó, y ella instintivamente se dio la vuelta y lo golpeó. “Mi reflejo fue Esta persona está aquí para lastimarme “, dice ella. “Simplemente estaba asociando todo con cosas que había visto”.

“Tuve que sentarme un segundo y exploté llorando”

Un día, Daisy estaba caminando por San Francisco con sus amigos cuando vio a un grupo de niños en edad preescolar. Un cuidador les había pedido que se aferraran a una cuerda para que no se alejaran del grupo.

“Parpadeé una vez, y de repente tuve un destello de algunas de las imágenes que había visto”, dice Daisy. “Niños atados, niños violados a esa edad, tres años. Vi la soga y me imaginé parte del contenido que vi con niños y sogas. Y de repente me detuve, estaba parpadeando mucho y mi amigo tenía que asegurarse de que estaba bien. Tuve que sentarme un segundo y exploté llorando ”.

Fue el primer ataque de pánico que había tenido.

En las siguientes semanas, Daisy se retiró de sus amigos y compañeros de cuarto. No quería hablar demasiado con ellos sobre su trabajo por miedo a abrumarlos con el conocimiento que ahora tenía sobre el mundo. Su trabajo consistía en eliminar este contenido de Internet. Compartirlo con otros se sintió como una traición a su misión.

Google mantuvo un consejero en el personal, pero ella se puso a disposición del equipo de mudanzas legales a intervalos irregulares, y su agenda se llenó rápidamente. Daisy encontró al consejero cálido y comprensivo, pero era difícil tener tiempo con ella. “Te enviarían un correo electrónico diciendo:” Ella viene este día “, y tendrías que registrarte muy rápido porque se llenaría casi de inmediato. Porque todos estaban sintiendo estos efectos “.

Cuando hizo una cita con éxito, el consejero sugirió que Daisy comenzara a ver a un terapeuta privado.

Mientras tanto, Daisy se puso más irritable. Le pidió a la gente de su vida que no la tocara. Cuando una amiga la invitó a la fiesta de cumpleaños de su hija de tres años, Daisy fue pero se fue después de un rato. Cada vez que miraba a los niños, imaginaba a alguien lastimándolos.

A medida que su salud mental disminuía, Daisy luchaba por mantenerse al día con las demandas que se le imponían. Lloraba cada vez más en el trabajo, a veces en el baño, a veces en frente del edificio. Otras veces, se durmió en su escritorio.

 

Hacia el final de ese primer año, su gerente pidió tener una conversación. Se reunieron en una sala de conferencias y el gerente expresó sus preocupaciones. No estás pasando la cola lo suficientemente rápido , dijo. Necesitamos que intensifiques tu juego de productividad .

Estaba cansada cuando él dijo eso, porque siempre estaba cansada, y algo sobre esas palabras – “juego de productividad” – la enfureció. “Acabo de explotar”, dice Daisy.

“¿Cómo quieres que intensifique mi juego de productividad?”, Le dijo a su gerente. “¿Sabes cómo se ve mi cerebro ahora? ¿Entiendes lo que estamos viendo? No somos máquinas. Somos humanos . Tenemos emociones, y esas emociones están profundamente marcadas por mirar a los niños que son violados todo el tiempo, y a las personas que les cortan la cabeza ”.

A veces, cuando pensaba en su trabajo, se imaginaba caminando por un callejón oscuro, rodeada de lo peor de todo lo que veía. Era como si toda la violencia y el abuso hubieran tomado forma física y la hubieran asaltado.

“Todo el mal de la humanidad, solo llueve sobre ti”, dice ella. “Eso es lo que se siente, como si no hubiera escapatoria. Y luego alguien te dijo: ‘Bueno, tienes que volver allí. Solo sigue haciéndolo “.

Unos días más tarde, Daisy le dijo a su gerente que tenía la intención de tomar un permiso médico remunerado para abordar el trauma psicológico del año pasado, uno de varios en su equipo que se había despedido como resultado del trauma emocional sufrido en el trabajo. . Pensó que podría haberse ido unas semanas, tal vez cuatro.

Ella no volvería a Google por seis meses.

 

Los asesinatos llegaban más rápido de lo que la oficina de Austin podía manejar. Incluso con cientos de moderadores trabajando todo el día en turnos, Accenture luchó para mantenerse al día con los videos entrantes de brutalidad. La cola del extremismo violento está dominada por videos de origen del Medio Oriente, y la compañía ha reclutado a docenas de hablantes de árabe desde 2017 para revisarlos.

Muchos de los trabajadores son inmigrantes recientes que anteriormente habían estado trabajando como guardias de seguridad y conductores de reparto y escucharon sobre el trabajo de un amigo.

“Cuando migramos a los EE. UU., Nuestros títulos universitarios no fueron reconocidos”, dice Michael, quien trabajó en el sitio durante casi dos años. “Entonces comenzamos a hacer cualquier cosa. Necesitábamos comenzar a trabajar y ganar dinero ”.

Los trabajadores con los que hablé estaban inicialmente agradecidos por la oportunidad de trabajar para una gran empresa de tecnología como Google. (Mientras que los contratistas técnicamente trabajan para Accenture, Google borra los límites de varias maneras. Entre otras cosas, los contratistas reciben direcciones de correo electrónico de google.com).

“Finalmente estaba trabajando en una oficina”, dice Peter. “Pensé en todas las oportunidades. Pensé en una carrera “.

Pero hasta la orientación, la naturaleza real del trabajo en la cola del extremismo violento permaneció opaca. “No tenía idea de qué era”, dice Peter, “porque no te lo dirán”.

Accenture instruye a los moderadores para que procesen sus 120 videos por día en cinco horas, de acuerdo con los trabajadores con los que hablé, con dos horas por día de tiempo de “bienestar” pagado y un almuerzo no pagado de una hora. (Wojcicki prometió reducir su carga a cuatro horas el año pasado , pero nunca sucedió. Accenture niega establecer cuotas de productividad para los trabajadores). El tiempo de bienestar se reserva para que los trabajadores se descompriman de los rigores del trabajo. dando un paseo afuera, hablando con un consejero en el lugar o jugando con compañeros de trabajo. “Al principio, eran realmente buenos”, dice Michael. “Si ves algo malo, tómate un descanso. Cierra la pantalla y vete. “

La ​​prohibición del teléfono celular ha creado un tipo particular de comedia oscura en la oficina de Austin

Google ofrece a sus contratistas mucho más tiempo de inactividad que Facebook, que les pide a sus moderadores que hagan dos descansos de 15 minutos, un almuerzo de 30 minutos y solo nueve minutos por día de tiempo de bienestar. (Facebook dice que con capacitación y entrenamiento, sus moderadores están viendo el contenido aproximadamente seis horas al día).

“Continuamente revisamos, evaluamos e invertimos en nuestros programas de bienestar para crear un ambiente de trabajo de apoyo”, me dijo Accenture en un comunicado. “Nuestra gente en Austin tiene acceso ilimitado al apoyo de bienestar, que incluye asesoramiento proactivo y bajo demanda que está respaldado por un sólido programa de asistencia a los empleados, y se les alienta a plantear inquietudes de bienestar a través de estos programas”.

Pero si dos horas de tiempo de bienestar por día es lo ideal, en Austin, no es la norma. Cuatro trabajadores me dijeron que se les negaba rutinariamente el recreo cuando la fila de VE estaba particularmente ocupada. A partir de hace unos seis meses, también tuvieron que comenzar a dejar el tiempo de descanso para alcanzar su puntaje de “utilización”, que es una medida del tiempo dedicado activamente a moderar videos durante el día. El software de seguimiento instalado en sus computadoras registra cada minuto de video que miran, con un objetivo de cinco horas. Pero otras tareas de trabajo críticas, como consultar el correo electrónico o participar en reuniones de equipo, no cuentan para ese objetivo, lo que obliga a los empleados a comer regularmente en su tiempo de descanso para compensar la pérdida.

La falsa promesa de tiempo de descanso extendido en Austin es consistente con la imagen general que los trabajadores me han pintado en sitios de moderación de contenido en todo el mundo. Cuando se crean nuevos sitios, los gerentes reúnen a los nuevos empleados en torno a su noble misión: hacer que Internet sea seguro para que todos lo usen. Inicialmente, a los contratistas se les dan libertades que los empleados de tiempo completo en Google, Facebook y otros lugares dan por sentado: la libertad de ir al baño sin pedir permiso, la libertad de comer alimentos en su escritorio, la libertad de programar vacaciones .

“Hay muchas maneras de abusar de ti si no haces lo que les gusta”

A medida que pasan los meses, proveedores como Accenture y Cognizant comienzan a recuperar estas libertades, a menudo con poca explicación. En Austin, estaba prohibido comer en su escritorio. Algunos gerentes comenzaron a preguntar a los empleados por qué pasaban tanto tiempo en el baño. (Se habían ido quizás seis o siete minutos). Inicialmente, a los trabajadores se les permitió llevar teléfonos celulares personales a sus escritorios, pero también perdieron esa libertad, aparentemente por cuestiones de privacidad.

La prohibición de los teléfonos celulares ha creado un tipo particular de comedia oscura en la oficina de Austin. Ciertos servicios de Accenture requieren que los empleados inicien sesión utilizando la autenticación de dos factores, con códigos caducados enviados a los teléfonos de los trabajadores. Dado que Accenture prohibió los teléfonos en la planta de producción, los empleados ahora tienen que correr hacia los casilleros donde se guardan sus teléfonos, luego regresar a sus escritorios para ingresar el código antes de que caduque. Accenture también prohibió los bolígrafos y el papel en los escritorios de los empleados, por lo que los empleados que se preocupan por olvidar su código tienen que garabatearlo rápidamente en sus manos antes de volver a bloquear sus teléfonos y volver a su escritorio. Ahora se ve con frecuencia a los trabajadores corriendo por la oficina con una serie de dígitos garabateados en sus palmas.

Dos empleados en el sitio de Austin me dijeron que se les habían denegado las solicitudes de vacaciones en función del volumen de videos de terrorismo en la cola. Otros fueron transferidos a diferentes turnos con poca o ninguna explicación. Y los moderadores de YouTube no han recibido aumentos en dos años, incluso cuando los alquileres de Austin se encuentran entre los de mayor crecimiento en el país . (Accenture dice que la gran mayoría de sus trabajadores reciben aumentos anuales). Peter me dijo que gasta el 50 por ciento de sus ingresos mensuales en alquiler, y la mayoría del resto se destina a otras facturas. La vida en Austin se está volviendo más cara, dice, pero su salario no ha seguido el mismo ritmo.

“Nos tratan muy mal”, dice Michael. “Hay muchas maneras de abusar de ti si no haces lo que les gusta”.

 

Cuando salió de Google, Daisy comenzó a trabajar con un psiquiatra y un terapeuta. Fue diagnosticada con trastorno de estrés postraumático y ansiedad crónica, y comenzó a tomar antidepresivos.

En terapia, Daisy aprendió que la disminución de la productividad que frustraba a sus gerentes no era su culpa. Su terapeuta había trabajado con otros moderadores de contenido anteriores y le explicó que las personas responden de manera diferente a la exposición repetida a imágenes perturbadoras. Algunos comen en exceso y aumentan de peso. Algunos hacen ejercicio compulsivamente. Algunos, como Daisy, experimentan agotamiento y fatiga.

“Me parece que esto no es un problema usted , es un problema ellos “, le dijo el terapeuta de Daisy, recuerda. “Ellos están a cargo de esto. Crearon este trabajo. Deberían ser capaces de … poner recursos para hacer este trabajo, lo que nunca será fácil, pero al menos minimizar estos efectos tanto como sea posible “.

El terapeuta sugirió que Daisy consiguiera un perro. Ella adoptó una mezcla de border collie / pastor australiano de la SPCA y la llamó Stella después de encontrarse llamando al perro en un brando al estilo Brando . Tomaron un curso juntos en el que Stella se entrenó para convertirse en un animal de apoyo emocional, alerta a los signos de los ataques de pánico de Daisy y experta en tranquilizarla.

Daisy comenzó a llevar a Stella al Hospital de Niños Benioff de la UCSF para visitar a niños enfermos. Con el tiempo, descubrió que podía volver a interactuar con los niños sin provocar un ataque de pánico. “Al ver a un niño como mascota, mi perro tuvo una profunda influencia en cómo avancé con mi relación con los niños”, dice.

Está agradecida de que, a diferencia de un contratista, podría tomarse el tiempo para obtener ayuda mientras aún se le paga. “Tuve esos meses para pensar en mis opciones y pensar en salidas, sin tener que lidiar con el desempleo o tener que lidiar con cómo voy a pagar el alquiler”, dice ella.

Medio año después de dejar Google, Daisy regresó a su trabajo. Para su consternación, descubrió que había cambiado poco sobre el enfoque de sus gerentes.

“Me vigilaron”, dice ella. “Dijeron:‘ ¿Cómo van las cosas? ¿Como te sientes? Comenzaremos lentamente. “Pero el juego final seguía siendo el mismo, que era para volver a alcanzar su productividad”.

Una semana después de regresar, decidió postularse a la escuela de posgrado. Fue aceptada en la Facultad de Derecho y Diplomacia Fletcher de la Universidad de Tufts y, a principios de este año, obtuvo una maestría. Hoy es investigadora de políticas en el R Street Institute, un grupo de expertos no partidista. Se enfoca en los niños y la tecnología, aprovechando su tiempo en Google para informar a los legisladores sobre la privacidad infantil, la explotación infantil y la moderación de contenido.

“Voy a usar todo esto para alimentar mi deseo de hacer un cambio”, dice Daisy.

En Austin, cuando Accenture puso en práctica varias restricciones nuevas en el lugar de trabajo, algunos comenzaron a bromear entre sí para experimentarlos. “Eres solo una rata”, dice Peter. “Intentan cosas nuevas contigo”.

Para un pequeño grupo de contratistas, esto es cierto literalmente. A principios de este año, Google presentó un documento en la Conferencia sobre Computación Humana y Crowdsourcing. El documento, “Prueba de intervenciones estilísticas para reducir el impacto emocional de los trabajadores de moderación de contenido”, describió dos experimentos que la compañía había realizado con sus moderadores de contenido. En uno, la compañía configuró todos los videos para mostrarlos en escala de grises, contenido perturbador en blanco y negro, en lugar de color. En el otro, borraba el contenido por defecto.

Los investigadores estaban interesados ​​en saber si la transformación de videos e imágenes puede disminuir el impacto emocional que tienen en los moderadores.

“Parte de nuestra responsabilidad y nuestro compromiso con todos los miembros de nuestro equipo que están mirando este contenido para obtener el mejor apoyo posible para hacer su trabajo”, me dijo Canegallo. Lo que Google aprenda sobre la mejora de las condiciones para sus trabajadores, lo compartirá con la industria, dijo.

La herramienta en escala de grises se puso a disposición de 76 moderadores, que habían optado por el estudio. Los moderadores pasaron dos semanas mirando la cola normal y coloreada y luego respondieron un cuestionario sobre su estado de ánimo. Pasaron las siguientes dos semanas mirando una cola en escala de grises y luego volvieron a tomar el cuestionario.

El estudio encontró que la presentación de videos en escala de grises llevó a los revisores a reportar estados de ánimo significativamente mejorados, al menos durante esa semana.

Los investigadores de Google han sugerido futuros estudios que examinen el impacto emocional en los moderadores de cambiar el color de la sangre a verde

Es igualmente notable lo que la compañía no está probando: limitar la cantidad de contenido perturbador al que los moderadores individuales pueden estar expuestos en la vida; licencia médica pagada para contratistas que desarrollan TEPT; y ofreciendo apoyo a ex empleados que continúan luchando con problemas de salud mental a largo plazo después de dejar el trabajo.

En cambio, Google está haciendo lo que a menudo hacen las empresas de tecnología: intentar aplicar soluciones tecnológicas al problema. La compañía está construyendo sistemas de aprendizaje automático que los ejecutivos esperan que algún día manejen la mayor parte del trabajo. Mientras tanto, los investigadores de Google han sugerido futuros estudios que examinen el impacto emocional en los moderadores de cambiar el color de la sangre a verde, otras “transformaciones artísticas” de contenido y un desenfoque más selectivo de rostros, por ejemplo. (Facebook ya ha implementado opciones de escala de grises y borrosidad para sus moderadores, junto con una opción para silenciar el sonido en los videos de forma predeterminada).

Pero las empresas saben desde hace años que los empleados buscan licencia médica para lidiar con traumas relacionados con el trabajo. Es sorprendente que una empresa con recursos tan grandes como Google esté comenzando a incursionar en estas intervenciones menores basadas en la tecnología, años después de que los empleados comenzaron a informar los diagnósticos de TEPT a sus gerentes.

 

Ahora llevamos dos años en una gran expansión de la industria de moderación de contenido. A medida que los gobiernos de todo el mundo exigen más a las empresas tecnológicas para vigilar sus servicios, decenas de miles de personas se han inscrito para el trabajo. La necesidad de moderadores parece estar expandiéndose incluso cuando algunos proveedores están reevaluando su capacidad para hacer el trabajo. En octubre, Cognizant anunció que saldría del negocio durante el próximo año.

Al mismo tiempo, todavía carecemos de una comprensión básica de cómo los aspectos más difíciles de este trabajo, eliminar el contenido gráfico y perturbador, afectan a las personas que lo hacen. Sabemos que un subconjunto de personas que trabajan en la cola de extremismo violento de YouTube y roles similares en todo el mundo desarrollarán TEPT y condiciones relacionadas en el trabajo. No sabemos qué nivel de exposición podría ser seguro.

Los ejecutivos de las empresas de tecnología tienden a describirme este problema como un problema de reclutamiento. En su opinión, hay trabajadores que son resistentes a la violencia y el abuso sin fin, y aquellos que no lo son.

Pero en mis conversaciones de este año con más de 100 moderadores en empresas de todos los tamaños, parece claro que la seguridad del moderador de contenido no es un problema binario. Algunos trabajadores desarrollan síntomas tempranos de TEPT durante sus primeras semanas en el trabajo. Otros los desarrollan después de hacer el trabajo durante años.

Nunca sabes cuándo vas a ver lo que no puedes ver hasta que lo veas.

En última instancia, no puedo decirlo con más claridad que los propios investigadores de Google: “Existe … una creciente conciencia y reconocimiento de que, más allá de la mera incomodidad, la visualización a largo plazo o extensa de contenido tan perturbador puede tener consecuencias significativas para la salud de los involucrados en tales tareas “.

Y, sin embargo, en Google, como en Facebook, se desalienta a los trabajadores de discutir esas consecuencias. Los gerentes que les advierten que pueden ser reemplazados fácilmente, junto con los acuerdos de confidencialidad que se ven obligados a firmar al tomar el trabajo, continúan oscureciendo su trabajo.

Y a medida que una parte de ellos se hunde en la ansiedad y la depresión, recibirán atención muy diferente en función de si trabajan como empleados de pleno derecho o como contratistas. Unos pocos, como Daisy, podrán tomar meses de licencia médica pagada. Otros, como una persona con la que hablé en Austin, continuarán trabajando hasta que sean hospitalizados.

Aún así, el hecho sigue siendo: no importa qué tan bien le paguen o qué tan buenos sean los beneficios, ser un moderador de contenido puede cambiarlo para siempre.

Recientemente, un empleado de una de las grandes compañías tecnológicas me explicó el concepto de “daños tóxicos”, leyes que permiten a las personas demandar a empleadores y constructores de viviendas si exponen al demandante a niveles no saludables de un químico peligroso. Estas leyes son posibles porque tenemos una comprensión científica de cómo ciertos químicos afectan el cuerpo. Sabemos que la exposición a la pintura a base de plomo, por ejemplo, puede causar daño cerebral, especialmente en niños. Sabemos que la exposición al asbesto puede causar cáncer de pulmón. Y así, establecemos un nivel seguro de exposición e intentamos mantener a los empleadores y constructores de viviendas a esos niveles.

Tal vez nunca podamos determinar un nivel seguro de exposición a contenido perturbador con el mismo grado de precisión. Pero parece notable que ninguno de los gigantes tecnológicos, que emplean a decenas de miles de personas para hacer este trabajo, lo estén intentando.

Si eso va a cambiar, será debido a una combinación de acción colectiva de los trabajadores, demandas colectivas y presión pública. Los empleados de Google lideran la industria en la defensa de los derechos de sus colegas contratistas, y espero que el trabajo continúe.

A dos años de su tiempo en Google, Daisy todavía lidia con los efectos secundarios del trabajo que hizo allí. Todavía tiene ataques de pánico ocasionales y toma antidepresivos para estabilizar su estado de ánimo.

Al mismo tiempo, me dijo que está agradecida por el hecho de que pudo tomar un permiso médico remunerado para comenzar a abordar los efectos del trabajo. Ella se considera una de las afortunadas.

“Necesitamos tanta gente como podamos para hacer este trabajo”, dice Daisy. “Pero también necesitamos cambiar el sistema general y la estructura general de cómo se está haciendo este trabajo. Cómo apoyamos a estas personas. Cómo les damos herramientas y recursos para lidiar con estas cosas. O bien, estos problemas solo empeorarán ”.

 

Casey Newton


Tatiana Vazquez. Tatiana Vázquez es escritora de Noyola Magazine especializada en inversiones y startups emergentes.

Related Posts