YouTube afirma que su ofensiva contra el contenido “límite” si está trabajando

Pero no comparte ningún número real

Después de hacer cambios a su algoritmo de recomendación en un esfuerzo por reducir la propagación del contenido “límite” – videos que marcan la línea entre lo que es aceptable y lo que viola los términos de servicio de YouTube – YouTube ha visto un 70 Porcentaje de disminución en el tiempo de reproducción de esos tipos de videos por parte de no suscriptores.

Se han realizado más de 30 cambios en la forma en que se recomiendan los videos desde enero de 2019, según una nueva publicación de blog de YouTube que describe cómo la compañía está tratando de abordar el contenido límite. YouTube no dice exactamente qué ha cambiado, ni la publicación del blog describe cuántos videos se recomendaron antes y después de que se implementaron los cambios. En cambio, la nueva publicación de blog de YouTube describe cómo los moderadores externos siguen criterios específicos para determinar si un video marcado está en el límite. Esa información se utiliza para informar las herramientas de aprendizaje automático en las que YouTube se basa para vigilar la plataforma.

“Cada video evaluado recibe hasta nueve opiniones diferentes y algunas áreas críticas requieren expertos certificados”, se lee en la publicación del blog. “Por ejemplo, los médicos brindan orientación sobre la validez de los videos sobre tratamientos médicos específicos para limitar la propagación de información médica errónea. Según el aporte de consenso de los evaluadores, utilizamos sistemas de aprendizaje automático bien probados para construir modelos ”.

Se han realizado más de 30 cambios en la forma en que se recomiendan los videos desde enero de 2019

Algunos de los criterios que analizan los moderadores se demostraron en una entrevista reciente con la directora ejecutiva de YouTube, Susan Wojcicki, en 60 minutos . Wojcicki guió a la periodista Lesley Stahl a través de un par de videos que podrían ser contenidos límite. Un video considerado por Wojcicki como violento se enfocó en prisioneros sirios, pero se le permitió permanecer despierto porque fue subido por un grupo que intentaba exponer problemas en el país. Otro video usó imágenes de la Segunda Guerra Mundial y, aunque muchos pueden verlo como aceptable para el contexto histórico, Wojcicki mostró cómo podría ser utilizado por grupos de odio para difundir la retórica de la supremacía blanca. Fue prohibido.

YouTube cambió recientemente sus políticas de odio para abordar temas como el nacionalismo blanco, que ahora se considera una violación de los términos de servicio de YouTube . La gente podría creer eso al declarar que cualquier declaración de supremacía podría resultar en una prohibición. Eso no es necesariamente cierto. Cuando Stahl lo presionó sobre el tema, Wojcicki defendió la postura de YouTube de que el contenido de un video se juzga según el contexto, y agregó que si un video simplemente dijera “los blancos son superiores” sin otro contexto, sería aceptable.

“Nada es más importante para nosotros que garantizar que estamos cumpliendo con nuestra responsabilidad”, agrega la publicación del blog. “Seguimos enfocados en mantener ese delicado equilibrio que permite que florezcan diversas voces en YouTube, incluidas aquellas con las que otros no estarán de acuerdo, al tiempo que protegemos a los espectadores, creadores y al ecosistema más amplio del contenido dañino”.

“Nada es más importante para nosotros que garantizar que estamos cumpliendo con nuestra responsabilidad”

Parte de la forma en que YouTube aborda el problema está surgiendo fuentes más autorizadas para temas como “noticias, ciencia y eventos históricos, donde la precisión y la autoridad son clave”. Los equipos de YouTube están tratando de hacerlo abordando tres problemas diferentes pero relacionados : surgiendo fuentes más autorizadas como The Guardian y NBC al buscar temas de noticias, proporcionando información más confiable durante eventos de última hora y proporcionando contexto adicional a los usuarios al lado de los videos.

Eso significa que cuando se buscan temas como “Brexit” o “anti-vacunación”, los mejores resultados deben mostrar videos de fuentes de noticias confiables y autorizadas, incluso si la tasa de participación es menor que en otros videos que cubren el tema. Al hacer esto durante eventos de noticias de última hora como tiroteos masivos o ataques terroristas, YouTube “ha visto que el consumo en los canales de socios autorizados de noticias ha crecido en un 60 por ciento”

Es bueno ver a YouTube luchando contra este tipo de contenido problemático. El problema es que no está claro en esta nueva publicación de blog, o en cualquier otra entrevista pública que Wojcicki y los ejecutivos hayan dado, a qué se traducen esos números en general. Es importante una disminución del 70 por ciento en las personas que miran contenido límite de canales a los que no están suscritos; reconoce el efecto de la madriguera del conejo que periodistas, académicos y ex ingenieros de YouTube han citado durante años. La pregunta sigue siendo si eso todavía se traduce en un número sustancial de horas de visualización. La publicación de blog de YouTube no dice.

“El contenido que se acerca, pero no cruza la línea, de violar nuestras Normas de la comunidad es una fracción del 1 por ciento de lo que se ve en YouTube en los Estados Unidos”, se lee en la publicación del blog.

Hay 500 horas de contenido subidas cada minuto a YouTube . Eso es 720,000 horas de contenido todos los días. Llevaría 30,000 días ver cada video cargado en solo un día en YouTube. Es un montón de videos, muchos de los cuales se ven en los Estados Unidos. Una disminución en las personas que miran contenido límite es buena, pero hasta que YouTube publique números específicos, es difícil evaluar lo que realmente significa.

 


Tatiana Vazquez. Tatiana Vázquez es escritora de Noyola Magazine especializada en inversiones y startups emergentes.

Related Posts