A partir de hoy, Instagram comenzará a advertir a los usuarios cuando estén a punto de publicar una leyenda “potencialmente ofensiva” para una foto o video que se está cargando en su feed principal, anunció la compañía . Si un usuario de Instagram publica algo que las herramientas impulsadas por IA del servicio piensan que podría ser dañino, la aplicación generará una notificación para decir que el subtítulo “se parece a otros que se han informado”. Luego alentará al usuario a editar el subtítulo. , pero también les dará la opción de publicarlo sin cambios.
La nueva característica se basa en una herramienta similar impulsada por IA que Instagram presentó para comentarios en julio . La compañía dice que empujar a las personas para que reconsideren la publicación de comentarios potencialmente dañinos ha tenido resultados “prometedores” en la lucha de la compañía contra el acoso en línea.
Esta es solo la última de una serie de medidas que Instagram ha estado tomando para abordar el acoso escolar en su plataforma. En octubre, el servicio lanzó una nueva función de “Restringir” que permite a los usuarios prohibir sus bullies, y el año pasado, comenzó a usar AI para filtrar comentarios ofensivos y detectar de forma proactiva intimidación en fotos y subtítulos .
A diferencia de sus otras herramientas de moderación, la diferencia aquí es que Instagram depende de los usuarios para detectar cuando uno de sus comentarios cruza la línea. Es poco probable que detenga a los matones más decididos de la plataforma, pero es de esperar que tenga la oportunidad de proteger a las personas de los insultos irreflexivos.
Instagram dice que la nueva característica se está implementando en “países seleccionados” por ahora, pero se expandirá globalmente en los próximos meses.
—
Jon Porter