La IA es parcial. Así es como los científicos están tratando de arreglarlo

Las computadoras han aprendido a ver el mundo más claramente en los últimos años, gracias a algunos saltos impresionantes en inteligencia artificial . Pero es posible que se sorprenda (y se enoje) al saber lo que estos algoritmos de IA realmente piensan de usted. Como demostró un experimento reciente , el mejor sistema de visión de IA podría ver una imagen de su cara y escupir un insulto racial, un estereotipo de género o un término que impugne su buen carácter.

Ahora los científicos que ayudaron a enseñar a las máquinas a ver han eliminado algunos de los prejuicios humanos que acechan en los datos que utilizaron durante las lecciones. Los cambios pueden ayudar a AI a ver las cosas de manera más justa, dicen. Pero el esfuerzo muestra que eliminar el sesgo de los sistemas de IA sigue siendo difícil, en parte porque todavía dependen de los humanos para entrenarlos. “Cuando profundizas, hay muchas cosas que deben considerarse”, dice Olga Russakovsky , profesora asistente en Princeton involucrada en el esfuerzo.

El proyecto es parte de un esfuerzo más amplio para curar sistemas automatizados de prejuicios y prejuicios ocultos. Es un problema crucial porque la IA se está implementando muy rápidamente y de manera que puede tener serios impactos. Se ha identificado un sesgo en sistemas de reconocimiento facial , programas de contratación y los algoritmos detrás de las búsquedas web . Los sistemas de visión se están adoptando en áreas críticas como la policía, donde el sesgo puede hacer que los sistemas de vigilancia sean más propensos a identificar erróneamente a las minorías como delincuentes.

En 2012, un proyecto llamado ImageNet jugó un papel clave en el desbloqueo del potencial de la IA al dar a los desarrolladores una gran biblioteca para entrenar computadoras para reconocer conceptos visuales, desde flores hasta snowboarders. Los científicos de Stanford, Princeton y la Universidad de Carolina del Norte pagaron pequeñas sumas de Mechanical Turkers para etiquetar más de 14 millones de imágenes, acumulando gradualmente un vasto conjunto de datos que liberaron de forma gratuita.

Cuando este conjunto de datos fue alimentado a una gran red neuronal, creó un sistema de reconocimiento de imágenes capaz de identificar cosas con sorprendente precisión. El algoritmo aprendió de muchos ejemplos para identificar los patrones que revelan conceptos de alto nivel, como los píxeles que constituyen la textura y la forma de los cachorros. Un concurso lanzado para probar algoritmos desarrollados usando ImageNet muestra que los mejores algoritmos de aprendizaje profundo clasifican correctamente las imágenes, así como las de una persona. El éxito de los sistemas construidos en ImageNet ayudó a desencadenar una ola de entusiasmo e inversión en inteligencia artificial y, junto con el progreso en otras áreas, introdujo nuevas tecnologías como cámaras avanzadas para teléfonos inteligentes y vehículos automatizados.

Pero en los años posteriores, otros investigadores han encontrado problemas al acecho en los datos de ImageNet. Un algoritmo entrenado con los datos podría, por ejemplo, suponer que los programadores son hombres blancos porque el conjunto de imágenes etiquetadas como “programador” estaban sesgadas de esa manera. Un proyecto web viral reciente, llamado Excavating AI , también destacó prejuicios en las etiquetas agregadas a ImageNet , desde “radiólogo” y “titiritero” hasta insultos raciales como “negro” y “Gook”. A través del sitio web del proyecto (ahora desconectado), las personas pueden enviar una foto y ver los términos que acechan en el modelo de IA entrenado utilizando el conjunto de datos. Esto existe porque la persona que agrega etiquetas podría haber agregado un término despectivo o cargado además de una etiqueta como “maestra” o “mujer”.

El equipo de ImageNet analizó su conjunto de datos para descubrir estas y otras fuentes de sesgo. , y luego tomó medidas para abordarlos. Usaron crowdsourcing para identificar y eliminar palabras despectivas. También identificaron términos que proyectan el significado en una imagen, por ejemplo, “filántropo”, y recomendaron excluir los términos del entrenamiento de IA.

El equipo también evaluó la diversidad demográfica y geográfica en las fotos de ImageNet y desarrolló una herramienta para mostrar imágenes más diversas. Por ejemplo, normalmente, el término “programador” podría producir muchas fotos de hombres blancos frente a las computadoras. Pero con la nueva herramienta, que el grupo planea lanzar en los próximos meses, se puede generar y utilizar un subconjunto de imágenes que muestra una mayor diversidad en términos de género, raza y edad para entrenar un algoritmo de IA.


Will Knight
Escritor senior de WIRED, que cubre inteligencia artificial. Anteriormente fue editor senior en MIT Technology Review, donde escribió sobre los avances fundamentales en IA y el auge de la IA en China. Antes de eso, fue editor y escritor en New Scientist.