Google decide dejar de entrenar IA usando las caras de personas sin hogar

Google ha anunciado que pondrá fin a un controvertido programa dirigido a personas negras sin hogar y escaneó sus rostros para crear datos de entrenamiento de IA a cambio de tarjetas de regalo de $ 5.

Reparando IA

Google ha anunciado que está poniendo fin a un controvertido programa que apuntó a personas negras sin hogar y escaneó sus caras para crear datos de entrenamiento de IA a cambio de tarjetas de regalo de $ 5 miserables .

Después de una investigación interna provocada por los informes de noticias sobre la práctica, Google dice que ya no está enviando contratistas externos para recopilar escáneres faciales, según New York Daily News [ 19459005]. En cambio, reunirá caras exclusivamente dentro de los campus de Google. Pero, extrañamente, un portavoz de Google todavía defiende el programa ahora cancelado.

Problema de diversidad

El objetivo original era adquirir escáneres faciales de personas de piel oscura para que Google pudiera presentar sus algoritmos de reconocimiento facial con un conjunto más diverso de datos de entrenamiento, problema dentro de AI que ha llevado a sesgo algorítmico generalizado contra los negros y otras minorías raciales.

Con ese fin, un portavoz de Google dijo a NY Daily News que el programa era “importante y necesario”.

Operaciones encubiertas

Los contratistas de Google dijeron NY Daily News que se sintieron presionados para reunir tantas caras como sea posible, a menudo sintiendo la necesidad de apresurar a las personas a través de sus formularios de consentimiento. Según los informes, algunos ingresaron a campus universitarios vestidos con ropa informal, escaneando las caras de los estudiantes y diciéndoles muy poco sobre para qué se utilizarían los datos.

“En adelante, el trabajo se realizará solo en los sitios de Google, para garantizar que tengamos un mejor control sobre la investigación y las interacciones con los participantes”, dijo el portavoz de la compañía.

LEER MÁS: Google admite que su proyecto de escaneo facial ‘piel oscura’ violó la política interna, lo que llevó a la revisión de la recopilación de datos después de la exposición Daily News [ Nuevo York Daily News ]

Más sobre IA: Los contratistas de Google engañaron a las personas negras sin hogar en escaneos faciales

Post Anterior

Bunq lanza una tarjeta de metal y planta un árbol por cada €100 gastados

Siguiente Post

Las malas implementaciones de RCS están creando grandes vulnerabilidades

Posts Relacionados