La semana pasada, el estado australiano de Nueva Gales del Sur anunció un plan para tomar medidas enérgicas contra los conductores que usan sus teléfonos en la carretera. La agencia de transporte del estado dijo que había integrado la visión artificial en las cámaras de carretera para detectar a los delincuentes. La IA marca automáticamente a los sospechosos, los humanos confirman lo que está sucediendo y se envía una carta de advertencia al conductor.
“Es un sistema para cambiar la cultura”, dijo el comisionado de policía asistente de Nueva Gales del Sur, Michael Corboy, a los medios de comunicación australianos, y señaló que la policía esperaba que la tecnología redujera las muertes en la carretera en un tercio en dos años.
La vigilancia de la IA se está arrastrando lentamente en las sociedades de todo el mundo
Parece un esquema admirable, de arriba abajo. La ofensa es clara, el resultado deseado es impecable, e incluso hay un humano en el circuito para evitar que las máquinas cometan errores.
Pero también demuestra el lento avance de la inteligencia artificial en la vigilancia estatal y corporativa, una tendencia que según los expertos podría conducir a algunos lugares oscuros: derechos civiles escalofriantes, prejuicios y prejuicios automáticos, y empujar a la sociedad lentamente hacia el autoritarismo.
En este momento, la IA se aprovecha principalmente en el mundo de la vigilancia para identificar a las personas. Las historias de terror de Xinjiang en China son bien conocidas, con redes de cámaras de reconocimiento facial utilizadas para rastrear a la minoría reprimida uigur de la región. En el Reino Unido, donde hay una cámara de vigilancia por cada diez ciudadanos, las empresas privadas han comenzado a utilizar la tecnología a una escala mucho menor para automatizar las listas de vigilancia ; detectar tanto a los alborotadores conocidos como a los clientes VIP cuando entran a una tienda. Y en los Estados Unidos, el equipo de Amazon detrás de la popular cámara de vigilancia Ring de la compañía planeó crear listas de vigilancia similares para vecindarios individuales, aunque finalmente desecharon los planes.
Pero como muestran las cámaras de carretera de Nueva Gales del Sur, identificar a las personas es solo el comienzo de la vigilancia de la IA: el poder real, y la amenaza, es identificar acciones . Esto significa crear cámaras que no solo te digan quiénes son las personas, sino lo que están haciendo. ¿Esa persona está moviendo cosas? ¿Podrían estar robando algo? ¿Están merodeando de una manera que no te gusta?
Este tipo de características aún no están muy extendidas, pero comienzan a filtrarse en el uso diario.
Imágenes de una cámara de vigilancia de IA en Japón entrenadas para detectar ladrones de tiendas.
En Japón, por ejemplo, puedes comprar una cámara de vigilancia de IA que, según se afirma, puede detectar automáticamente ladrones de tiendas . (Una característica que no es funcionalmente diferente a las tiendas Go de Amazon, que utilizan la visión artificial para cobrar automáticamente a los clientes por los artículos que agarran de los estantes). En los Estados Unidos, una empresa está construyendo “ Google para CCTV “, que aprovecha el aprendizaje automático para permitir a los usuarios buscar material de vigilancia para tipos específicos de ropa o automóviles. En India, los investigadores dicen que incluso han creado software que puede cargarse en drones para detectar automáticamente peleas en la calle .
Dichas aplicaciones a menudo son tratadas con sospecha por expertos en IA. Con el sistema de drones, por ejemplo, los investigadores han señalado que el software tenía tasas de precisión cuestionables y es probable que señale falsamente los incidentes. Al igual que con otros ejemplos de sesgo algorítmico, los expertos dicen que si los sistemas se alimentan de datos que se inclinan hacia ciertos grupos de personas o etnias, esto se hará evidente en los resultados del software.
“Queremos que las personas no solo sean libres, sino que se sientan libres”.
Sin embargo, es probable que problemas como estos no impidan que las empresas privadas y los gobiernos adopten la tecnología. Los sistemas algorítmicos sesgados ya están en uso en sectores como la sanidad y la justicia penal, y la vigilancia probablemente no sería diferente. El efecto final podría ser una sociedad más estrictamente controlada y represiva.
Como dijo Jay Stanley, un analista de políticas senior The Verge el año pasado : “Queremos que las personas no solo sean libres, sino que se sientan libres. Y eso significa que no tienen que preocuparse por cómo una audiencia desconocida e invisible puede estar interpretando o malinterpretando cada uno de sus movimientos y expresiones … La preocupación es que las personas comenzarán a monitorearse a sí mismas constantemente, preocupándose de que todo lo que hagan será malinterpretado y derribar las consecuencias negativas en su vida “.