La tecnología de detección facial que Amazon comercializa para el cumplimiento de la ley a menudo identifica erróneamente a las mujeres, en particular a las de piel más oscura, según investigadores del MIT y la Universidad de Toronto.
Los defensores de la privacidad y los derechos civiles han pedido a Amazon que deje de comercializar su servicio de reconocimiento debido a las preocupaciones sobre la discriminación contra las minorías. Algunos inversionistas de Amazon también han pedido a la compañía que se detenga por temor a que Amazon sea vulnerable a las demandas.
Los investigadores dijeron que en sus pruebas, la tecnología de Amazon clasificaba a las mujeres de piel oscura como hombres el 31 por ciento de las veces. Las mujeres de piel más clara se identificaron erróneamente el 7 por ciento de las veces. Los hombres de piel más oscura tenían una tasa de error del 1%, mientras que los hombres de piel más clara no tenían ninguna.
La inteligencia artificial puede imitar los prejuicios de sus creadores humanos a medida que avanzan en la vida cotidiana. El nuevo estudio, publicado el jueves por la noche, advierte sobre el potencial de abuso y amenazas a la privacidad y las libertades civiles de la tecnología de detección facial.
Matt Wood, gerente general de inteligencia artificial de la unidad de computación en la nube de Amazon, dijo que el estudio utiliza un “análisis facial” y no una tecnología de “reconocimiento facial”. Wood dijo que el análisis facial “puede detectar rostros en videos o imágenes y asignar atributos genéricos, como usar lentes; El reconocimiento es una técnica diferente mediante la cual una cara individual se combina con caras en videos e imágenes “.
En un post publicado el viernes en el sitio web de Medium, la investigadora del MIT Media Lab, Joy Buolamwini, respondió que las empresas deberían revisar todos los sistemas que analizan rostros humanos en busca de sesgos.
“Si usted vende un sistema que ha demostrado tener sesgo en rostros humanos, es dudoso que sus otros productos basados en el rostro también estén completamente libres de sesgos”, escribió.
La reacción de Amazon muestra que no se toma en serio las “preocupaciones realmente graves reveladas por este estudio”, dijo Jacob Snow, un abogado de la American Civil Liberties Union.
Buolamwini e Inioluwa Deborah Raji, de la Universidad de Toronto, dijeron que estudiaron la tecnología de Amazon porque la compañía la ha comercializado para hacer cumplir la ley. La cuenta de Raji en LinkedIn dice que actualmente es investigadora de inteligencia artificial en Google, que compite con Amazon para ofrecer servicios de computación en la nube.
Buolamwini y Raji dicen que Microsoft e IBM han mejorado su tecnología de reconocimiento facial desde que los investigadores descubrieron problemas similares en un estudio de mayo de 2017. Su segundo estudio, que incluyó a Amazon, se realizó en agosto de 2018. Su documento se presentará el lunes en una conferencia de inteligencia artificial en Honolulu.
Wood dijo que Amazon ha actualizado su tecnología desde el estudio y realizó su propio análisis con “cero coincidencias de falsos positivos”.
El sitio web de Amazon acredita a Rekognition por ayudar a la Oficina del Sheriff del Condado de Washington en Oregon a acelerar el tiempo que tomó identificar a los sospechosos entre cientos de miles de registros fotográficos.
Fuente: Panorama