Una de nuestras grandes batallas actuales como sociedad es la de eliminar la brecha de género existente en distintos ámbitos. En el caso específico de las tecnologías de la información, estamos luchando porque haya un equilibrio en el número de mujeres que participan del sector. Sin embargo, hemos desatendido este problema por tantos años que ahora tenemos la amenaza que se transfiera al ámbito digital. Al respecto, una de las grandes discusiones éticas en torno a la Inteligencia Artificial (IA) consiste en que los humanos transferimos nuestros sesgos ideológicos y prejuicios a los algoritmos que sustentan dicha tecnología, sesgos raciales, de género y otros más.
Recordemos que uno de los insumos más importantes para la AI es la información del mundo real y digital obtenida a través de sensores o de objetos conectados a internet. El objetivo es que, a través de algoritmos que analizan dicha información, las máquinas den respuestas, aprendan y se adapten de la manera en que los humanos lo hacemos, esto incluye nuestros prejuicios, tendencias, preferencias y otros sesgos. La UNESCO ha puesto el dedo en el renglón: Los asistentes digitales de las grandes empresas tecnológicas son proyectados como mujeres. La historia no acaba ahí ya que, incluso, promueven los sesgos de género, normalizan el abuso verbal y el acoso, modelan la forma en que una mujer debe responder ante peticiones, entre otros aspectos que son propios de una cultura que promueve las brechas de género.
Algunos de estos asistentes tienen nombres que se identifican como femeninos y cuentan con voces suaves y serviciales. De hecho, la UNESCO le dio nombre a su estudio sobre sesgos de género en la IA (I’d blush if I could) con base en una respuesta que daba Siri, el asistente de Apple, al recibir el mensaje “Hey, Siri, you are a bi**”.
Otros sistemas de IA replican estos estereotipos y no sólo se centran en el sesgo de género, también en aspectos raciales. De acuerdo con Joey Buolamini, fundadora del Algorithmic Justice League, iniciativa dedicada a investigar la existencia de sesgos en algoritmos y prácticas discriminatorias, muchos de los sistemas de IA comercializados, al ser puestos a identificar el género con base en imágenes del rostro de diversas personas. Estos sistemas tienden a equivocarse con mayor probabilidad cuando intentan identificar el rostro de mujeres de piel oscura, incluso, fallaron al ubicar a Oprah Winfrey y Michelle Obama.
Es muy probable que la enorme participación de hombres, respecto a las mujeres, en el desarrollo de estos algoritmos sea una de las razones por las que nuestros servicios de IA conlleven estos sesgos. En México, en el ciclo escolar 2017-2018, se registró una proporción de 29% de mujeres estudiando posgrados TIC, esto tan sólo es un reflejo de la predominancia de los hombres en el desarrollo de algoritmos y de los sesgos de género que eso puede conllevar.
Es imperante atender este problema que se empieza a gestar antes de que sea demasiado tarde y terminemos heredando a nuestros hijos, y próximas generaciones, nuestros sesgos de género, pero ahora en el ámbito digital.
Fuente: Heraldo de Mexico