El Congreso de Tecnologías de Consumo, que se lleva a cabo en el marco del Consumer Electronics Show (CES) dedicó buena parte de su programación a la Inteligencia Artificial (IA). Durante todo un día de los cinco que duró el congreso, se llevaron a cabo mesas en las que se discutieron los mitos y realidades que rodean a esta tecnología; el impacto económico que tiene y tendrá en los próximos años; así como los riesgos que supone su utilización.
En este último rubro, los sesgos que pueden generar los conjuntos de datos utilizados y los algoritmos que alimentan fue uno de los temas más recurrentes de las discusiones alrededor de la Inteligencia Artificial que se dieron en el CES 2020, la feria de tecnologías de consumo más grande del planeta, que se llevó a cabo del 7 al 10 de enero, en las Vegas, Nevada.
Aunque el término sesgo, que pertenece sobre todo al lenguaje de la estadística y las matemáticas, abarca ahora muchos significados, básicamente se trata de una desviación consistente de las decisiones de un sistema por errores u omisiones en las instrucciones que sigue o en la información que utiliza para generar resultados.
Los sesgos pueden afectar directamente a una o varias poblaciones vulnerables, sobre todo aquellas que o bien son minoría o que han sido sistemáticamente excluidas de muchas de las actividades de la sociedad.
Los creadores de algoritmos de Inteligencia Artificial y las empresas, universidades y organizaciones que los respaldan tienen a la mano distintos marcos de referencia sobre el desarrollo ético de esta tecnología. Un ejemplo son los 10 principios de la Declaración de Montreal para el desarrollo responsable de Inteligencia Artificial, entre cuyos objetivos está el “desarrollar un marco ético para el desarrollo y despliegue de la Inteligencia Artificial”.
Estos 10 principios incluyen los de equidad, de inclusión y de diversidad, tres conceptos que se ven alterados cuando un sesgo pasa inadvertido en el proceso de toma de decisiones de un sistema de IA.
Bernard Coleman, director global de Inclusión de Uber, expuso el fenómeno de sesgo racial en un sistema automatizado con un ejemplo sumamente sencillo: un despachador de jabón.
Coleman planteó un escenario en el que una persona de piel blanca no tenía problemas al momento de pasar su mano por debajo de un despachador de jabón cuya operación estaba automatizada. No obstante, el mismo sistema era incapaz de detectar la mano de una persona de piel más oscura.
Si bien este ejemplo no tiene mucho que ver con algoritmos de Inteligencia Artificial, explica a la perfección el hecho de que un sensor (datos) y las instrucciones (algoritmos) para que este sea el detonante de algo tan sencillo como despachar un poco de jabón conlleva un riesgo de sesgo racial.
El impacto se recrudece cuando el sesgo impide a uno o varios segmentos de la población acceder a derechos como el trabajo o la salud o a necesidades, como el financiamiento, en el caso de un emprendedor.
Para Elizabeth Gore, presidenta y cofundadora de Alice, una plataforma de Inteligencia Artificial que ayuda a pequeños y medianos empresarios a acceder a financiamiento, redes de contacto y servicios, la focalización hacia ciertos sectores de la población permite en algunos casos personalizar los servicios que brinda su plataforma.
Gore llama a Alice la “Siri de los emprendedores”, pues la considera una asistente de Inteligencia Artificial dedicada a ofrecer servicios especializados a dueños de pequeñas y medianas empresas, cuyos dueños pertenecen a grupos sociales como las mujeres, las personas con discapacidad o los migrantes.
“Lo que buscamos es que los servicios lleguen a las personas más calificadas y eso nos debe incluir a todos. No solo se trata de desarrollar tecnologías que sean más inclusivas sino de habilitar a las personas que no han tenido mucho contacto con la tecnología”, dijo Gore.
Fuente:
Rodrigo Riquelme, R. R. (2020, 12 enero). ¿Los sesgos pueden ayudar a la Inteligencia Artificial? Recuperado 13 enero, 2020, de https://www.eleconomista.com.mx/tecnologia/Los-sesgos-pueden-ayudar-a-la-Inteligencia-Artificial-20200112-0004.html