En junio de 2015 un usuario de Google Photos descubrió que el programa etiquetaba a sus amigos negros como gorilas: la inteligencia artificial (IA) era incapaz de distinguir una tez oscura de otra. Después de las disculpas, la compañía de Silicon Valley mostró su solución: quitar del buscador a los gorilas. Las explicaciones llegaron más tarde: los algoritmos habían heredado los prejuicios que los programadores, una mayoría de hombres blancos, habían filtrado en las bases de datos que alimentaba el servicio. Los argumentos detonaron una seguidilla de preguntas inquietantes. ¿Qué pasaría si, ante un choque inminente, la IA de un auto no tripulado se viera forzada a elegir entre atropellar a una persona blanca o a una negra? La respuesta más probable escala el asunto a niveles insospechados.
La irrupción masiva de la IA en la vida cotidiana empezó a desnudar más dilemas incómodos. A principios del año pasado, una investigación de la Universidad de Darmouth confirmó el sesgo racista de Compas, el sistema que usan los jueces estadounidenses para apoyar sus decisiones y ya revisó el historial de más de un millón de convictos. La conclusión es que Compas desaconsejaba la libertad de los negros –a quienes además perjudicaba con falsos positivos, pronosticando más reincidencias que las reales– con mayor frecuencia que la de los blancos, a quienes beneficiaba con falsos negativos. Una explicación posible: el programa trabaja con bases de datos de la policía, propensas a tratos diferenciados según el color de piel.
“Las fallas de los sistemas de IA se basan en el aprendizaje automático: la capacidad de aprender qué acciones tomar a partir del uso de datos”, explica Viviana Cotik, docente e investigadora del Departamento de Computación de la UBA. Cuando ese entrenamiento es sesgado, el sesgo se traslada al sistema. “Si la estadística dice que la mayoría de los acusados de un crimen son personas negras, el sistema asume que es más probable que los culpables sean negros”, razona. Aunque la raza no sea una de las 137 variables que analiza Compas, datos como el barrio o el nivel educativo pueden llevar a conclusiones en esa línea, acertadas o no. “En un sistema de caja negra no sabemos qué pasa adentro”, reconoce Cotik. “Y es difícil confiar si no se entiende la lógica interna”.
La investigadora está inquieta con la omnipresencia de Google, un emporio cuyo sistema operativo Android hace funcionar los teléfonos de más de dos billones de usuarios. “Sabe dónde estás, de qué hablas, qué escribes, qué opinas y qué haces en la web”, advierte. Un ejemplo: las respuestas automáticas que propone Gmail. Nos lee, nos interpreta y nos sugiere tres opciones para seguir conversando.
Respuesta automática
“Hace poco hacía el mismo camino para ir al trabajo y a la noche veía la película que se me ocurría. Hoy le pregunto al celular la temperatura y la mejor opción para viajar. También me recomienda películas, no sé bien en función de qué”, reconoce una fuente consultada y temerosa de los efectos colaterales ‘estupidizantes’. Diego Fernández Slezak, director del Laboratorio de Inteligencia Artificial Aplicada (Conicet-UBA), exculpa a las máquinas: “Como todo lo que se pone de moda, muchísima gente empieza a utilizar la IA para cualquier cosa”.
La democratización de la herramienta puede romper barreras éticas y técnicas. Es lo que pasó cuando un funcionario argentino aseguró que la gobernación de la provincia de Salta (Argentina) usaría técnicas de IA para detectar qué niñas estaban “predestinadas” a quedar embarazadas. “No existían preguntas sobre anticoncepción ni educación sexual. Pero sí sobre edad, etnia, estudios, barrio de residencia, discapacidad, país de origen y abandono de estudios”, escribió la periodista Natalia Zuazo en su blog Política y Tecnología. El modelo replicaba prejuicios como asociar el embarazo con la pobreza o la promiscuidad con determinadas etnias y lugares.
Un ejemplo: las respuestas automáticas que propone Gmail. Nos lee, nos interpreta y nos sugiere tres opciones para seguir conversando
De vuelta a los carros, un informe firmado por cuatro universidades estadounidenses concluyó en abril de 2018 que el 60 % de las veces los modelos no tripulados pasan de largo ante una señal de ‘pare’ adulterada. Como fueron entrenados para ver patrones, los desajusta un leve cambio de simetría. “Usan IA pero no se trata de un cerebro pequeño, como nos quieren hacer creer sus fabricantes”, plantea Meredith Broussard, exprogramadora, periodista y profesora en la Universidad de Nueva York. “Son sistemas de computación que a veces no reconocen obstáculos comunes”.
Elon Musk, el creador de Tesla (una de las automotrices que promueven la autonomía), avisa que deberíamos temer lo que viene. Por eso impulsó con Stephen Hawking la fundación Future of Life, que persigue el desarrollo responsable de las investigaciones sobre IA bajo principios como la transparencia de fondos, la fijación de cláusulas que prioricen “el beneficio de la humanidad” y que ninguna IA pueda decidir sobre una vida humana. Pero cualquier sistema inteligente podría sacarnos de la ecuación. ¿Cuán inteligentes son las inteligencias artificiales?
Educar al robot
En Londres, la policía ya experimenta con tecnologías de reconocimiento facial en vivo en la vía pública. Más allá de las críticas por la intrusión, el sistema detecta un número “asombroso” de inocentes a los que define como sospechosos de crímenes, incluyendo a manifestantes, hinchas de fútbol y personas con problemas de salud mental, según una investigación de la organización Big Brother.
Las regulaciones están en una fase germinal. En noviembre del año pasado, un comité de expertos aprovechó un encuentro de alto nivel en Bruselas para recomendar al Parlamento Europeo que fomente una IA basada en decisiones éticas. También propuso crear una agencia continental que la supervise con un sistema similar al de los medicamentos. “Un sistema tiene que poder explicar por qué hace lo que hace en términos que permitan entender las razones detrás de las posibles elecciones”, explica el doctor en Ciencias de la Computación Guillermo Simari.
En aquel encuentro, un grupo de ejecutivos de Facebook, Microsoft y Google levantaron algunos muros de defensa ante las críticas por sus desastres en IA. “¿Queremos que los algoritmos reflejen la realidad o la corrijan?”, se defendió uno de ellos. Cotik propone una inteligencia que entienda el enfoque sobre el que actúa y las variables que entran en juego en cada caso. “No tienen intuición –recuerda Fernández Slezak–. La pregunta es cómo hacemos los humanos que hacemos IA para que las IA modifiquen nuestros sesgos”. En esa línea imagina un ente regulador que lleve un registro de cómo y con qué métodos se entrenó cada una.
El doctor en Filosofía Diego Lawler señala una trampa en el juego de reducir la tecnología a un problema instrumental: “El ingeniero estaría en un lugar análogo al que tiene la naturaleza en la evolución; selecciona de manera neutral”. Pero ese mundo independiente de nuestras valoraciones y responsabilidades es una ilusión: “Proponer un diseño tecnológico es haber ejercido un acto de libertad, creando uno y no otro. Quienes lo instrumentan son responsables de sus elecciones”. En este escenario, ignorar la inteligencia detrás del artificio es “por un lado, entregarse a un destino tecnológico que parece imponerse fatalmente; y por otro, naturalizar los polos de poder económico y político que subyacen a los sistemas que se proponen regimentar la vida social”. Como subirse a un auto que, sin vacilar, puede llevarnos directo contra la pared.
Control de daños
Todos hablamos de IA. Es sexi, dirían los estadounidenses. Pero la IA falla. Y cuando falla, hace ruido. “Hay muchos investigadores haciendo sistemas de ‘machine learning’ porque son económicamente efectivos”, plantea el doctor Simari. Pero también son muy frágiles, algo que no preocupa al científico que dirige la división de IA de Facebook, Yann LeCun. En mayo del año pasado LeCun se mostró preocupado por la posibilidad de que las demandas crecientes por un mayor entendimiento de estos procesos frenen la innovación y desalienten la adopción de IA. “No es alquimia, es ingeniería –dijo a la revista ‘Science’–. Y la ingeniería es desorganizada”.
Los humanos sabemos improvisar. Entendemos el contexto mejor que un algoritmo alimentado a bases de datos. La opacidad de la caja negra, en cambio, tiene secretos hasta para sus inventores. El programador conoce las bases y los algoritmos, pero las claves del proceso y del producto se le pueden escapar. Para Fernández Slezak es un tema de capacitación del Homo sapiens. La profesora y periodista Meredith Broussard, que escribió ‘Artificial. Unintelligence’ (algo así como Estupidez artificial) opina que el entusiasmo por aplicar la tecnología computacional en cada aspecto de nuestras vidas derivó en una cantidad enorme de sistemas de IA mal diseñados. “Tienen debilidades importantes. Imaginamos que son más poderosos de lo que son, y esa asunción es peligrosa”, insiste.
Otras predicciones suenan más plausibles. Con un poder de cómputo muy superior, las computadoras tienen un potencial imbatible para lo específico y lo repetitivo. El Instituto Global McKinsey estima que 375 millones de personas (el 14 por ciento de la fuerza de trabajo global) podrían ver sus trabajos automatizados para 2030. Fernández Slezak, que trabaja en una ‘start up’ para el análisis automático de resonancias, asegura que la IA no va a reemplazar a los médicos. “No tiene sentido competir desde el punto de vista de la eficiencia y la precisión de los resultados, pero la computadora no responde a lo afectivo”. La investigadora Viviana Cotik desconfía: “Quien desarrolla esos sistemas no necesariamente estudió medicina. ¿Cómo sabemos que el diagnóstico es acertado? Hacen falta comités de ética y controles de calidad”. Nuevas soluciones para nuevos problemas.
Fuente: El Tiempo