Los ingenieros aún tienen que inventar el sistema de inteligencia artificial perfecto para pronosticar la confianza pública. Sin embargo, si tal herramienta existiera, emitiría algunas advertencias bastante severas sobre la IA en sí. La tecnología está acusada de no proteger a los usuarios de contenido dañino (como en el caso de Facebook), discriminar a los pacientes de minorías étnicas que reciben tratamiento en hospitales ya las mujeres que solicitan tarjetas de crédito. Sus críticos dicen que corre el riesgo de sesgar los cables en decisiones cruciales sobre los servicios que recibimos.
En los últimos meses, esas preocupaciones se han generalizado. Los asesores científicos de la Casa Blanca ahora proponen una Ley de Derechos de Inteligencia Artificial, que detalla lo que se debe decir a los consumidores cuando la toma de decisiones automatizada afecta sus vidas.
Esto está claro: la industria digital no puede ignorar estas preocupaciones. Solo se volverán más urgentes y prominentes. Pero el debate no es: ‘IA: ¿correcto o incorrecto?’ – la tecnología no desaparecerá. Es demasiado útil y se usa demasiado. En cambio, el desafío para cualquier empresa que implemente el aprendizaje automático es simple: hacerlo bien antes de que sus clientes pierdan la fe.
La buena noticia es que podemos solucionar estos problemas. Sí, es un negocio complicado, pero podemos detallar las lecciones esenciales que explican lo que debe hacerse de manera bastante simple.
Estos sistemas se basan en dos cosas: un modelo de aprendizaje automático que analiza los datos para aprender a tomar decisiones, y los datos sin procesar en sí. Las empresas deben hacer ambas cosas bien para evitar tomar decisiones importantes terriblemente mal.
Lección uno : asegúrese de que los datos que usa para entrenar su IA no tengan más probabilidades de dar un resultado negativo para un grupo de personas que para otro. Imagine que dirige una empresa de préstamos y utiliza esta tecnología para determinar quién es probable que incurra en incumplimiento. Si, por casualidad, sus datos históricos muestran un mayor número de mujeres incumpliendo que de hombres, su IA podría discriminar injustamente a las mujeres para siempre.
Lección dos : si tiene menos datos de mujeres que de hombres, o de un grupo étnico que de otro, asegúrese de que se refleje en sus cálculos. De lo contrario, tomará decisiones injustas porque las partes de la sociedad están subrepresentadas.
Lección tres : una vez que el sistema esté funcionando, pruébelo. Establezca objetivos de rendimiento y observe de cerca para asegurar de que su IA no comience a discriminar a grupos individuales en la sociedad. Si está haciendo bien el trabajo, este debería ser un proceso interminable.
Lección cuatro : los sistemas de inteligencia artificial no son bolas de cristal; no saben qué pasará en el futuro. Simplemente calculan la probabilidad de que suceda algo. Imagínese que las empresas de préstamos impulsados por la inteligencia artificial nuevamente. Habrá pocas decisiones más importantes que decidir decidir rechazar el crédito de alguien. ¿Es cuando su modelo de IA dice que hay un 50% de posibilidades de que un solicitante no pague un préstamo, o un 75% o un 90%? Los expertos llaman a esto el “umbral de probabilidad”, y elegir dónde cae es vital.
La lección final es quizás la más difícil: debes ser capaz de explicar las decisiones que toma tu modelo de IA. Los sistemas de inteligencia artificial no pueden ser cajas negras cuyo funcionamiento está más allá de la razón o el desafío. Las empresas deben ser responsables de las decisiones tomadas por la IA como de cualquier otra.
Los errores son inevitables, ningún sistema es perfecto, pero el sesgo no lo es. La mayoría de nosotros no podemos ver dentro de los algoritmos que impulsan esta tecnología, pero podemos asegurarnos de que generen resultados justos. La IA tiene problemas, pero colectivamente sabemos cómo solucionarlos. Hágalo bien y podremos asegurarnos de que la equidad forme parte de nuestras tecnologías de toma de decisiones. Hágalo mal y tanto las empresas como los consumidores pagarán el precio.
Fuente:
Selección del editor. (2021b, 12 de noviembre). Cinco lecciones para corregir los fallos de la IA . Edad de información. Recuperado 12 de noviembre de 2021, de https://www.information-age.com/five-lessons-to-fix-failures-of-ai-123497664/