El uso de inteligencia artificial (IA) ha aumentado una medida que las organizaciones buscan capitalizar el potencial de la tecnología para mejorar las operaciones y la experiencia del cliente.
Si no se controla, este aumento en el uso de IA puede ser peligroso; acusando los derechos de las personas, afectando sus medios de vida e incluso creando la amenaza de guerra.
Ética de la IA: el conjunto de valores, principios y técnicas que son estándares aceptados de lo correcto y lo incorrecto para guiar la conducta moral en el desarrollo y el uso de tecnologías de IA, y un mayor nivel de diversidad en la tecnología y en la creación de algoritmos de IA. representa una solución a la amenaza de la IA sin control.
Este artículo explorará cómo la IA puede ser dañina si no se controla, la importancia de la representación equitativa en la creación de IA y el papel del sistema educativo, la importancia de la confianza a través de la transparencia, la reciente propuesta legislativa de IA de la Comisión Europea y lo que esto significa para industria tanto en la UE como en el resto del mundo, y cómo las organizaciones pueden implementar una IA ética.
Discriminación de IA
El uso de la IA en industrias como la de la salud está generando enormes beneficios y sin precedentes, como la detección temprana del cáncer.
Sin embargo, la tecnología puede crear una cantidad significativa de daño, particularmente en relación con la discriminación.
Al observar el ejemplo del reclutamiento habilitado por IA, Jonathan Kewley , socio y codirector de Clifford Chance Tech Group, explica que hay casos en los algoritmos que han descartado candidatos calificados en función de su religión, etnia, educación o ubicación geográfica.
“El problema es que algunas empresas [que utilizan servicios de contratación habilitados para inteligencia artificial] no comprenden cómo funciona la tecnología, no ven el sesgo inherente, que está integrado en ella. Y de repente, tienen un gran problema que se infiltra de manera invisible ”, dice.
El problema no se detiene en el proceso de contratación. Los conductores de Uber, tanto en el Reino Unido como más recientemente en los Países Bajos, han afirmado que el algoritmo de Uber los despidió injustamente .
“[Estos algoritmos de inteligencia artificial] pueden dañar fundamentalmente las perspectivas de vida de una persona, su capacidad para conseguir un trabajo, su recepción de servicios de salud, su capacidad para comprar un producto o obtener una hipoteca. No creo que el público se dé cuenta de lo insidiosa que puede ser esta tecnología ”, agrega Kewley.
Para superar esta discriminación de la IA y el impacto en la vida de las personas, los algoritmos de IA deben acceder a los conjuntos de datos correctos que representan a las personas que el producto está tratando de servir; en casi todos los casos, todos los grupos demográficos deben estar representados para eliminar el sesgo de la IA.
La igualdad de representación y el obstáculo de la educación
Fundamentalmente, los algoritmos de IA son construidos por humanos. La tecnología es una creación de la sociedad y debe representar a toda la sociedad.
El problema es que la mayoría de las materias que estudian STEM y luego pasan a diseñar los algoritmos de IA pertenecen a un grupo demográfico en particular; hombres blancos de clase media.
Existe una importante escasez de diversidad en la tecnología, no solo en términos de género, sino también de personas pertenecientes a minorías étnicas y entornos menos favorecidos.
Hasta que se aborde la falta de representación en la educación y en el lugar de trabajo, en todos los géneros, razas y antecedentes socioeconómicos, continuará el problema del sesgo y la discriminación de la IA.
Existen numerosos ejemplos de esto. Una es la tarjeta de crédito de Apple, que se afirmó que ofrecía diferentes límites de crédito para hombres y mujeres y otra fue la debacle del algoritmo A-Level que otorgó calificaciones a los estudiantes según su ubicación .
Hay algunas iniciativas para ayudar a corregir el equilibrio. Clifford Chance, por ejemplo, ha lanzado un plan de becas con el Hertford College de la Universidad de Oxford para fomentar una mayor diversidad en quienes estudian Ciencias de la Computación. El objetivo es inspirar a los jóvenes de entornos subrepresentados a seguir carreras relacionadas con la tecnología y, al hacerlo, reducir los casos constantes de sesgos y prejuicios tecnológicos.
Al comentar sobre esto, Kewley dice: “Si tiene un grupo de personas diversas que moderan, que provienen de un conjunto variado de antecedentes y pueden representar las voces y puntos de vista diversos de nuestra sociedad, entonces es mucho menos probable que la tecnología que construyen esté sesgada. .
“Podemos crear todas las leyes que queramos. Pero, en realidad, debemos comenzar con los componentes básicos de la educación para asegurarnos de que estamos construyendo tecnología ética desde el principio. Eso significa tener un grupo diverso de personas que estudian informática, no solo hombres blancos privilegiados “.
Herbert Swaniker , abogado senior de Clifford Chance, está de acuerdo en que es crucial crear oportunidades y acceso cuando se trata de educación.
Él dice: “los gobiernos están haciendo mucho más sobre la alfabetización tecnológica, específicamente la inteligencia artificial. Parte del rol de las empresas es hacer que la información esté disponible sobre cómo funcionan estas plataformas tecnológicas, para que las personas confíen mejor en la tecnología. Pero, lo que es más importante, la gente quiere participar; tener ese punto de acceso a la educación es fundamental “.
Legislación sobre IA
Traer talento más diverso al sector de la tecnología ayudará con el problema del sesgo y la discriminación de la IA. Sin embargo, la situación regulatoria también debe aprobarse; se necesita mayor claridad.
Por el momento, existe un manto invisible que rodea el desarrollo y la aplicación de la IA. Es por eso que la UE ha presentado su propuesta legislativa de IA , que Kewley llama “el marco legal más radical en 20 años” y un “estándar de seguridad” necesario para el futuro de la IA ética.
Si entrara en vigor, la propuesta requeriría que los proveedores y usuarios de sistemas de IA cumplan con reglas específicas sobre transparencia de datos, gobernanza, mantenimiento de registros y documentación. También requeriría supervisión humana para áreas de alto riesgo junto con el establecimiento de estándares en robustez, precisión y seguridad.
Los proveedores y usuarios de IA deberían cumplir estos requisitos antes de que se ofrezcan en el mercado de la UE o se pongan en servicio.
El incumplimiento de la legislación, si se aprueba, conllevaría multas similares a las del RGPD, más una multa aún mayor: 30 millones de euros o el 6% de la facturación anual total del ejercicio anterior, lo que sea mayor para infracciones graves. Estas normas también se aplicarían a empresas de fuera de la UE en algunos casos.
En comparación con otras regiones, la UE se está volviendo grande y audaz con esta legislación sobre IA. En comparación, EE. UU. No va a adoptar una posición tan agresiva para una nueva regulación como la UE, porque están preocupados por el efecto moderador que esto tendría sobre la innovación.
Según Kewley, “Estados Unidos adoptará un enfoque más liberal. Creen que los marcos existentes a su disposición, como la FTC , son suficientes para regular esta área ”.
Mirando hacia el Este y posiblemente la gran potencia de IA del mundo, China tiene los Principios de Beijing, que es un marco ético que el gobierno ha lanzado para gobernar cómo se debe desarrollar y diseñar la IA.
Su principio principal es que la I + D de la IA debe servir a la humanidad y ajustarse a los valores humanos, así como a los intereses generales de la humanidad. Los Principios de Beijing establecen que la IA no debe usarse contra seres humanos, utilizarlos ni dañarlos.
La legislación sobre IA propuesta por la UE es la más completa. Sin embargo, no se trata solo de una región. Es necesario que haya un debate global y multilateral sobre el tema.
Confianza a través de la transparencia
Fundamentalmente, esta nueva ley puede ayudar a producir una nueva era de ilustración para el público, similar al escándalo de Cambridge Analytica, en lo que respecta a sus datos y el poder de la inteligencia artificial.
Las organizaciones que son transparentes sobre su trabajo ayudarán a generar confianza en los grupos de personas a las que sirven.
“Existe una oportunidad para que las empresas se adelanten a esto ahora y adopten la transparencia en lugar de simplemente convertirse en el próximo problema de cumplimiento”, dice Swaniker.
Hacer cumplir la legislación
Hacer cumplir la legislación de IA propuesta será interesante, como se ve por los desafíos de hacer cumplir el GDPR, según Swaniker.
“Tenemos un camino que recorrer antes de que se establezcan las reglas finales. Pero es evidente que todo el marco se basa en el riesgo y eso alentará a las empresas a tener que evaluar de manera significativa si un producto en particular, por ejemplo, está tratando de manipular a las personas de manera subliminal.
“No hay duda de que será difícil de hacer cumplir, por lo que será necesario afinar los conceptos para que sean más adecuados para el propósito”, dice.
Swaniker también señala que el reglamento adopta un enfoque muy europeo a diferencia del resto del mundo, porque la legislación se basa en conceptos europeos de derechos fundamentales, que se basan en la legislación de la UE, pero que no son los mismos en otras jurisdicciones.
Agrega que otros países, como se mencionó anteriormente, tienen leyes vigentes y, independientemente de ellas, esperan que las empresas sean responsables de cómo usan la IA.
“No es justo decir que Europa está haciendo algo y a ningún otro país le importa. Solo hay diferentes enfoques regionales sobre cómo se va a regular este uso de la inteligencia artificial y la tecnología “.
Implementación de un estándar de ética de IA
Uno de los principios clave de la legislación sobre IA de la UE es el requisito de supervisión humana en áreas de alto riesgo. Los proveedores y las organizaciones que adopten e implementen la tecnología deberán tener cuidado al controlar cómo se usa esa tecnología con revisiones estrictas para garantizar que sea segura antes de continuar. A diferencia de la práctica actual en la actualidad, cuando las organizaciones implementan la tecnología, deben verificarla.
En la práctica, Kewley sugiere que las organizaciones deben ser forenses cuando se trata de implementar un estándar de ética de IA.
Dice: “Las empresas están acostumbradas a las normas contables y las auditorías financieras, y han creado equipos y metodologías completos en torno a estas prácticas. Se ha convertido en parte de su ADN y esa es la forma en que se implementará mejor la implementación de IA ética, que es saber exactamente qué estás usando, el contexto en el que se está usando y cuáles son los resultados. También es importante comprender el ciclo de vida del producto, cómo se ha implementado y en qué países, y qué decisiones está tomando “.
En el futuro, las organizaciones también necesitarán desplegar equipos de personas para supervisar la IA y cómo funcionan los ‘robots’. Si se deja sola, esta tecnología podría ser peligrosa y, por lo tanto, será necesario crear equipos y formas de trabajo completamente nuevos.
Fuente:
Ismail, N. (4 de agosto de 2021). El amanecer de la ética de la IA: desde la representación equitativa hasta la legislación sobre IA . Edad de información. https://www.information-age.com/the-dawn-of-ai-ethics-from-equal-representation-to-ai-legislation-123496417/