Es raro escuchar a la gran tecnología, el gobierno y los académicos cantar la misma hoja de himnos, especialmente en un tema tan divisivo como la regulación de la IA. Sin embargo, esa es la realidad actual: todos, desde el difunto Stephen Hawking hasta Elon Musk , y desde Ursula von der Leyer hasta Boris Johnson, piden una mayor legislación “antes de que sea demasiado tarde”.
Es una nueva frontera no solo para las tecnologías emergentes, como la inteligencia artificial (IA), sino para los estándares regulatorios y éticos que las rodean. Dado que se espera que el mercado de la inteligencia artificial supere la marca de los $ 500 mil millones para 2024 , según IDC , todos deben considerar tanto el riesgo como la recompensa. Esta consideración es particularmente crítica para los responsables de construir e implementar IA: los desarrolladores.
La automatización robótica de procesos (RPA) ofrece a las empresas, grandes y pequeñas, importantes beneficios. Impulsar mejores experiencias digitales para los clientes que les permitan entablar conversaciones personales y empáticas con los agentes es solo un ejemplo. El problema es que, si bien los líderes empresariales generalmente se venden por el caso comercial de RPA, los empleados a menudo se sienten de manera diferente. Ansiedad por la automatización y la aparente falta de salvaguardias para regularla o proporcionar una guía ética al construirla o implementarla. Esta preocupación es tan aguda que está ralentizando la velocidad a la que los usuarios adoptan RPA, a pesar de que la base instalada sigue creciendo.
Por qué RPA cambia las reglas del juego en la era posterior a Covid
De lo que los empleados realmente están hablando aquí es de confianza: confianza en que no serán reemplazados por robots, o confiar en que el algoritmo que diseñan o usan considerará las solicitudes de hipotecas de los clientes de manera justa. En mi experiencia, la mayoría de las organizaciones no cierran los centros de contacto y despiden trabajadores porque implementaron una plataforma RPA. En cambio, la implementación está liberando a los asesores para que se concentren en conversaciones significativas con los clientes, similares a las que suelen tener lugar en la calle principal local. Pero la confianza en esa relación radica entre un empleado y un empleador, o un proveedor de servicios y un cliente, no con la tecnología en sí. Donde existe la confianza, algunas encuestas muestran que los trabajadores están pidiendo activamente una adopción más profunda de la IA en su vida laboral diaria.
Para fomentar la confianza en RPA, decidimos ‘codificar’ principios de larga data en el núcleo de nuestro equipo de ingeniería en un ‘ Marco Ético de Robo ‘. Inspirándonos en los Tres Principios de Asimov, tenemos la esperanza y expectativa de que las organizaciones con las que trabajamos adopten este marco ético. Esto ayudará a generar confianza entre empleados y clientes, impulsando a su vez la innovación y el crecimiento.
Un ejemplo es la facturación de 1974 Justo de Crédito Ley limita la responsabilidad titular de la tarjeta – un acto claro y deliberado de frenar el entonces emergente industria de las tarjetas de crédito que fue injustamente llevando a cabo los titulares de tarjetas responsable de las transacciones fraudulentas, incluso cuando la tarjeta había sido robado. Al regular la industria, los consumidores pueden confiar en que están siendo protegidos y utilizar ese producto con confianza.
La experiencia nos ha enseñado que sin controlar y regular la nueva tecnología nos enfrentamos a posibles resultados poco éticos. Nuestro Marco de Ética de Robo pretende ser otra voz que se suma al llamado para que los líderes mundiales, las empresas y los empleados en el terreno se unan e implementen un cambio real para que la IA y la RPA puedan cumplir su verdadera promesa.
Fuente:
Editor’s Choice. (2021q, septiembre 16). Why now is the time to implement regulation of AI. Recuperado 16 de septiembre de 2021, de https://www.information-age.com/why-now-is-time-to-implement-regulation-of-ai-123496932/