Las experiencias para clientes y empleados basadas en el uso de una avanzada Inteligencia Artificial (IA) puede generar múltiples beneficios a la empresa que lo implementa como son: el incremento productivo, mejores experiencias de usuario o un acceso más rápido a ingentes cantidades de datos. Pero desafortunadamente, hasta la mejor ejecución de la tecnología más avanzada puede fracasar si la empresa no está protegida contra el uso indebido por parte de empleados o de agentes externos malintencionados.
Para asegurar el éxito de cualquier proyecto de este tipo, recomendamos formar un equipo de expertos en ética de IA que se encargue de supervisar lo que sucede durante y después de la implementación de inteligencia artificial en la empresa. Estos expertos deben centrarse en tres áreas clave en las que se toman decisiones éticas: la primera, en cómo manejar los datos de los clientes; la segunda, en cómo se verán afectados sus empleados y; por último, en cómo garantizar que la IA se mantenga dentro de sus límites.
Seguridad y uso de los datos de clientes
Es importante que toda la información esté protegida contra un uso indebido, independientemente de lo inteligente y capaz que sea el sistema. Incluso el sistema de IA, en sí mismo, debe ponerse en cuarentena de datos personales o de propiedad que no sean estrictamente de su competencia. Por ejemplo: si el sistema no está interactuando directamente con los clientes que buscan asesoramiento médico, no debería tener acceso a la información de salud del cliente. Por ello, es fundamental que el equipo de ética de IA trabaje con el equipo directivo para determinar exactamente qué información debe ser accesible y quién puede y debe tener acceso a ella.
Una vez que se hayan detectado qué datos deben tener un acceso restringido, el equipo de ética de IA debe trabajar con los expertos en seguridad para protegerlos. Esto significa, determinar quién puede acceder internamente a esta información, cómo protegerse contra el acceso externo no autorizado y cómo el sistema de IA puede protegerse de la manipulación del usuario. Por ejemplo: los hackers utilizan sofisticadas técnicas de phishing para sonsacar al personal de los departamentos de servicio al cliente información acerca de sus clientes. Haciéndose pasar por un cliente, los hackers engañan al agente que les atiende para que les proporcione información personal sobre consumidores reales, y el propio empleado del departamento de atención al cliente -en la mayoría de ocasiones- ni siquiera sabe que ha sido engañado.
Establecer medidas de protección contra este tipo de ataques es fundamental para la implementación de la IA y el equipo de ética debería dominar la casuística y dar solución a este tipo de incidencias, antes incluso, de que un proyecto entre en funcionamiento.
Impacto sobre los empleados
Los líderes empresariales deben ser honestos con aquellos empleados que se vean afectados en el desempeño de sus funciones por la implantación de la IA. Deben reorganizar sus empresas para poder retener y reentrenar a esos empleados que desempeñarán otras tareas dentro de la compañía. Estamos convencidos de que las empresas producirán más valor a largo plazo si capacitan a sus empleados con IA en lugar de dejarlos ir como consecuencia de la implementación de la misma.
Inicialmente, la solución más evidente y más sencilla puede parecer la de recortar los gastos inmediatos reduciendo personal; sin embargo, hay que considerar el impacto a largo plazo en la retención de empleados. El equipo de ética de IA de la compañía -en este caso- debe combinar los datos y el compromiso ético y humano para demostrar al equipo directivo el valor de un equipo híbrido compuesto por IA y humanos. Formar y transformar a los empleados de servicio de atención al cliente, por ejemplo, en expertos en productos que pueden gestionar problemas complejos, le permitirá a la compañía crear un equipo competitivo que generará más ingresos y solucionará problemas más complejos y por lo tanto, de mayor nivel.
Mantener la IA dentro de sus límites de actuación
Los sistemas de inteligencia artificial están programados para seguir procesos estrictos y no desviarse de ellos. Nunca se descontrolarán ni, por ejemplo, proporcionarán datos comerciales exclusivos a un competidor. Si un sistema de IA se enfrenta repentinamente a un problema para el cual no se ha programado específicamente, lo escalará a un colega humano.
El equipo de expertos en ética de inteligencia artificial debe trabajar junto con los equipos de seguridad, los de procesos de negocio y los desarrolladores para establecer protocolos estrictos para cada tarea de IA. El equipo debe probar repetidamente los procesos para garantizar que no haya áreas o situaciones no contempladas y establecer el marco concreto y específico sobre lo que debe hacer la IA, especialmente si la IA está automatizando un proceso fuertemente regulado.
Mi recomendación es que el equipo de ética de IA debe dimensionarse según sea el proyecto de IA que deba gestionar. Este equipo, deberá proporcionar una supervisión completa sobre cualquier cuestión ética de modo que todas las cuestiones al respecto puedan ser examinadas y resueltas lo más rápidamente posible. Esto garantizará una inversión sólida en IA y, en última instancia, permitirá a la empresa obtener mayores beneficios que si toma un camino menos ético o seguro.
Fuente: El Economista