Sesgos en el análisis de los datos, violaciones de la privacidad o discriminación contra distintas minorías son algunos de ellos, según un informe que acaba de publicar McKinsey: “Liderar tu organización hacia una IA responsable”, en el que se señala que “incluso los usos aparentemente inocuos de la Inteligencia Artificial pueden tener graves implicaciones, afectando a la reputación de la compañía, sus empleados y a la sociedad en su conjunto”.
Si bien la inteligencia artificial (AI) se está convirtiendo rápidamente en una nueva herramienta del CEO para impulsar los ingresos y la rentabilidad, también está claro que su despliegue requiere una gestión cuidadosa para evitar daños no intencionales pero significativos, no solo a la reputación de la marca sino, más importante aún, a los trabajadores, a los individuos y a la sociedad en su conjunto, informa Diario Responsable.
El rol de los primeros ejecutivos es vital, ya que deben tener un sólido conocimiento práctico de los desarrollos de la IA para poder orientar al conjunto de la empresa en tres áreas clave. En primer lugar, deben clarificar la forma de trasladar los valores de la empresa a las aplicaciones de IA a través de directrices sobre los objetivos marcados, con el fin de seleccionar los procesos candidatos a la automatización. En segundo lugar, los CEO deben guiar a la compañía con definiciones y métricas para evaluar la IA ante posibles sesgos e imparcialidad en el análisis.
Por último, es necesario establecer una jerarquía de valores de empresa y destacar el papel de la diversidad en la selección de talento. El desarrollo de la IA siempre implica contrapartidas, especialmente las relacionadas con la precisión de los algoritmos y la transparencia en su toma de decisiones, por lo que el criterio de la dirección es esencial para que los equipos tomen las decisiones más acertadas. Además, un equipo con personas diversas aporta una variedad de experiencias con enfoques innovadores, necesarios para resolver problemas de calado. Los líderes deben considerar todo tipo de diversidad: de género, edad, etnia, disciplina y experiencia.
En definitiva, los directivos que refuerzan sus valores corporativos estableciendo equipos diversos, crean un lenguaje generando puntos de referencia para guiar a la IA, y establecen un compromiso con los equipos de desarrollo de esta tecnología, hacen posible un uso responsable de la IA.
Por ello, una IA responsable genera confianza tanto en los empleados como en los consumidores. Los empleados confiarán en la información que la IA les brinde y estarán más dispuestos a aplicarla en su trabajo diario, ayudando a idear nuevas formas de usar esta tecnología para crear valor. En cuanto a los consumidores, una vez que se adquiere su confianza estarán dispuestos a utilizar productos relacionados con la IA, ganando las compañías el derecho a usar sus datos de forma adecuada y ayudando a mejorar continuamente los procesos de IA.
Se trata de un círculo virtuoso que impulsa la reputación de la marca y la capacidad de una organización para innovar y competir y, lo más importante, permite a la sociedad beneficiarse del poder de la IA en lugar de sufrir sus consecuencias menos deseadas.
Cinco áreas clave
Hay muchos casos en los que no es suficiente la buena voluntad para hacer coincidir los desarrollos de IA con los valores de la empresa, especialmente de cara a la opinión pública. Por ello, el informe destaca cinco áreas que exigen un sólido liderazgo desde la dirección de las compañías para poder hacer frente a los problemas más comunes:
1. Una adquisición apropiada de datos: cuantos más datos se recojan, mayor precisión tendrá la aplicación de IA, pero en ocasiones esta puede ser percibida como una invasión de la privacidad. Los directivos deben vigilar de dónde se adquieren esos datos y cómo se utilizan.
2. Adecuación del conjunto de datos: asegurar que los conjuntos de datos reflejan con precisión todas las poblaciones analizadas, evitando sesgos para no privilegiar a grupos mayoritarios.
3. Imparcialidad en la aplicación de IA: incluso cuando las series de datos reflejan de forma veraz a las poblaciones reales, los resultados de la IA pueden ser imparciales debido a sesgos históricos, ya que estos análisis no tienen en cuenta el contexto y las implicaciones de estas decisiones.
4. Cumplimiento normativo y compromiso: con la incipiente oleada regulatoria, los directivos deben asegurarse de que sus organizaciones cumplen con la legislación y, por ejemplo, no compren o vendan datos obtenidos sin consentimiento.
5. Explicación del modelo de IA: en ocasiones, es necesaria una explicación del modelo que se ha llevado a cabo para llegar a una u otra conclusión, especialmente en los usos de la IA relacionados con la búsqueda de trabajo o con préstamos financieros (donde los candidatos rechazados querrán entender los motivos).
Fuente:
La Opinión de Murcia. (2019, 25 julio). Riesgos de la Inteligencia Artificial para la RSE. Recuperado 26 julio, 2019, de https://www.laopiniondemurcia.es/comunidad/2019/07/25/riesgos-inteligencia-artificial-rse/1040470.html