La Comisión Europea ha publicado su primer borrador de principios éticos “para una Inteligencia artificial confiable”, un texto provisional que establece una “Inteligencia Artificial centrada en el ser humano”, mediante una serie de principios rectores como la supervisión por parte de seres humanos y el respeto por la privacidad y la transparencia, informa Europa Press.
El texto publicado esta semana es la primera versión de una iniciativa en la que trabaja el grupo de alto nivel de expertos en Inteligencia Artificial (IA) de la Comisión Europea, integrado por 52 expertos independientes procedentes del ámbito académico, empresas y de la sociedad civil.
En primer lugar, la UE ha establecido una serie de derechos básicos en el desarrollo de la Inteligencia Artificial que se dirigen a todos los actores del sector, entre los que destaca que la IA “debería ser desarrollada, desplegada y utilizada con un propósito ético”.
Cinco derechos básicos
A través de lo que se ha conocido como IA centrada en el ser humano, la UE ha defendido que estas tecnologías deben estar basadas en varios derechos fundamentales, resumidos en cinco: hacer el bien, no hacer el mal, autonomía de los humanos, justicia y que sus acciones sean explicables.
Estos principios se aplican de manera general, aunque especialmente en las situaciones con grupos vulnerables, como niños, discapacitados y minorías, así como a empleados y consumidores. La Comisión Europea ha reconocido que “aunque puede traer beneficios a los individuos y la sociedad, la IA también puede tener un impacto negativo”.
Medidas para el desarrollo de la IA
En cuanto a medidas concretas para desarrollar una IA de confianza, el borrador de la Comisión Europea ha apuntado que estos sistemas deben ser capaces de rendir cuentas –es decir, deben ser responsables–, contar con un diseño para todas las personas y respetar la autonomía del ser humano.
Entre el resto de principios básicos de desarrollo se encuentra también la ausencia de discriminación, la necesidad de que siempre sea posible una supervisión por parte de seres humanos, y el respeto a la privacidad de los mismos.
El texto apunta también la necesidad de que las tecnologías sean robustas, seguras y transparentes. Los sistemas de IA deben así asegurar la trazabilidad de sus acciones y decisiones, así como ser realistas sobre sus capacidades y limitaciones.
De cara a las empresas, la UE recomienda el uso de códigos deontológicos sobre la IA, y aconseja que las que desarrollen o prueben este tipo de tecnologías lo hagan a través de equipos humanos con diversidad y que faciliten las auditorías externas.
Publicación definitiva, en marzo de 2019
La guía ética definitiva de la Comisión Europea sobre Inteligencia Artificial se publicará el mes de marzo de 2019, y hasta entonces se ha abierto un periodo en el que el grupo de expertos responsable recibirá sugerencias, hasta el 18 de enero, de cara a redactar la versión final.
Este plan sigue al anuncio realizado por la Unión Europea el pasado 7 de diciembre de una declaración de cooperación entre los estados miembros en relación a la IA, acompañada por una inversión de 7.000 millones de euros de los programas Horizon Europe y Digital Europe.
Fuente: Retina El Pais