“No permitan que la industria escriba las reglas para la Inteligencia Artificial”. Es el título de un artículo del catedrático de derecho de la Universidad de Harvard, Yochai Benkler, publicó en la revista Nature.
El autor, experto en derechos digitales, muestra la necesidad de definir las reglas que regirán el futuro de la inteligencia artificial.
“La industria se ha movilizado para dar forma a la ciencia, la moralidad y las leyes de lainteligencia artificial”, comenta.
La táctica es colapsar el debate con un “blanqueado ético”, avisa Benkler. Las grandes tecnológicas están invirtiendo mucho dinero en foros e investigaciones universitarias sobre cómo hacer que la inteligencia artificial se desarrolle con una base “ética”.
El experto alega que a Google (que tuvo que disolver un grupo de expertos sobre la ética de la inteligencia artificial por las críticas recibidas), Facebook (que fundó el Centro de Ética e Inteligencia Artificial de la Universidad de Munich poniendo 7,5 millones de dólares encima de la mesa) o Amazon (que financió con otros 7,6 millones una convocatoria sobre ética e IA de la Fundación Nacional de Ciencia de EEUU) la conversación sobre la ética les interesa.
Distrae la atención de otras cuestiones.
Una de ellas, detalla el experto, es que estos algoritmos funcionan como “una caja negra” en la que “los sesgos sociales se vuelven invisibles e irresponsables”. Una inteligencia artificial pueden entrar para obtener un crédito o calcular la póliza de un seguro de vida.
Pero también puede ir más allá y, por ejemplo, hacer un primer filtrado de los candidatos a un puesto de trabajo. Lo que le pasó a la IA de Amazon encargada de esta tarea es que, tradicionalmente, en la empresa los hombres habían ascendido más alto y más rápido que las mujeres, por lo que empezó a impulsar a los candidatos varones por el mero hecho de ser hombres.
Tras descubrirlo, la empresa se vio obligada a disculparse y retirar el algoritmo.
Por definición, el método de decisión de la inteligencia artificial es opaco, ya que su trabajo es bucear en bases de datos, encontrar patrones y llegar a conclusiones en base a ellos de forma más eficiente que un ser humano. El problema, recuerda Benkler, es que “cuando se diseñan con fines de lucro, los algoritmos necesariamente divergen del interés público”.
“La aportación de las compañías para configurar el futuro de la IA es esencial, pero no pueden retener el poder que han adquirido para cercar la investigación sobre cómo sus sistemas impactan en la sociedad o sobre cómo evaluamos su efecto moralmente”, zanja el catedrático de Harvard.
Algunos países esperan en boxes
No son muchos los países que han decidido salirse del debate ético para entrar en el campo de la responsabilidad jurídica. Solo Alemania, Australia y Reino Unido han aprobado leyes (o están en sus últimas etapas de negociación) que imponen sanciones económicas a los ejecutivos de las compañías que empleen algoritmos sesgados, o responsabilidades civiles y penales claras cuando se demuestre que su inteligencia artificial ha producido un daño.
España no está entre esos países y no lo estará en un futuro próximo. Pedro Sánchez presentó en marzo la Estrategia para la Inteligencia Artificial en I+D+I. Constituye un mapa del camino que quiere recorrer el Gobierno y en qué estaciones de la automatización pretende detenerse.
Una de ellas es, por ejemplo, emplear los algoritmos para “controlar los costes sanitarios” y asegurar la sostenibilidad del sistema. Pero el plan no tiene presupuesto. Tampoco tiempos. Ni objetivos intermedios a alcanzar. Ni consenso parlamentario.
“Está muy verde”, opinó en conversación con este medio Julián Estévez, investigador en robótica e inteligencia artificial de la Universidad del País Vasco. El otro motor para avanzar era el Libro Blanco sobre IA, que desde 2017 prepara el Grupo de Sabios sobre Inteligencia Artificial y Big Data convocado por el Ministerio de Industria.
El documento aún no ha sido publicado. Uno de los miembros del grupo, Andrés Pedreño, asegura que el Libro está listo, pero que ha sido el Gobierno socialista quien ha congelado su salida a la luz.
¿Por qué? “No tengo una clara opinión al respecto”, responde Pedreño, catedrático y ex rector de la Universidad de Alicante. “Hubo un cambio político cuando el libro estaba muy avanzado, casi ultimado. Sí creo que es un retraso bastante difícil de justificar. Todos los países importantes tienen una estrategia en torno al Big Data y la IA, materializada además en una apuesta inversora relevante para los próximos años”.
Sobre el Libro Blanco, el miembro del grupo de sabios explica que establece las directrices para “potenciar un sector de la Inteligencia Artificial potente en nuestro país y una amplia aplicabilidad a sectores muy diversos”. “Por supuesto, el tratamiento jurídico y el tema de la ética fueron tratados de forma muy relevante y rigurosa.
En términos comparativos, respecto a informes precedentes de otros países, creo que se hizo un excelente trabajo”, manifiesta.
Borja Adsuara, jurista experto en derechos digitales, también colaboró en la redacción del Libro Blanco y tuvo acceso a uno de sus borradores.
Revela que la problemática entre ética y responsabilidad jurídica ha alcanzado al documento que debe marcar las normas de implantación de la inteligencia artificial en España. “Se mezclaban, no sé si interesadamente o no, aspectos éticos con aspectos jurídicos”, confiesa.
“Las máquinas operadas con Inteligencia Artificial no es que puedan producir perjuicios, es que los van a ocasionar. ¿Hay una preocupación por el desarrollo ético? La hay. Pero la preocupación jurídica es mucho mayor: ¿a quién metemos en la cárcel si pasan determinadas cosas? ¿A la máquina? ¿Quién debe asumir la responsabilidad? Eso es lo que necesitamos y no se está haciendo, un marco legal que aporte seguridad jurídica”, pide el experto.
Una de las primeras voces que alertó sobre el contexto propagandístico que domina la conversación en torno a los algoritmos fue precisamente una programadora, Cathy O’Neil. “La gente piensa que un algoritmo es un método para tratar de llegar a una verdad objetiva. Hemos desarrollado una fe ciega en ellos porque pensamos que hay una autoridad científica detrás”.
“Un algoritmo es algo tonto, básicamente un sistema de perfiles demográficos generado a partir del big data”, explicó.
O’Neil, matemática doctorada en Harvard, posdoctorada en el MIT, señaló que las grandes tecnológicas mienten cuando se descubre que un algoritmo tiene un sesgo discriminante. “Cada vez que ocurre algo así, las empresas se muestran sorprendidas.
En realidad es una reacción fingida, hay ejemplos de algoritmos discriminatorios por todas partes. Si admitieran que los algoritmos son imperfectos y que potencialmente pueden ser racistas o sexistas, ilegales, entonces tendrían que abordar este problema para todos los algoritmos que están utilizando”.
En España, una de las referentes en este campo es Helena Matute, catedrática de Psicología Experimental en la Universidad de Deusto.
Sus estudios han profundizado en las estrategias empleadas por la industria digital para lograr que sus usuarios acepten usar tecnologías potencialmente peligrosas para sus derechos privacidad sin adoptar una perspectiva crítica. También en las posibilidades de investigación que esta información proporciona a las empresas que la colectan.
“Su objetivo es ganar dinero, pero todo lo que haya en medio les da igual. El fin es vender, ya sea un producto o el presidente de un país. Conocen muy bien nuestras debilidades y nos llevan años luz en el conocimiento de determinados aspectos del comportamiento humano y cómo manipularlo”, señala la experta.
“Cuando hablamos de que usan nuestros datos no son solo los datos del email, la fecha de nacimiento o la calle donde vives. Muchos son sobre la personalidad, con los que hacen experimentos psicológicos y de manipulación del comportamiento. Es otro aspecto que las leyes actuales tampoco controlan”, alerta Matute: “Supone experimentación con humanos hecha sin consentimiento y sin ningún tipo de norma ética, algo que en la universidad está totalmente prohibido”, indica Eldiario.es.
Fuente: Iproup