La búsqueda constante de una sociedad en la que los algoritmos cada vez pesan más o en el que existan seres humanos mejorados plantea reflexiones morales que en muchas ocasiones llegan con retraso. Resulta fundamental tener claros los límites antes de que la ciencia haga posible ciertos avances.
Elena Postigo, profesora de Bioética de la Universidad Francisco de Vitoria, advierte de estos peligros: “Los avances en biotecnología y neurociencia nos acercan cada vez más a esa idea de transhumanos con capacidades aumentadas, pero los planes de estudio no enseñan hábitos morales para que los científicos desarrollen una conciencia crítica sobre sus quehaceres”. La profesora intervino recientemente en un debate sobre tecnoética organizado por la Fundación Telefónica.
Según Postigo, es necesario fijar estos límites antes de que las leyes, las normas deontológicas o los protocolos de actuación regulen los posibles conflictos derivados de alterar nuestras bases biológicas, como una nueva estratificación social con profundas desigualdades.
“Criticar la tecnología es la mejor manera de amarla”
Jaron Lanier
Para ello, la formación de los médicos, biotecnólogos y científicos debe ir acompañada de una reflexión antropológica en torno a quiénes somos, hacia dónde vamos, qué medios debemos utilizar para ello y cuáles serán los instrumentos más adecuados para evolucionar teniendo en mente conceptos como lo deseable, lo mejor, lo responsable, lo prudencial, lo justo, el respeto de las libertades o la protección de los más vulnerables. “Tiene que ser una reflexión intrínseca, consustancial al mismo quehacer de esos profesionales y que debe darse a la par de sus investigaciones, nunca después”, apunta Postigo.
Ese mismo retraso a la hora de someter a juicio la tecnología es lo que ya ha propiciado “una sociedad digital diseñada para manipular”, según Jaron Lanier. Este filósofo, músico e investigador pionero en el ámbito de la realidad virtual afirma que criticar la tecnología es “la mejor manera de amarla”, puesto que únicamente a través del debate podremos cambiar el rumbo y crear un nuevo mundo virtual que sea sostenible, así como “menos oscuro y alocado”.
En este contexto, Lanier hace un llamamiento para acabar con “esos enormes sistemas algorítmicos” que nos espían para implantar técnicas de adicción y de modificación del comportamiento similares a las que convierten a las personas en ludópatas: “Hemos permitido que las grandes compañías, con una enorme sed de datos, implanten un modelo de negocio que domina internet y que está impulsando los sistemas de inteligencia artificial, con lo que nos acercamos a la creación de un nuevo orden económico donde lo importante es captar información pero sin darle ningún valor a las personas”.
Lanier considera que salir de esta situación es complicado, dado que nos enfrentamos a una adición “a gran escala” donde casi nadie quiere hablar del problema al haberse creado grandes intereses comerciales. Pero aun así se muestra optimista y confía en que las voces críticas acabarán por impulsar el uso de la tecnología de una forma positiva.
Se trata de una opinión compartida por el experto en identidad y marcas Andy Stalman, que aboga por recuperar la capacidad de duda, de criticar para mejorar: “Debemos dejar a un lado la dictadura del algoritmo y poner en valor la democracia de las personas”. Según Stalman, hoy en día una de las cuestiones que debe preocuparnos es quiénes son los encargados de programar los algoritmos. “¿Qué diferencias hay entre una misma inteligencia artificial (IA) cargada por distintos gobiernos? Estamos depositando recursos y energías en las nuevas tecnologías, pero no debemos desatender los grandes desafíos como sociedad y humanidad”, señala.
- Una IA razonada, transparente y justa
Precisamente, a mediados de septiembre IBM respondió a algunas de estas reivindicaciones con el lanzamiento de un servicio que detecta automáticamente los posibles sesgos introducidos al programar una IA y proporciona la explicación sobre las decisiones tomadas a partir de algoritmos. Se trata de una solución automatizada que no solo describe qué criterios y factores de confianza utilizan los algoritmos para llegar a una recomendación, sino que también detecta resultados potencialmente injustos y detalla qué otros datos deben añadirse al modelo con el fin de resolver los sesgos identificados.
“La inteligencia artificial no puede ser una caja negra. Si una solución concreta de IA no puede explicar cómo y con qué criterios elabora sus recomendaciones, no debería utilizarse. Solo la IA razonada, transparente y justa sobrevivirá”, afirma Marta Martínez, directora de IBM en España, Portugal, Grecia e Israel.
Según Martínez, el objetivo final de esta propuesta es que las personas, y no la tecnología, seamos las responsables “activas y únicas” de un futuro ético inclusivo y mejor. En este mismo sentido, Fernando Broncano, catedrático de Filosofía de la Ciencia en la Universidad Carlos III de Madrid, estima que ahora vivimos cada vez más en un presente continuo porque vemos el futuro con miedo “o al menos con indiferencia”.
Por eso, Broncano advierte de la necesidad de hacer más deseable el día de mañana, pero no en el sentido determinista de adaptarnos a lo que vendrá, sino que más bien debemos pararnos a debatir cómo debería ser la tecnología para que fuera posible interactuar con ella en una sociedad apetecible.
“Los que aún tenemos algún tipo de responsabilidad en el orden intelectual, político, económico o social debemos pensar en qué tipo de tecnología deberíamos tener y abordar ese futuro mediante trayectorias que permitan transformar el entorno con compromisos morales que no deben separar la tecnología de lo humanístico, lo educativo, lo cultural, lo económico o lo político”, aclara Broncano.