La palabra algoritmo es una palabra de moda, que irrumpe con especial fuerza de la mano de términos como automatización, robotización, Inteligencia Artificial, Big Data… y un largo etcétera, que mezcla a los clásicos con los recién llegados. Un algoritmo es «un conjunto ordenado y finito de operaciones que permite hallar la solución de un problema» (RAE). Existen diferentes tipos, en función de las características de las operaciones que entrañan y las metodologías que incorporan. Así, por ejemplo, se habla de algoritmos genéticos cuando se usan mecanismos que simulan los de la evolución de las especies de la biología al formular los pasos en la búsqueda de la solución al problema. En general, los algoritmos adoptan la forma de fórmulas matemáticas, que son representaciones de un proceso de búsqueda de una solución.
Siempre hemos usado algoritmos. La cuestión es que, actualmente, juegan un papel protagonista, porque encuentran su máxima expresión y potencial al aplicarse sobre ingentes cantidades de datos, organizados de la manera más adecuada para su tratamiento en función del objetivo perseguido, y con posibilidades de cálculo a través de metodologías alternativas cuasi infinitas. Es evidente que el avance imparable del Internet de las Cosas supone la generación de gran cantidad de datos, que están accesibles y en constante crecimiento. Además, el desarrollo de las posibilidades de almacenamiento de esos datos para su posterior explotación, a través de herramientas típicas de Big Data -cualquier cantidad voluminosa de datos que tienen el potencial de ser extraídos para obtener información-, permite el tratamiento de datos masivos, así como estructuras de bases de datos más seguras, distribuidas y sofisticadas. Por ejemplo, la tecnología de ‘blockchain’ -cadena de bloques-, desarrollada de la mano de la implantación del bitcoin -una nueva forma de moneda-, permite una estructura de los datos agrupados de manera que se articulan en bloques descentralizados, relacionados y compartidos en la red. Íntimamente relacionada con estas tecnologías tenemos la criptografía, que trata de la creación de algoritmos para garantizar la seguridad en las comunicaciones y la privacidad de sus usuarios.
Se configura, así, un rico ecosistema de datos en constante crecimiento y evolución que supone una verdadera mina para aplicar algoritmos de diferente naturaleza, si tenemos en cuenta, además, el incremento de la capacidad de computación de esos datos, almacenados en ordenadores cada vez más potentes, capaces de procesar ingentes cantidades de ellos en un tiempo cada vez menor. Se habla de nuevas generaciones de ordenadores cuánticos que supondrían un salto gigantesco en relación con la capacidad de los ordenadores actuales. Los ordenadores, a su vez, interactúan, se conectan y se incorporan de manera física en todo tipo de dispositivos e instrumentos mecánicos que, a través de la robótica, hacen de las máquinas verdaderos autómatas con capacidad de ejecución de las tareas físicas más complejas.
Detrás de todo ello están los algoritmos, que hacen posible que esas cosas pasen y nos lleven a hablar de Inteligencia Artificial (IA), cuando una máquina del tipo que sea es capaz de hacer cosas que parecían reservadas a los humanos. Así, la IA se identifica con formas sofisticadas de algoritmos, de manera que no deja de ser una forma de automatización avanzada. El debate acerca del alcance y naturaleza de la IA es un debate abierto, que nos va a acompañar en los próximos años.
El auge de los algoritmos, junto con las grandes y prometedoras posibilidades que abre, plantea algunos desafíos. Como apunta Lorena Jaume-Palasí, «la IA y sus algoritmos no son neutrales, sino el reflejo de las intenciones y el sesgo involuntario del equipo de programadores, científicos de datos y entidades envueltas en la implementación de esa tecnología». Aplicados sobre bases de datos ya existentes con sus condicionantes de partida, las conclusiones que se sacan y se aplican profundizan en «sesgos confirmatorios». Esta consideración apunta a uno de los peligros de la utilización de los algoritmos, que, como señala la tecnóloga Kate Crawford, pueden marginar a las minorías al reproducir tendencias, por lo que podrían resultar tremendamente discriminatorios.
Por otra parte, el grado de sofisticación de los algoritmos amenaza con el desconocimiento acerca de cómo operan realmente. Dado que son algoritmos sofisticados capaces de aprender en su propia aplicación, puede llegar un momento en el que los humanos no seamos capaces de seguir la secuencia lógica de aplicación del algoritmo, y no seamos capaces de explicar el por qué del resultado de su aplicación. Cuando vayamos a pedir explicaciones al banco sobre las razones por las que se nos ha denegado el préstamo solicitado, el responsable nos dirá que porque lo ha dicho el algoritmo, que no saben explicar cómo funciona pero goza de toda su confianza…
La mezcla del sesgo confirmatorio con el desconocimiento -saber que reproducen tendencias y no saber cómo funcionan- puede derivar en una verdadera dictadura de los algoritmos, ante los que nos encontraríamos desvalidos -«lo dice el sistema y punto»-. Por eso es fundamental desarrollar un pensamiento crítico activo que nos lleve gobernar la tecnología y sus aplicaciones, poniendo su tremendo potencial de transformación al servicio del progreso de las personas.
Fuente:
Diario Vasco. (2019, 11 agosto). El poder de los algoritmos. Recuperado 12 agosto, 2019, de https://www.diariovasco.com/opinion/poder-algoritmos-20190811003431-ntvo.html