Los avances de la inteligencia artificial (AI, por sus siglas en inglés) son más que notables en campos como el reconocimiento facial y de imagen. Los algoritmos son capaces de reconocer y transcribir textos con bastante precisión, aunque todavía les queda camino en la comprensión del contexto. ¿Cuánto tendremos que esperar para que las máquinas sean más inteligentes que los humanos?
Joanna Bryson (Milwaukee, 1965) se muestra sonriente desde el comienzo de la entrevista. Se encuentra animada apenas unas horas antes de salir al escenario para presentar el último libro de OpenMind, el portal divulgativo de BBVA. Pero al escuchar la pregunta, su semblante se torna reflexivo. La investigadora y profesora asociada del departamento de computación de la Universidad de Bath (Reino Unido) muestra en sus gestos la preocupación por escoger las palabras más acertadas, sobre todo ante una pregunta que, en su opinión, precisa matices. “Los árboles son más altos que los humanos, pero no son mejores que los humanos, solo son más altos. Son áreas diferentes”, señala. “Hablamos de inteligencia porque nos consideramos el animal más inteligente, pero el aprendizaje de las máquinas no puede medirse por los mismos patrones”.
A pesar de estas diferencias, podemos profundizar en este tema si sentamos una definición de lo que entendemos por inteligencia. Para Bryson, se trata de la capacidad para afrontar los cambios de su entorno para aprovechar las oportunidades y enfrentarse a los desafíos que se presentan. En estos términos, una planta es inteligente, ya que crece hacia la luz. Esta reacción no representa una amenaza en sí misma; es una cuestión de supervivencia. “Si hablamos del ser humano, no tenemos por qué temer a las personas inteligentes, sino a las ambiciosas, competitivas y destructivas”, razona. “Y no existe razón para construir máquinas con estas características”.
La investigadora lamenta que mucha gente piense que la AI está haciendo algo por sí misma y le preocupe cómo controlarla. “La AI no hace nada por su cuenta; se supedita a las personas que desarrollan los algoritmos”, indica.
Los riesgos que vienen asociados a los dispositivos conectados representan un buen ejemplo de esta percepción errónea. Si pensamos en un asistente virtual, nos damos cuenta de que un fallo de seguridad puede llevar a un hacker a averiguar cuándo estamos en casa o cómo se llaman nuestros hijos. Tal vez estas compañías puedan utilizar la información que recaban de nosotros para incitarnos a comprar determinados productos e incluso podrían empujarnos a apostar si somos adictos al juego. Cuesta imaginar que alguien se sienta cómodo ante esta perspectiva. “El problema en estos supuestos está en la relación que estableces con la empresa y sus mecanismos de ciberseguridad. Pero no lo vemos así, porque hemos personificado el dispositivo y es con él con quien creemos que tenemos esta relación”, aclara Bryson.
La AI no hace nada por su cuenta; se supedita a las personas que desarrollan los algoritmos
No obstante, existe una corriente de pensamiento que alerta de los peligros que tendría la creación de una superinteligencia para la humanidad. Esta teoría cuenta entre sus defensores con figuras de peso como el filósofo Nick Bostrom o el empresario Elon Musk. La investigadora estadounidense se muestra profundamente crítica con esta visión de futuro, que no ve en absoluto fundamentada: “Un grupo de multimillonarios del sector con mucho dinero para financiar empresas tecnológicas invierte millones de dólares para difundir el mensaje de que la AI es una amenaza existencial”, expone. “Han creado este discurso para comercializar la ética de la AI, pero lo cierto es que no representa ninguna amenaza en sí misma”.
Aunque la preocupación por la existencia de una superinteligencia desaparezca, Bryson no niega que existan otros retos en torno al desarrollo de esta tecnología que debamos tener presentes. Uno de los principales es el sesgo de los algoritmos, que suelen asociar, por ejemplo, género masculino cuando les hablamos de un médico. “Hace unos años, elaboramos un estudio en el que la máquina terminó por replicar estos prejuicios, pero también demostramos que estos prejuicios tienen un 90% de correlación con la realidad de los trabajos que tienen hombres y mujeres”, recuerda. “Los algoritmos se limitaban a reflejar nuestra realidad experimentada”.
Teniendo esto en cuenta, la investigadora no es partidaria de alterar los datos para educar a las máquinas en una sociedad diversa que todavía estamos lejos de alcanzar. Argumenta que quien piense que puede cambiar nuestra cultura por medio de algoritmos matemáticos no está teniendo en cuenta la complejidad del funcionamiento de una sociedad. Y, en el caso de que fuera posible, ¿estaríamos dispuestos a que fuese Google quien definiera cómo hacerlo? ¿Estaríamos de acuerdo en que una administración pública decidiese bajo qué criterios deben regirse las máquinas? “Tenemos que utilizar las herramientas de las que disponemos para ayudar a mejorar nuestra sociedad, pero tenemos que hacerlo colectivamente. No creo que sea una buena idea hacerlo por decreto”, sentencia.
Fuente: Retina El Pais