Yuval Noha Harari expresó en su obra Homo Deus (2017. P.341) “a lo largo de las últimas décadas ha habido un avance inmenso en la inteligencia informática (inteligencia Artificial) pero el avance en la conciencia informática ha sido nulo….los humanos corren el riesgo de perder su valor porque la inteligencia se está desconectando de la conciencia”.
Esto lo escribió cuando todavía no existían los ChatGPT 3 y 4 de OpenAI y el Bing de Microsoft, ni el Bard de Google, que hoy son vistos por muchos como los nuevos dioses que darán las respuestas que necesitan respecto a todos los problemas que nos aquejan, lo cual es una flagrante mentira.
¿deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? Esa es la pregunta central que se plasmó en la carta abierta que emitiera el Future Life Institute, carta que fue firmada por más de mil personajes, entre los cuales están Elon Musk, Steve Wozniak, Andrew Yang, Emad Mostaque e investigadores de DeepMind, para solicitar a las empresas, laboratorios y creadores de IA, que pausen de inmediato durante 6 meses, el entrenamiento de los sistemas de IA más potentes que el GPT-4, porque ya están en una carrera sin control por dominar el mercado.
Esta tecnología de IA representa un riesgo para la sociedad, por los plagios y la desinformación, dado que carece de capacidad crítica (N. Chomsky 2023), equivalente a mutilar el pensamiento analítico, con ello la capacidad de aprender, y el sentido de la ética, fomentando una falsa ciencia, por su incapacidad de poder explicar, dado que solo realiza correlaciones de la información que dispone, sólo puede construir textos, imágenes y voz, con la información que tiene, pero carecen de originalidad, son repeticiones sin conciencia, porque no aprende, ni siente, solo imita.
Las transnacionales tecnológicas como Microsoft y Google han realizado millonarias inversiones, para construir poderosos motores de búsqueda incrementando su potencial de procesamiento, lo que implica también un exponencial incremento de consumo de energía, propiciando una exponencial emisión de carbono, este es su otro lado oscuro.
El incremento de la capacidad de procesamiento como el entrenamiento de los grandes modelos de lenguaje (LLM) que son los GPT, así como las necesidades de refrigeración de los numerosos servidores y centros tecnológicos, generan en conjunto, grandes emisiones de carbono, incrementando los riesgos del cambio climático, dice Alan Woodward especialista en ciberseguridad de la Universidad de Surrey del Reino Unido.
Por su parte la Organización Mundial de la Propiedad Intelectual (OMPI 2019) considera que la naturaleza de la IA y los problemas que puede plantear para la humanidad, no dejan de ser motivo de una gran preocupación; si bien la IA surgió en 1956, en el marco del proyecto de verano de Darmouth EU, dio el salto exponencial entre 2011 y 2017 de forma tal que para 2019 había ya 1,6 millones de publicaciones y más de 340 mil solicitudes de patente.
Fue el aprendizaje automático (Machine Learning) la IA dominante, ya que representó el 40% del total de las patentes de IA, el aprendizaje profundo y las redes neuronales registraron un incremento del 175% anual.
De las 500 principales solicitantes de IA, 333 son empresas localizadas en EU, de las cuales las principales son IBM y Alphabeth-Google, 167 son universidades y organizaciones públicas de investigación, de las cuales 110 están en China. Lo anterior evidencia que las tecnológicas norteamericanas son las que dominan el mercado de la IA.
La carta del Future Life Institute, es muy importante ¿pero le harán caso? lo que resulta de mayor contundencia, es lo que ya inició la Unión Europea, crear una Ley de Inteligencia Artificial, cuyo objetivo es fortalecer la posición de Europa como centro global de excelencia en IA, desde el laboratorio hasta el mercado, determinando el nivel de riesgo que puede representar para la salud y la seguridad, como para los derechos fundamentales de las personas. Son 4 los niveles de riesgo: inaceptable, alto, limitado y mínimo.
Por el alto riesgo de la IA, la confianza es imprescindible no agradable, dice Margrete Vestager, vicepresidenta ejecutiva para la era digital en Europa.
El Lado Oscuro de la Inteligencia Artificial De los ChatsGPT