La inteligencia artificial ha estado en los titulares durante casi una década, ya que los sistemas han avanzado rápidamente en desafíos de IA de larga data como el reconocimiento de imágenes, el procesamiento del lenguaje natural y los juegos. Las compañías tecnológicas han sembrado algoritmos de aprendizaje automático en los motores de búsqueda y de recomendación y sistemas de reconocimiento facial y de OpenAI GPT-3 y de DeepMind AlphaFold prometer incluso más aplicaciones prácticas, desde la escritura a la codificación de los descubrimientos científicos.
De hecho, estamos en medio de una primavera de IA, con una inversión en la tecnología floreciendo y un sentimiento predominante de optimismo y posibilidad hacia lo que puede lograr y cuándo.
Esta vez puede parecer diferente a los resortes de IA anteriores debido a las aplicaciones prácticas mencionadas anteriormente y a la proliferación de la IA estrecha en tecnologías que muchos de nosotros usamos todos los días, como nuestros teléfonos inteligentes, televisores, automóviles y aspiradoras, por nombrar solo algunas. Pero también es posible que estemos en una ola de progreso a corto plazo en IA que pronto se convertirá en parte del flujo y reflujo en el avance, la financiación y el sentimiento que ha caracterizado al campo desde su fundación en 1956.
La IA no ha cumplido muchas de las predicciones realizadas durante las últimas décadas; El 2020, por ejemplo, fue anunciado por muchos como el año en que los autos autónomos comenzarían a llenar las carreteras, transportando sin problemas a los pasajeros mientras se sentaban y disfrutaban del viaje. Pero el problema ha sido más difícil de lo previsto y, en lugar de hordas de taxis robot, los proyectos más avanzados siguen en fase de prueba. Mientras tanto, algunos en el campo creen que la forma dominante de IA, un tipo de aprendizaje automático basado en redes neuronales, pronto se quedará sin fuerza si no se produce una serie de avances cruciales.
En un artículo titulado Por qué la IA es más difícil de lo que pensamos , publicado la semana pasada en el servidor de preimpresión arXiv, Melanie Mitchell , profesora de informática en la Universidad Estatal de Portland actualmente en el Instituto Santa Fe , sostiene que la IA está estancada en un reflujo y … ciclo de flujo en gran parte porque todavía no comprendemos realmente la naturaleza y complejidad de la inteligencia humana. Mitchell divide este punto general en cuatro conceptos erróneos comunes en torno a la IA y analiza lo que significan para el futuro del campo.
1. El progreso en la inteligencia limitada es un avance hacia la inteligencia general
Los nuevos e impresionantes logros de la IA a menudo van acompañados de la suposición de que estos mismos logros nos acercan a alcanzar la inteligencia de la máquina a nivel humano . Pero no solo, como señala Mitchell, la inteligencia general y limitada es tan diferente como trepar a un árbol o aterrizar en la luna, sino que incluso la inteligencia limitada sigue dependiendo en gran medida de una gran cantidad de datos específicos de tareas y entrenamiento facilitado por humanos.
Tomemos GPT-3, que algunos citaron por haber superado la inteligencia “estrecha” : el algoritmo fue entrenado para escribir texto, pero aprendió a traducir, escribir código, autocompletar imágenes y hacer matemáticas, entre otras tareas. Pero aunque las capacidades de GPT-3 resultaron ser más extensas de lo que sus creadores podrían haber previsto, todas sus habilidades aún se encuentran dentro del dominio en el que fue entrenado: es decir, lenguaje, hablado, escrito y programación.
Convertirse en un experto en una habilidad no relacionada con el lenguaje sin entrenamiento indicaría inteligencia general, pero este no fue el caso con GPT-3, ni ha sido el caso con ninguna otra IA desarrollada recientemente: siguen siendo de naturaleza estrecha y , si bien son importantes en sí mismos, no deben combinarse con pasos hacia la comprensión profunda del mundo que se requiere para la inteligencia general.
2. Lo que es fácil para los humanos debería serlo para las máquinas.
¿Es la IA más inteligente que un niño de cuatro años? En la mayoría de los sentidos, la respuesta es no, y eso es porque las habilidades y tareas que percibimos como “fáciles” son en realidad mucho más compleja de lo que les damos el crédito para, una s paradoja de Moravec nota s.
Los niños de cuatro años son bastante buenos para descubrir relaciones de causa y efecto en función de sus interacciones con el mundo que los rodea. Si, por ejemplo, tocan una olla en la estufa y se queman un dedo, entenderán que la quemadura fue causada por la olla caliente, no por ser redonda o plateada. Para los humanos, esto es sentido común básico, pero los algoritmos tienen dificultades para hacer inferencias causales, especialmente sin un gran conjunto de datos o en un contexto diferente al que fueron entrenados.
Las percepciones y elecciones que tienen lugar a un nivel subconsciente en los seres humanos se basan en la experiencia y el aprendizaje de toda una vida, incluso en un nivel tan elemental como “tocar cosas calientes te quemará”. Debido a que llegamos a un punto en el que este tipo de conocimiento es reflexivo, ni siquiera requiere un pensamiento consciente, lo vemos como “fácil”, pero es todo lo contrario. “La IA es más difícil de lo que pensamos”, escribe Mitchell, “porque somos en gran parte inconscientes de la complejidad de nuestros propios procesos de pensamiento”.
3. El lenguaje humano puede describir la inteligencia de las máquinas
Los humanos tienen una tendencia a antropomorfizar las cosas no humanas, desde animales hasta objetos inanimados, robots y computadoras. Al hacerlo, usamos las mismas palabras que usaríamos para hablar sobre las actividades humanas o la inteligencia, excepto que estas palabras no encajan del todo en el contexto y, de hecho, pueden confundir nuestra propia comprensión de la IA. Mitchell usa el término “mnemotécnicas de deseos”, acuñado por un científico de la computación en la década de 1970. Palabras como “leer”, “comprender” y “pensar” se utilizan para describir y evaluar la IA, pero estas palabras no nos dan una descripción precisa de cómo funciona o progresa la IA.
Incluso “aprender” es un nombre inapropiado, dice Mitchell, porque si una máquina realmente “aprendiera” una nueva habilidad, sería capaz de aplicar esa habilidad en diferentes entornos; encontrar correlaciones en conjuntos de datos y usar los patrones identificados para hacer predicciones o cumplir con otros puntos de referencia es algo, pero no es “aprender” en la forma en que aprenden los humanos.
Entonces, ¿por qué tanto alboroto por las palabras, si son todo lo que tenemos y están entendiendo lo esencial? Bueno, dice Mitchell, este lenguaje inexacto no solo puede engañar al público y a los medios de comunicación, sino que también puede influir en la forma en que los investigadores de IA piensan sobre sus sistemas y llevan a cabo su trabajo.
4. La inteligencia está en nuestras cabezas
El último punto de Mitchell es que la inteligencia humana no está contenida únicamente en el cerebro, sino que requiere un cuerpo físico.
Esto parece explicarse por sí mismo; usamos nuestros sentidos para absorber y procesar información, e interactuamos y nos movemos por el mundo en nuestros cuerpos. Sin embargo, el énfasis predominante en la investigación de la IA está en el cerebro : comprenderlo, replicar varios aspectos de su forma o función y hacer que la IA se parezca más a ella .
Si la inteligencia viviera solo en el cerebro, podríamos acercarnos más a alcanzar la IA a nivel humano, por ejemplo, construyendo una red neuronal con el mismo número de parámetros que el cerebro tiene conexiones sinápticas, duplicando así la “capacidad de computación del cerebro”. . “
Dibujar este tipo de paralelo puede aplicarse en los casos en que la “inteligencia” se refiere a operar según un conjunto de reglas para trabajar hacia un objetivo definido, como ganar una partida de ajedrez o modelar la forma en que las proteínas se pliegan, cosas que las computadoras ya pueden hacer bastante. bien. Pero otros tipos de inteligencia están mucho más moldeados y sujetos a las emociones, los prejuicios y la experiencia individual.
Volviendo al ejemplo de GPT-3: el algoritmo produce inteligencia “subjetiva” (su propia escritura) usando un conjunto de reglas y parámetros que creó con un enorme conjunto de datos de inteligencia subjetiva preexistente (escritura por humanos). GPT-3 es aclamado como “creativo”, pero su escritura se basa en asociaciones que dibujó entre palabras y frases en la escritura humana, que está repleta de prejuicios, emociones, conocimiento preexistente, sentido común y la experiencia única del escritor de la mundo, todo experimentado a través del cuerpo.
Mitchell sostiene que los aspectos subjetivos y no racionales de la forma en que los humanos piensan y operan no son un obstáculo para nuestra inteligencia, sino que de hecho son su base y su facilitador . Líder artificial experto en inteligencia general Ben Goertzel de manera similar aboga por la “arquitectura de todo el organismo,” auto ing , “Los seres humanos son organismos tanto como la mente, y así logrando similar a la humana AGI requerirá la incorporación de sistemas de inteligencia artificial en los sistemas físicos capaces de interactuar con el día a día mundo humano en formas matizadas “.
¿A dónde vamos desde aquí?
Estos conceptos erróneos dejan pocas dudas sobre lo que los investigadores y desarrolladores de IA no deberían hacer. Lo que está menos claro es cómo avanzar. Debemos comenzar, dice Mitchell, con una mejor comprensión de la inteligencia, una tarea que no es pequeña ni sencilla. Sin embargo, un buen lugar donde los investigadores de IA pueden buscar es en otras disciplinas de la ciencia que estudian la inteligencia.
De todos modos, ¿por qué estamos tan decididos a crear una versión artificial de la inteligencia humana? Ha evolucionado durante millones de años y es enormemente complejo e intrincado, pero todavía está plagado de sus propias deficiencias. Quizás la respuesta sea que no estamos tratando de construir un cerebro artificial que sea tan bueno como el nuestro; estamos tratando de construir uno que sea mejor y que nos ayude a resolver problemas que actualmente no tienen solución.
La evolución humana tuvo lugar a lo largo de unos seis millones de años. Mientras tanto, han pasado 65 años desde que la inteligencia artificial se convirtió en un campo de estudio , y está escribiendo textos similares a los humanos, haciendo caras falsas , defendiéndose en los debates, haciendo diagnósticos médicos y más . A pesar de que hay mucho aún por aprender, parece AI está progresando bastante bien en el gran esquema de las cosas – y el siguiente paso en la toma que más se profundiza nuestra comprensión de nuestra propia mente.
Fuente:
Ramirez, V. B. (2021b, abril 22). Scientist George Church Is Auctioning Off His Genome as an NFT. Recuperado 23 de abril de 2021, de https://singularityhub.com/2021/04/22/scientist-george-church-is-auctioning-off-his-genome-as-an-nft/?utm_campaign=SU%20Hub%20Weekly%20Newsletter&utm_medium=email&_hsmi=123064086&_hsenc=p2ANqtz-_584eXc0XdGgeU3-e9Y7BAxca6lbNhmlzq1eJHUzOfDLx_94jgrNq_8wkxaY7suX0J6aqTNSBvgTeadKanCmDsLPCeWt8JqZr4eBdWGU5LT5-lelI&utm_content=123064086&utm_source=hs_email