Cuando SOPHIA THE ROBOT se  encendió por primera vez, el mundo no podía tener suficiente. Tenía una personalidad alegre, bromeaba con los anfitriones nocturnos, tenía expresiones faciales que hacían eco de la nuestra. Aquí estaba, finalmente, un robot arrancado directamente de la ciencia ficción, lo más cercano a la verdadera inteligencia artificial que jamás habíamos visto.

No hay duda de que Sophia es una impresionante obra de ingeniería. Hanson Robotics y SingularityNET, que colaboran con empresas de tecnología de barra oblicua, equiparon a Sophia con redes neuronales sofisticadas que le dan la capacidad de aprender de las personas y  detectar y reflejar respuestas emocionales , lo que hace que parezca que el robot tiene una personalidad. No tomó mucho convencer a la gente de la aparente humanidad de Sophia;  muchos de los artículos del Futurismo se refieren al robot  como “ella”. Piers Morgan incluso decidió probar suerte  para una cita y / o acosar sexualmente al robot, dependiendo de cómo quieres mirarlo

“Oh, sí, ella está básicamente viva”, dijo el CEO de Hanson Robotics, David Hanson, sobre Sophia durante una aparición en 2017 en el Tonight Show de Jimmy Fallon . Y mientras Hanson Robotics nunca afirmó oficialmente que Sophia contenía inteligencia general artificial (la IA completa y realista que vemos en la ciencia ficción), la adoración y la prensa no crítica que siguió a todas esas apariciones públicas solo ayudó a la compañía a crecer.

Ben Goertzel , director ejecutivo de SingularityNET y científico jefe de Hanson Robotics, no se hace ilusiones sobre lo que es capaz de hacer Sophia. “Sophia y los otros robots Hanson no son realmente ‘puros’ como sistemas de investigación en ciencias de la computación, porque combinan muchas piezas y aspectos diferentes de maneras complejas. “No son sistemas de aprendizaje puro, pero sí implican el aprendizaje en varios niveles (aprendizaje en sus sistemas visuales de redes neuronales, aprendizaje en sus sistemas de diálogo OpenCog, etc.)”, dijo a Futurism.

Pero está interesado en descubrir que Sophia inspira muchas reacciones diferentes del público. “La percepción pública de Sophia en sus diversos aspectos, su inteligencia, su apariencia y su amabilidad, parece estar en todo el mapa, y esto me parece bastante fascinante”, dijo Goertzel.

A Hanson le resulta desafortunado que la gente piense que Sophia es capaz de más o menos de lo que realmente es, pero también dijo que no le importan los beneficios de la exageración adicional. Hype que, una vez más, se ha visto reforzado por los repetidos trucos publicitarios de las dos compañías.

“Sophia y los otros robots Hanson no son realmente ‘puros’ como sistemas de investigación en ciencias informáticas …”Proyectos altamente publicitados como Sophia nos convencen de que la verdadera inteligencia artificial (similar a la humana y quizás incluso consciente) está a la vuelta de la esquina. Pero en realidad, ni siquiera estamos cerca.

El verdadero estado de la investigación de la IA ha quedado muy por detrás de los cuentos de hadas tecnológicos que nos han hecho creer. Y si no tratamos la IA con una dosis más sana de realismo y escepticismo, el campo puede quedar atrapado en esta rutina para siempre.

FALTAR UNA VERDADERA definición de inteligencia artificial es difícil. El campo de la IA, constantemente remodelado por los nuevos desarrollos y los cambios en los objetivos, a veces se describe mejor explicando lo que no es.

“La gente piensa que AI es un robot inteligente que puede hacer las cosas que una persona muy inteligente haría: un robot que sabe todo y puede responder cualquier pregunta”, dijo a Futur Emad Mousavi , científico de datos que fundó una plataforma llamada QuiGig que conecta a los profesionales independientes. Pero esto no es lo que realmente quieren decir los expertos cuando hablan de IA. “En general, AI se refiere a programas de computadora que pueden completar varios análisis y usar algunos criterios predefinidos para tomar decisiones”.

Entre los objetivos siempre lejanos para la inteligencia artificial a nivel humano (HLAI) se encuentran la capacidad de comunicarse de manera efectiva: los chatbots y los procesadores de lenguaje basados ​​en el aprendizaje automático se esfuerzan por inferir significados o comprender matices, y la capacidad de continuar aprendiendo a lo largo del tiempo. En la actualidad, los sistemas de inteligencia artificial con los que interactuamos, incluidos los que se están desarrollando para autos que conducen por sí mismos , realizan todo su aprendizaje antes de que se implementen y luego se detienen para siempre.

“Son problemas que son fáciles de describir pero que no pueden resolverse para el estado actual de las técnicas de aprendizaje automático”, dijo  Tomas Mikolov , científico investigador de Facebook AI, al Futurism.

En este momento, la inteligencia artificial no tiene libre albedrío y, ciertamente, no es consciente: dos supuestos que las personas tienden a hacer cuando se enfrentan a tecnologías avanzadas o exageradas, dijo Mousavi. Los sistemas de IA más avanzados que existen son simplemente productos que siguen procesos definidos por personas inteligentes. No pueden tomar decisiones por su cuenta.

En el aprendizaje automático, que incluye el aprendizaje profundo y las redes neuronales, se presenta un algoritmo con una gran cantidad de datos de entrenamiento (ejemplos de lo que el algoritmo está aprendiendo a hacer, etiquetado por personas) hasta que puede completar la tarea por sí solo. Para el software de reconocimiento facial, esto significa colocar miles de fotos o videos de caras en el sistema hasta que pueda detectar de manera confiable una cara de una muestra sin etiquetar.

Nuestros mejores algoritmos de aprendizaje automático son generalmente solo memorizar y ejecutar modelos estadísticos. Llamarlo “aprender” es antropomorfizar máquinas que operan en una longitud de onda muy diferente de nuestros cerebros. La inteligencia artificial es ahora un término tan importante que prácticamente cualquier programa de computadora que hace algo automáticamente se conoce como IA.

La inteligencia artificial es ahora un término tan importante que prácticamente cualquier programa de computadora que hace algo automáticamente se conoce como IA.Si entrenas un algoritmo para sumar dos números, solo buscará o copiará la respuesta correcta de una tabla, explicó Mikolov, el científico de la IA de Facebook. Pero no puede generalizar una mejor comprensión de las operaciones matemáticas de su entrenamiento. Después de saber que cinco más dos son siete, usted como persona podría darse cuenta de que siete menos dos son cinco. Pero si le pide a su algoritmo que reste dos números después de enseñarle a sumar, no podrá hacerlo.  La inteligencia artificial, por así decirlo, fue entrenada para agregar, no para entender lo que significa agregar. Si quieres restar, tendrás que entrenarlo todo de nuevo, un proceso que borra notoriamente todo lo que el sistema de inteligencia artificial había aprendido previamente .

“En realidad, a menudo es más fácil comenzar a aprender desde cero que intentar volver a entrenar el modelo anterior”, dijo Mikolov.

Estas fallas no son un secreto para los miembros de la comunidad de AI. Sin embargo, a pesar de todo, estos sistemas de aprendizaje automático a menudo se consideran la vanguardia de la inteligencia artificial. En verdad, en realidad son bastante tontos.

Tomemos, por ejemplo, un algoritmo de subtitulado de imágenes. Hace unos años, uno de ellos recibió una amplia cobertura  debido al sofisticado lenguaje que parecía generar.

“Todos quedaron muy impresionados por la capacidad del sistema, y ​​pronto se descubrió que el 90 por ciento de estas leyendas se encontraban en los datos de entrenamiento”, dijo Mikolov al Futurismo. “Así que en realidad no fueron producidos por la máquina; La máquina simplemente copió lo que vio que los anotadores humanos proporcionaban una imagen similar, por lo que parecía tener una gran complejidad interesante “. pegar.

“No es una inteligencia de máquina con la que te estás comunicando. Puede ser un sistema útil por sí solo, pero no es AI ”, dijo Mikolov. Dijo que les tomó un tiempo a las personas darse cuenta de los problemas con el algoritmo. Al principio, no estaban más que impresionados.

Crédito de la imagen: Victor Tangermann

¿A dónde fuimos tan fuera de curso? El problema es cuando nuestros sistemas actuales, que son tan limitados, se comercializan y promocionan hastael punto de que el público cree que tenemos tecnología que no tenemos ni idea de cómo construir.

“Con frecuencia me entretiene ver cómo mi investigación adquiere proporciones exageradas a medida que avanza en los medios”, dijo Nancy Fulda , una científica informática que trabaja en sistemas más amplios de inteligencia artificial en la Universidad Brigham Young, a Futurism. Los reporteros que la entrevistan suelen ser bastante conocedores, dijo. “Pero también hay sitios web que recogen esas historias principales e informan sobre la tecnología sin una comprensión sólida de cómo funciona. Todo es un poco como un juego de ‘teléfono’: los detalles técnicos del proyecto se pierden y el sistema comienza a parecer voluntario y casi mágico. En algún momento, ya casi no reconozco mi propia investigación “.

“En algún momento, casi no reconozco mi propia investigación”.Algunos investigadores mismos son culpables de avivar esta llama. Y luego los reporteros que no tienen mucha experiencia técnica y no miran detrás de la cortina son cómplices. Peor aún, algunos periodistas están contentos de seguir el juego y agregar un poco de entusiasmo a su cobertura.

Otros actores problemáticos: las personas que hacen un algoritmo de IA presentan el trabajo de back-end que  hicieron como la salida creativa de ese algoritmo. Mikolov llama a esto una práctica deshonesta relacionada con el juego de manos. “Creo que es bastante engañoso que algunos investigadores que están muy conscientes de estas limitaciones estén tratando de convencer al público de que su trabajo es IA”, dijo Mikolov.

Eso es importante porque la forma en que la gente piensa que la investigación de la IA se está desarrollando dependerá de si quieren que se le asigne dinero. Este bombo injustificado podría estar impidiendo que el campo realice un progreso real y útil. Las inversiones financieras en inteligencia artificial están inexorablemente vinculadas al nivel de interés (léase: publicidad) en el campo. Ese nivel de interés, y las inversiones correspondientes, fluctúan enormemente cuando Sophia tiene una conversación forzada o algún nuevo algoritmo de aprendizaje automático logra algo ligeramente interesante. Eso hace que sea difícil establecer un flujo de capital constante y de base en el que los investigadores puedan confiar, sugirió Mikolov.

Mikolov espera algún día crear un asistente de inteligencia artificial verdaderamente inteligente, un objetivo que le dijo al Futurismo todavía es un sueño lejano. Hace unos años, Mikolov, junto con sus colegas en Facebook AI,  publicaron un documento que  describía cómo esto podría ser posible y los pasos que podría tomar para llegar allí. Pero cuando hablamos en la Multi-Conferencia Conjunta sobre Inteligencia Artificial a Nivel Humano celebrada en agosto por GoodAI, empresa de AI con sede en Praga, Mikolov mencionó que muchas de las avenidas que la gente está explorando para crear algo como esto probablemente sean callejones sin salida.

Uno de estos probables callejones sin salida, desafortunadamente, es el aprendizaje por refuerzo. Los sistemas de aprendizaje de refuerzo, que se enseñan a sí mismos a completar una tarea a través de la experimentación basada en pruebas y errores en lugar de usar datos de entrenamiento (piense en un perro que busca palos para las golosinas), a menudo se venden en exceso, según John Langford , investigador principal de Microsoft AI. Langford dijo que casi en cualquier momento alguien se jacta de un sistema de inteligencia artificial para el aprendizaje por refuerzo, en realidad le dieron algunos atajos o limitaron el alcance del problema que se suponía que debía resolver en primer lugar.

El bombo que proviene de este tipo de algoritmos ayuda al investigador a vender su trabajo y obtener subvenciones. La gente de la prensa y los periodistas lo utilizan para atraer audiencias a sus plataformas. Pero el público sufre: este círculo vicioso deja a todos los demás inconscientes de lo que realmente puede hacer la IA.

Hay señales reveladoras, dice Mikolov, que pueden ayudarte a ver a través de la dirección errónea. La mayor señal de advertencia es si usted, como persona lega (y posible cliente) tiene permiso para demostrar la tecnología por sí mismo.

“Un mago le pedirá a alguien del público que pruebe que la configuración es correcta, pero la persona seleccionada específicamente por el mago está trabajando con él. Entonces, si alguien te muestra el sistema, es muy probable que simplemente te engañen “, dijo Mikolov. “Si conoce los trucos habituales, es fácil romper todos estos sistemas llamados inteligentes. Si eres al menos un poco crítico, verás que lo que [los supuestamente [los chatbots supuestamente dirigidos por AI] están diciendo es muy fácil de distinguir de los humanos ”.

Mikolov sugiere que deberías cuestionar la inteligencia de cualquiera que intente venderte la idea de que superó la Prueba de Turing y creó un chatbot que puede mantener una conversación real. Una vez más, piense en el diálogo preparado de Sophia para un evento determinado.

“Tal vez no debería ser tan crítico aquí, pero simplemente no puedo ayudarme a mí mismo cuando tienes estas cosas como la cosa de Sophia y demás, donde están tratando de hacer impresiones de que se están comunicando con el robot”. “Mikolov le dijo al Futurismo.” Desafortunadamente, es bastante fácil para la gente caer en estos trucos de mago y caer en la ilusión, a menos que seas un investigador de aprendizaje automático que conozca estos trucos y sepa qué hay detrás de ellos “.

Desafortunadamente, tanta atención a estos proyectos engañosos puede obstaculizar el progreso de personas con ideas verdaderamente originales y revolucionarias. Es difícil obtener fondos para construir algo nuevo, algo que podría llevar a una IA que pueda hacer lo que la gente ya espera que pueda hacer, cuando los capitalistas de riesgo solo quieren financiar la próxima solución de aprendizaje automático .

Si queremos que esos proyectos prosperen, si alguna vez queremos dar pasos tangibles hacia la inteligencia general artificial, el campo tendrá que ser mucho más transparente sobre lo que hace y lo que importa.

“Tengo la esperanza de que habrá algunas personas súper inteligentes que vendrán con algunas ideas nuevas y no solo copiarán lo que se está haciendo”, dijo Mikolov. “Hoy en día es una pequeña mejora incremental. Pero habrá personas inteligentes con nuevas ideas que harán avanzar el campo “.

Fuente: Futurism

Comenta:

Comentarios


Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *