Eres un bot? Presumimos que no. Aunque quién sabe. También suponemos que tú imaginas que estas líneas no las ha escrito un bot. Y ahí se acaban nuestras medias certezas. La duda que surge cuando no sabes si estás ante una persona de carne y hueso o un interlocutor de unos y ceros es cada vez más razonable.
El desembarco de los chatbots, asistentes virtuales y demás inteligencias artificiales ha normalizado las conversaciones con seres inexistentes y la constante mejora de estas tecnologías ha hecho que estos diálogos se vuelvan cada vez más naturales. ¿Eres capaz de determinar inequívocamente cuándo estás chateando con un bot? Es tan probable que esa incertidumbre acabe siendo nuestro pan de cada día, que Byron Reese, director de Gigaom, le ha puesto nombre: aiporia.
Nueva tecnología, nuevos palabros
De acuerdo con su inventor, esta palabra es la combinación de las siglas de artificial intelligence y el vocablo griego aporía (ἀπορία). Este último término, que en tiempos de Demócrito se utilizó para describir algo muy difícil de entender o interpretar, condensa para Reese el estado de confusión que acompaña a la incapacidad para distinguir entre personas y chatbots. Si fuésemos a acuñar su traducción al castellano, hablaríamos, quizás de iaporía. “La tecnología nos da nuevas experiencias, nuevas habilidades y nuevos problemas. Por ello, necesitamos nuevas palabras para no quedarnos atrás. La gran tecnología de nuestro tiempo, la inteligencia artificial, hará lo mismo: cambiará el mundo y con él, nuestro lenguaje”, asegura Reese.
Un ejemplo de estas situaciones que se prestan a la iaporía son para él los chats en tiempo real disponible en ciertas páginas web. “Podrías abrirlo y recibir un mensaje de Sarah, preguntando si necesitas ayuda”. Con este mensaje, explica, despliega tres posibles escenarios:
- Sarah es una persona.
- Sarah es una persona de otro país que no se llama así, pero se presenta como tal para resultar más accesible.
- Sarah es un chatbot.
“La confusión de la iaporía se magnifica por el hecho de que las tres anteriores pueden ser ciertas”, añade. La conversación puede haber empezado con un chatbotcomo interlocutor y haber pasado a instancias más humanas cuando sus exigencias se vuelven más complejas. “Si tu pregunta se eleva a una portavoz más sénior, tal vez ubicado en Estados Unidos, y tal vez, casualmente llamada Sarah”.
- ¿Es bueno? ¿Es malo?
En Datafloq reflexionan sobre las implicaciones de esta incertidumbre llamada a crecer. “Por un lado, no hay daño alguno en tener bots que trabajan para nosotros si se comportan como lo haría un humano. De hecho, para una mayor aceptación de la inteligencia artificial, lo difuso de estos límites podría parecer algo bueno”, razonan. Pero también ven riesgos en este nuevo estado de iaporía.
“Es una forma de engaño. Eso, en sí mismo, es un modo de daño ético”, sentencian. En este sentido, surge la necesidad de “combatir” la iaporíacon una aproximación más transparente a los usos futuros de la inteligencia artificial. “El modo más simple de conseguir esto es comenzar cualquier experiencia que implique inteligencia artificial con una declaración explícita que afirme que se trata de un bot“.
Fuente: Retina El Pais