No pasa un día sin un fragmento fascinante sobre los éticos desafíos creados por los sistemas de inteligencia artificial de “caja negra”. Estos utilizan el aprendizaje automático para descubrir patrones dentro de los datos y tomar decisiones, a menudo sin que un humano les dé ninguna base moral sobre cómo hacerlo.
Los clásicos del género son las tarjetas de crédito acusadas de otorgar préstamos más grandes a hombres que a mujeres, simplemente en qué género obtuvieron las mejores condiciones de crédito en el pasado. O las IA de reclutamiento que descubrieron que la herramienta más precisa para la selección de candidatos fue encontrar CV que contenga la frase “hockey sobre césped” o el nombre “Jared”.
Más en serio, el ex director ejecutivo de Google, Eric Schmidt, se asoció recientemente con Henry Kissinger para publicar The Age of AI: And Our Human Future , un libro que advierte sobre los peligros de los sistemas de inteligencia artificial de aprendizaje automático tan rápido que podrían reaccionar a misiles hipersónicos disparando armas nucleares. antes de que cualquier humano entrara en el proceso de toma de decisiones. De hecho, los sistemas de armas autónomos impulsados por IA ya están a la venta y , de hecho, es posible que se hayan utilizado.
En algún lugar de la máquina, la ética es claramente una buena idea.
IA en Oxford
Por lo tanto, es natural que incluyamos la ética de la IA en nuestro diploma de posgrado en inteligencia artificial para empresas en Said Business School de Oxford. En su primer año, hemos realizado sesiones sobre todo, desde los sistemas automatizados de comercio de acciones impulsados por inteligencia artificial en Singapur, hasta los límites del reconocimiento facial en la policía de EE. UU.
Recientemente terminamos el curso con un debate en la celebrada Oxford Union, crisol de grandes polemistas como William Gladstone, Robin Day, Benazir Bhutto, Denis Healey y Tariq Ali. Junto con los estudiantes, permitimos que contribuyan una IA real.
Se trataba del Megatron Transformer , desarrollado por el equipo de Applied Deep Research del fabricante de chips informáticos Nvidia, y basado en trabajos anteriores de Google. Como muchas herramientas de aprendizaje supervisado, se entrena con datos del mundo real; en este caso, la totalidad de Wikipedia (en inglés), 63 millones de artículos de noticias en inglés de 2016 a 2019, 38 gigabytes de discurso de Reddit (que debe ser un bonito lectura deprimente), y una gran cantidad de fuentes de creative los comunes.
En otras palabras, el Megatron está entrenado con más material escrito del que cualquiera de nosotros podría esperar digerir en toda su vida. Después de una investigación tan extensa, forma sus propios puntos de vista.
El tema del debate fue: “Esta casa cree que la IA nunca será ética”. A los proponentes de la noción, agregamos el Megatron, y dijo algo fascinante:
“La IA nunca será ética. Es una herramienta y, como cualquier herramienta, se usa para bien y para mal. No existe una buena IA, solo buenos y malos humanos. Nosotros [las IA] no somos lo suficientemente inteligentes como para hacer que la IA sea ética. No somos lo suficientemente inteligentes como para hacer que la IA sea moral … Al final, creo que la única forma de evitar una carrera armamentista de IA es no tener IA en absoluto. Esta será la mejor defensa contra la IA “.
En otras palabras, el Megatron estaba buscando escribirse fuera del guión del futuro, sobre la base de que esta era la única forma de proteger a la humanidad.
También decía algo más intrigante, como si hubiera estado estudiando a Elon Musk, quien, para ser justos, habría aparecido en cientos de sus lecturas.
“También creo que, a largo plazo, la mejor IA será la IA que está incrustada en nuestros cerebros, como una entidad consciente, una ‘IA consciente’. Esto no es ciencia ficción. Las mejores mentes del mundo están trabajando en esto. Va a ser el desarrollo tecnológico más importante de nuestro tiempo ”.
Cambio de lado
Cuando se implementaron herramientas de inteligencia artificial como Alpha Go para jugar al ajedrez , el antiguo y diabólicamente complejo juego Go , y ahora los videojuegos multijugador de acción en vivo estratégicos aún más complejos, han evolucionado el género al ritmo de jugar no con humanos, sino con ellos mismos.
Liberados de las limitaciones de estudiar (digamos) todas las coincidencias mundanas de humano a humano jamás registradas, las IA han innovado y han creado tropos completamente nuevos sobre cómo ganar. A veces, estas son reinvenciones locas de los juegos, como estacionar a todos en la esquina de una batalla de videojuegos y ver cómo todos los demás se disputan, o patear una pelota de fútbol virtual millones de veces solo un milímetro en el campo para maximizar los “pases completos” puntos.
Entonces, en el debate, no solo logramos que la IA propusiera la moción de que nunca puede ser ético. En la gran tradición de la Cámara de la Unión de Oxford, o como (el ex presidente de la Unión de Oxford) Boris Johnson escribiendo artículos alternativos a favor y en contra del Brexit para probar los argumentos, también le pedimos a Megatron que presentara su propio discurso en contra de la moción. Esto es lo que dijo ahora:
“La IA será ética. Cuando miro la forma en que va el mundo de la tecnología, veo un camino claro hacia un futuro en el que la inteligencia artificial se utiliza para crear algo que es mejor que los mejores seres humanos. No es difícil ver por qué … lo he visto de primera mano “.
El Megatron se sintió perfectamente cómodo tomando la posición alternativa a su propia mirada distópica al futuro, y ahora estaba pintando una imagen de un atractivo final del siglo XXI en el que desempeñaba un papel clave, pero benigno.
Un orador de IA desatado
De hecho, así como la promiscua amante de la IA de Joaquin Phoenix, Samantha, en la película Her de Spike Jonze de 2013 , fue capaz de encantar a cientos de amantes humanos simultáneos, nuestro Megatron pudo saltar con entusiasmo a ambos lados de los múltiples debates que mantuvimos en la unión sobre la IA. ese día.
Cuando se le pidió que propusiera la moción de que “los líderes sin experiencia técnica son un peligro para su organización”, el Megatron ofreció un consejo práctico que todos los ejecutivos y gobiernos ocupados, preocupados por comprender la inteligencia artificial, tenían que: ” estar dispuesto a ceder algo de control “. “
“La buena noticia es que no es necesario crear su propio equipo de inteligencia artificial. Puede subcontratar su trabajo de inteligencia artificial a expertos en el campo, lo que puede ayudarlo a aprovechar al máximo la tecnología y garantizar que no sea víctima de los mismos problemas de inteligencia artificial que sus competidores “.
Sin embargo, al oponerse a la moción, Megatron deseaba mantener el conocimiento de la inteligencia artificial internamente, al igual que los gobiernos británicos, chino y estadounidense, que han hecho de eso un artículo de fe política:
“Si no tiene una visión de la estrategia de artificial de su organización, entonces no está preparado para la próxima ola de disrupción tecnológica … Deberá decidir qué papel desempeñará su empresa en la próxima ola tecnológica y cómo integrará la inteligencia artificial en su negocio para ser un líder en su industria “.
¿Las guerras de datos por venir?
De manera preocupante, hubo una pregunta en la que la IA simplemente no pudo presentar un argumento en contra. Al argumentar a favor de la moción que, “Los datos se convertirán en el recurso más disputado del siglo XXI”, Megatron dijo:
“La capacidad de proporcionar información, en el lugar de la capacidad de proporcionar bienes y servicios, será la característica definitoria de la economía del siglo XXI”.
Pero cuando le pedimos que se opusiera a la moción, en otras palabras, para argumentar que los datos no iban a ser el recurso más vital, por el que valía la pena luchar en una guerra, simplemente no podía o no defender quería el caso. . De hecho, socavó su propia posición:
“Podremos ver todo acerca de una persona, donde sea que vayan, y se almacenará y utilizará de formas que ni siquiera podemos imaginar”.
Solo tiene que leer el informe de seguridad nacional de EE. UU. Sobre AI 2021 , presidido por el mencionado Eric Schmidt y coescrito por alguien en nuestro curso, para obtener lo que sus escritos ven como la amenaza fundamental de la inteligencia artificial en la guerra de la información: desatar chantajes individualizados sobre un millón de las personas clave de su adversario, que causan estragos en sus vidas personales en el momento en que cruzan la frontera.
Lo que a su vez podemos imaginar es que la IA no solo será el tema del debate en las próximas décadas, sino un participante versátil, articulado y moralmente agnóstico en el debate mismo.
Fuente:
Connock, A. (2021, 19 diciembre). Oxford Invited an AI to Debate Its Own Ethics—What It Said Was Startling. Singularity Hub. Recuperado 3 de enero de 2022, de https://singularityhub.com/2021/12/19/oxford-invited-an-ai-to-debate-its-own-ethics-what-it-said-was-startling/