AI PARA BIEN La inteligencia artificial (AI) tiene el potencial de salvar vidas al predecir desastres naturales , detener la trata de personas y diagnosticar enfermedades mortales . Desafortunadamente, también tiene el potencial de quitarvidas. Los esfuerzos para diseñar armas letales autónomas, armas que usan la IA para decidir por sí mismas si intentan o no matar a una persona, ya están en marcha.
El miércoles, el Instituto Future of Life (FLI), una organización centrada en el uso de la tecnología para el mejoramiento de la humanidad, emitió un compromiso que condena el desarrollo de armas letales autónomas y hace un llamamiento a los gobiernos para que lo eviten.
“AI tiene un gran potencial para ayudar al mundo, si estigmatizamos y evitamos su abuso”, dijo el presidente de FLI, Max Tegmark, en un comunicado de prensa . “Las armas de IA que deciden matar personas autónomamente son tan repugnantes y desestabilizadoras como armas biológicas, y deben ser tratadas de la misma manera”.
SOLO FIRMAR AQUÍ. Ciento setenta organizaciones y 2,464 personas firmaron el compromiso, comprometiéndose a “ni participar ni apoyar el desarrollo, la fabricación, el comercio o el uso de letales armas autónomas”. Los firmantes del compromiso incluyen al fundador de OpenAI, Elon Musk, el fundador de Skype Jaan Tallinn. y el destacado investigador de IA Stuart Russell.
Los tres cofundadores de Google DeepMind (Demis Hassabis, Shane Legg y Mustafa Suleyman) también firmaron el compromiso. DeepMind es el principal equipo de investigación de IA de Google, y la compañía se vio recientemente en el punto de mira de la letal controversia de las armas autónomas por su trabajo con el Departamento de Defensa de los EE. UU .
En junio, Google prometió que no renovaría el contrato del DoD, y más tarde, publicó nuevas pautas para su desarrollo de inteligencia artificial, incluida la prohibición de construir armas autónomas. Firmar la promesa de FLI podría confirmar aún más la postura pública revisada de la compañía sobre las armas letales autónomas.
¿TODOS HABLAN? Todavía no está claro si la promesa realmente dará lugar a una acción definitiva. Veintiséis miembros de las Naciones Unidas ya han respaldado una prohibición global de las armas letales autónomas, pero varios líderes mundiales, incluidos Rusia, el Reino Unido y los Estados Unidos, aún no se han sumado.
Esta tampoco es la primera vez que los expertos en IA se reúnen para firmar un compromiso contra el desarrollo de armas autónomas. Sin embargo, esta promesa sí cuenta con más signatarios, y algunas de esas nuevas incorporaciones son nombres bastante importantes en el espacio de IA (ver: DeepMind).
Desafortunadamente, incluso si todas las naciones del mundo acuerdan prohibir armas letales autónomas, eso no necesariamente impediría que personas o incluso gobiernos continúen desarrollando las armas en secreto. A medida que ingresamos a esta nueva era en IA, parece que no tendremos más remedio que esperar que los buenos jugadores superen a los malos.
Fuente: Futurism