La posibilidad de que una plataforma de inteligencia artificial escape al control de los seres humanos es algo que preocupa a muchos científicos. En Google han debido pensar que es mejor prevenir que curar y están trabajando en un protocolo que permita tomar el control de su IA más avanzada, Google DeepMind, en caso de emergencia.
El protocolo se describe en un ensayo recién publicado por los investigadores de Google Deepmind y científicos del Instituto para el Futuro de la Humanidad de la Universidad de Oxford que lleva por título: Safely Interruptible Agents. En él se describe un complejo protocolo que puede interpretarse como un enorme botón rojo para interrumpir el funcionamiento de Google Deepmind y “tomar el control de un sistema cuyo comportamiento inadecuado pueda acarrear consecuencias irreversibles.
Aunque todos tenemos en la cabeza escenarios apocalípticos, en realidad los investigadores piensan en problemas menos dramáticos y más inmediatos, como una fábrica cuyos robots sufran un error que ponga en peligro la integridad de la línea de producción y no sea posible ajustarlo por los procedimientos ordinarios. El protocolo está especialmente pensado para evitar que el sistema de inteligencia artificial intente ignorar o invalidar el comando de desactivación.
El propio Eric Schmidt apelaba recientemente a la necesidad de establecer este tipo de mecanismos de control para las plataformas de IA. De momento los sistemas de inteligencia artificial no han llegado tan lejos como para manejar sistemas críticos para la vida humana, pero cada vez avanzan más y más rápido.
Nick Bostrom, fundador del Instituto para el Futuro de la Humanidad y uno de los mayores expertos en esta tecnología explica que hay un punto de inflexión a partir del cual la inteligencia artificial tendrá la capacidad de mejorarse a sí misma. A partir de ese punto su despegue será exponencial. Mejor pensar con antelación en sistemas de control.