Enfrentar a dos inteligencias artificiales para que compitan entre sí en juegos como Go de DeepMind condujo a algunos de los mayores avances en inteligencia artificial (IA) en los últimos años, ya que a través de dichos juegos se demostró que las máquinas aprenden habilidades a través del método de prueba y error que al final las lleva a superar a los humanos.
Pero, ¿la misma técnica puede producir una inteligencia artificial más útil que sea capaz de operar en el mundo real? OpenAI, un grupo de investigación de inteligencia artificial con sede en San Francisco, publicó una investigación en la que se muestra que lo que afirmó es un método para entrenar a sistemas inteligentes que son cada vez más potentes a los cuales podrían preparar para abordar problemas humanos más ordinarios.
Ambientada en entornos cada vez más realistas, la técnica señala un camino para que la inteligencia artificial “evolucione” en un mundo simulado hasta que esté lista para que se le utilice en el mundo real, dijo.
Los investigadores utilizaron varios “agentes” inteligentes en un juego de las escondidas que se realizó en un entorno físico simulado. Los que “se esconden” aprendieron por sí mismos cómo cooperar y adaptarse a su entorno moviendo paredes y bloqueando puertas con grandes bloques para crear lugares para ocultarse. Los “que buscan” respondieron, por ejemplo, utilizando rampas para saltar por encima de las paredes. Después de 43 millones de juegos, los agentes artificiales habían pasado por seis adaptaciones mientras desarrollaban estrategias y tácticas de respuesta para ser más listo que el otro.
“A medida que los agentes aprenden, crean implícitamente nuevas tareas para que las resuelvan otros agentes”, explicó Bowen, investigador principal del artículo. Señaló “son muchos problemas multiagentes en el mundo” que al final, la tecnología podría aprender a abordar, desde el diseño de robots que puedan operar rodeados de personas hasta la construcción de “ciudades inteligentes” donde interactúen millones de personas.
La investigación en los llamados problemas multiagentes no es algo nuevo, y el trabajo se basó en métodos de aprendizaje de refuerzo comprobados, dándole a la inteligencia artificial una “recompensa” cada vez que logra resolver un problema. Pero OpenAI afirma que establecer la tarea en un mundo físico simulado abre el camino para “escalar” los retos del mundo real, permitiendo que la complejidad de la simulación aumente progresivamente.
El mayor reto, de hecho, tal vez no se encuentre en el diseño de algoritmos inteligentes, que evolucionan en gran medida por sí mismos, sino en la creación de una simulación a toda prueba en una escala lo suficientemente grande. Incluso en el limitado juego de las escondidas, los agentes aprendieron a engañar a la física de la simulación, por ejemplo, al encontrar la manera de empujar las rampas a través de la pared exterior para eliminarlas del juego.
Las acciones inesperadas como ésta destacaron el problema de controlar la inteligencia artificial cuando finalmente esté lista para salir al mundo real, dijo Baker. Ya se prueban jueces sin rostro ni cuerpo En Europa, Estonia dio a conocer que tenía la intención de iniciar pruebas con el uso de un agente de inteligencia artificial para la determinación de disputas contractuales. De acuerdo con lo planteado por esta nación, las dos partes en disputa enviarían al “juez digital” información para sostener su alegado y el sistema emitiría un veredicto, que al menos en forma inicial, sería revisado por un juez humano para convertirlo en una decisión judicial válida.
Pero Estonia no es el único lugar donde jueces virtuales comienzan a lidiar con asuntos humanos; algunos servicios de inteligencia artificial ayudan en países como Estados Unidos y Reino Unido para apelar multas de tránsito y algunas empresas que ofrecen sistemas de IA para asesorar a jueces de ámbitos como el penal. Sin embargo el Instituto del Derecho a las Telecomunicaciones destacó que estas situaciones abren cuestionamientos y preguntas relevantes, pues si un juez humano emite un veredicto de culpabilidad, existen mecanismos para revisar el actuar del juez e incluso revertir su decisión. ¿Qué pasa cuando la culpabilidad la determina un agente de IA?, ¿es inapelable la decisión de un banquero digital de negar una solicitud de crédito?
Fuente:
Milenio. (2019, 22 septiembre). Inteligencia artificial “aprende” con juegos. Recuperado 23 septiembre, 2019, de https://www.milenio.com/negocios/financial-times/inteligencia-artificial-aprende-con-juegos