Existen temores que tienden a surgir cuando las personas hablan sobre la inteligencia artificial futurista, por ejemplo, una que podría aprender a aprender y llegar a ser más avanzada que cualquier cosa que los humanos podamos comprender. En las manos equivocadas, tal vez incluso por sí mismo, un algoritmo tan avanzado podría dominar a los gobiernos y ejércitos del mundo, impartir niveles orwellianos de vigilancia , manipulación y control social sobre las sociedades, y quizás incluso controlar campos de batalla enteros de armas letales autónomas como militares. drones
Pero algunos expertos en inteligencia artificial no creen que esos temores estén bien fundamentados. De hecho, la inteligencia artificial altamente avanzada podría ser mejor en la gestión del mundo que los humanos. Estos temores en sí mismos son el peligro real, porque pueden impedirnos hacer realidad ese potencial.
“Tal vez no alcanzar la IA es un peligro para la humanidad”, dijo Tomas Mikolov , investigador de Facebook AI, en The Joint Multi-Conference on Human-Level Artificial Intelligence en Praga el sábado.
“Tal vez no alcanzar la IA es el peligro para la humanidad”.
Como especie, explicó Mikolov, los humanos son bastante terribles a la hora de tomar decisiones que son buenas para nosotros a largo plazo. La gente ha quitado las selvas tropicales y otros ecosistemas para cosechar materias primas, sin darse cuenta (o desinteresado) de cómo estaban contribuyendo a la lenta, tal vez irreversible, degradación del planeta en general.
Pero un sofisticado sistema de inteligencia artificial podría proteger a la humanidad de su propia miopía.
“Nosotros, como seres humanos, somos muy malos a la hora de hacer predicciones de lo que sucederá en una línea de tiempo distante, quizás dentro de 20 o 30 años”, agregó Mikolov. “Tal vez hacer una IA que sea mucho más inteligente que la nuestra, en una especie de relación simbiótica, puede ayudarnos a evitar algunos desastres futuros”.
De acuerdo, Mikolov puede ser una minoría al pensar que una entidad superior de IA sería benevolente . A lo largo de la conferencia, muchos otros oradores expresaron estos temores comunes, principalmente sobre la IA utilizada con fines peligrosos o mal utilizada por actores humanos malintencionados. Y no deberíamos reírnos o minimizar esas preocupaciones.
No sabemos con certeza si alguna vez será posible crear una inteligencia artificial general, a menudo considerada como el santo grial de una IA sofisticada que es capaz de hacer prácticamente cualquier tarea cognitiva que los humanos puedan hacer, tal vez incluso hacerlo mejor.
El futuro de la inteligencia artificial avanzada es prometedor, pero viene con muchas preguntas éticas. Probablemente aún no sepamos todas las preguntas que tendremos que responder.
Pero la mayoría de los panelistas en la conferencia de HLAI estuvieron de acuerdo en que aún debemos decidir las reglas antes de que las necesitemos. ¿Es hora de crear acuerdos internacionales, consejos de ética y organismos reguladores en gobiernos, empresas privadas y el mundo académico? Nieva. Poner estas instituciones y protocolos en su lugar reduciría las probabilidades de que un gobierno hostil, un investigador involuntario o incluso un científico loco cacareante desaten un sistema de IA malicioso o de otro modo conviertan en armas los algoritmos avanzados. Y si algo desagradable llegara a salir, entonces estos sistemas garantizarían que tendríamos formas de manejarlo.
Con estas reglas y salvaguardas en su lugar, estaremos mucho más dispuestos a marcar el comienzo de un futuro en sistemas avanzados de inteligencia artificial que vivan en armonía con nosotros, o incluso que nos salven de nosotros mismos.
Fuente: Futurism