La IA está ejerciendo una influencia cada vez mayor en nuestras vidas, lo que genera una preocupación creciente sobre si podemos confiar en que actuará de forma justa y fiable. E hackers thical , auditorías AI, y “bondades sesgo” podrían ayudar a mantener una tapa sobre los daños potenciales , dicen los investigadores.
Cada vez hay más conciencia de los peligros que plantea nuestra dependencia de la IA. Estos sistemas tienen una habilidad preocupante para recoger y replicar los sesgos ya presentes en nuestra sociedad, que pueden afianzar la marginación de ciertos grupos.
La naturaleza de gran cantidad de datos de los sistemas de aprendizaje profundo actuales también plantea preocupaciones sobre la privacidad, tanto por su fomento de una vigilancia generalizada como por la posibilidad de violaciones de datos. Y la naturaleza de caja negra de muchos sistemas de IA también dificulta evaluar si están funcionando correctamente, lo que puede tener serias implicaciones en ciertos dominios.
El reconocimiento de estos problemas ha llevado a una colección de principios éticos de IA en rápida expansión de empresas, gobiernos e incluso organizaciones supranacionales diseñados para guiar a los desarrolladores de tecnología de IA. Pero las propuestas concretas sobre cómo asegurar de que todos estén a la altura de estos ideales son mucho más raras.
Ahora, un nuevo artículo en Science propone algunos pasos tangibles que la industria podría tomar para aumentar la confianza en la tecnología de IA. No hacerlo podría conducir a un “latigazo tecnológico” que obstaculice gravemente el progreso en el campo, dicen los investigadores.
“Los gobiernos y el público deben poder distinguir fácilmente entre los confiables, los vendedores de aceite de serpiente y los que no tienen ni idea”, dijo en un comunicado de prensa el autor principal, Shahar Avin, de la Universidad de Cambridge. “Una vez que puede hacer eso, existe un incentivo real para ser confiable. Pero aunque no se pueden distinguir, hay mucha presión para tomar atajos “.
El investigador toma prestadas algunas ideas probadas y comprobadas de la seguridad cibernética, que ha lidiado con el tema de lograr que las personas confíen en el software durante décadas. Un enfoque popular es utilizar “equipos rojos” de piratas informáticos éticos que intentan encontrar vulnerabilidades en los sistemas para que el diseñador pueda corregirlos antes de que se publiquen.
Los equipos rojos de IA ya existen en los grandes laboratorios de la industria y el gobierno, señalan los autores, pero sugiero que compartir experiencias entre organizaciones y dominios podrían hacer que este enfoque sea mucho más poderoso y accesible para más desarrolladores de IA.
Las compañías de software también ofrecen con frecuencia “recompensas de errores”, que proporcionan una recompensa económica si un pirata informático encuentra fallas en sus sistemas y Diga s acerca de ello en privado para solucionarlo. Los autores sugirieron que los desarrolladores de IA adoptar prácticas similares, ofreciendo recompensas a las personas por descubrir si sus algoritmos están sesgados o tomar decisiones incorrectas.
Señalan una competencia reciente celebrada en Twitter que ofreció recompensas a cualquiera que pudiera encontrar sesgos en su algoritmo de recorte de imágenes como un ejemplo temprano de cómo podría funcionar este enfoque.
A medida que los ataques de ciberseguridad se vuelven más comunes, los gobiernos exigen cada vez más la notificación de violaciones de datos y piratería. Los autores sugirieron que se podrían aplicar ideas similares a incidentes en los que los sistemas de inteligencia artificial causan daños. Si bien el intercambio voluntario y anónimo, como el que permite la base de datos de incidentes de IA , es un punto de partida útil, dicen que esto podría convertirse en un requisito reglamentario.
El mundo de las finanzas también tiene algunas herramientas poderosas para garantizar la confianza, sobre todo la idea de auditorías de terceros. Esto implica otorgar a un auditor acceso a información restringida para que pueda evaluar si los reclamos públicos del propietario coinciden con sus registros privados. Este enfoque podría ser útil para los desarrolladores de inteligencia artificial que generalmente desean mantener en secreto sus datos y algoritmos.
Sin embargo, las auditorías solo funcionan si se puede confiar en los auditores y si no se aprueban, hay consecuencias significativas, dicen los autores. También son posibles solo si los desarrolladores siguen prácticas comunes para documentar su proceso de desarrollo y la estructura y actividades de su sistema.
En la actualidad, faltan pautas sobre cómo hacer esto en IA, pero el trabajo inicial sobre marcos éticos, documentación de modelos y monitoreo continuo de los sistemas de IA es un punto de partida útil.
La industria de la inteligencia artificial también está trabajando en podrían aumentar la confianza en la tecnología. Los esfuerzos para mejorar la explicabilidad y la interpretación de los modelos de IA ya están en marcha, pero los estándares y pruebas comunes que miden el cumplimiento de esos estándares son adiciones útiles a este campo.
De manera similar, el aprendizaje automático que preserva la privacidad, cuyo objetivo es proteger mejor los datos utilizados para entrenar modelos, es un área de investigación en auge. Pero la industria aún rara vez las pone en práctica, por lo que los autores recomiendan más apoyo a estos esfuerzos para impulsar la adopción.
No está claro si realmente se puede instar a las empresas a tomar medidas concertadas sobre este problema. Sin reguladores respirando en el cuello s , muchos estarán disponibles a asumir el nivel onerosa de atención e inversión que estos enfoques son propensos a requerir. Pero los autores advierten que la industria debe reconocer la importancia de la confianza pública y darle la debida importancia.
“Las vidas y los medios de subsistencia dependen cada vez más de la IA que está cerrada al escrutinio, y esa es una receta para una crisis de confianza”, dijo el coautor Haydn Belfield, de la Universidad de Cambridge, en el comunicado de prensa . “Es hora de que la industria vaya más allá de los principios éticos bien intencionados e implemente mecanismos del mundo real para abordar esto”.
Fuente:
Gent, E. (2021e, 10 de diciembre). Cómo los hackers éticos podrían ayudarnos a generar confianza en la IA . Centro de singularidad. Recuperado 13 de diciembre de 2021, de https://singularityhub.com/2021/12/13/how-ethical-hackers-could-help-us-build-trust-in-ai/