Impartida por Information Age en asociación con los patrocinadores OneTrust y Clifford Chance , la primera parte de la Serie de tecnología responsable de este año reunió a expertos en tecnología para discutir cómo las partes interesadas pueden practicar mejor la ética digital en beneficio de la sociedad.
Con la inteligencia artificial, las redes sociales y otras tecnologías digitales desempeñando un papel cada vez más importante en la vida de las personas, ahora es el momento de comenzar a pensar en los impactos que pueden tener a largo plazo y lo que se puede hacer para mejorar las prácticas éticas en la tecnología.
El evento fue co-organizado por Rebecca Rae-Evans , fundadora de Tech for Good Live , y Jenna Kelly, productora senior de conferencias en Bonhill Group, quien dio inicio a los procedimientos.
“Somos capaces de ir más allá de la discusión y entrar en la aplicación práctica”, dijo Rae-Evans. “Cuando nos sentimos inspirados, podemos encontrar herramientas útiles para apoyarnos en nuestras organizaciones”.
Las áreas discutidas sobre la ética digital durante el evento incluyeron la accesibilidad digital, cómo los marcos éticos pueden ser más adecuados para los grupos subrepresentados y las diferencias entre las violaciones de datos y las violaciones éticas.
The Data Breach vs The Ethics Breach, y prepararse para ambos
Joseph Byrne , CIPP / E, CIPM, CIPT, ingeniero de soluciones de privacidad en OneTrust, pronunció un discurso sobre las violaciones de datos y las violaciones de la ética, incluidas las diferencias entre ambos tipos y cómo las organizaciones pueden prepararse para ellas.
El bienestar de los datos personales y corporativos ha sido reconocido como más vital que nunca, con Gartner nombrando la ética digital y la privacidad como una de las 10 principales tendencias estratégicas para 2019, y Byrne argumentó que hay tres tipos de violaciones de datos:
- Violación de seguridad: información a la que se accede sin autorización, como por parte de un actor de amenazas o por negligencia de un empleado;
- Violación de datos / privacidad: el envío de datos a un entorno que no es de confianza;
- Violación ética: dar datos a sabiendas a fuentes que no son de confianza, o violar intencionalmente códigos de conducta sobre el uso de datos y ponerlos en riesgo, puede pasar de una violación de datos o privacidad a una violación ética.
“La moral es subjetiva, y el hecho de que podamos hacer algo no significa que debamos hacerlo”, dijo Byrne durante su presentación.
Byrne continuó afirmando que categorizar las infracciones puede ser peligroso sin un marco completo, adherido desde la parte superior de la organización hacia abajo, y que el cumplimiento de las regulaciones no siempre tiene en cuenta la ética.
“La reputación puede tardar años en construirse, pero puede destruirse instantáneamente”, agregó.
Si bien los marcos de seguridad se manifiestan en forma de estándares como ISO 27001 y NIST, los marcos que cubren violaciones de datos y privacidad incluyen GDPR, CCPA e ISO 27701. Los marcos éticos, mientras tanto, pueden venir en forma de un código ético de conducta, o ética por diseño.
En conclusión, Byrne dijo que diseñar tecnología teniendo en cuenta la ética, desde el principio, “ayudará en el futuro”.
Desafíos de la IA de 2021
El siguiente paso en la sección de ética digital de la Serie de tecnología responsable de 2021 fue una conversación sobre los desafíos a los que se ha enfrentado la inteligencia artificial (IA) en 2021, entre Toju Duke , gerente de Women in AI Ireland, y Jonathan Kewley , socio y codirector. , Tech Group en Clifford Chance.
El sesgo de la IA y la importancia de la diversidad
Duke, quien también se desempeña como directora de programas en Google , se describe a sí misma como una firme defensora de la IA ética y, al explorar el desafío del sesgo de la IA, expresó su creencia de que el rápido ritmo de su evolución ha dificultado el seguimiento de los sesgos. .
“Los conjuntos de datos a menudo contienen datos antiguos que no reflejan los cambios sociales, por lo que estos datos históricos a menudo tienen sesgos”, explicó.
“A menudo hablamos de ‘justicia ML’, cuán justo es el sistema ML para la sociedad, y hay muchas definiciones de justicia. Todo depende del contexto.”
Mientras tanto, Kewley inició una discusión sobre la falta de diversidad en la cima de las organizaciones globales y cree que debemos analizar por qué las mujeres no eligen ingresar a carreras de ciencias de la computación. “La informática ha sido propiedad de los hombres durante demasiado tiempo”, comentó.
Según Duke, si bien organizaciones como Women in AI están tratando de hacer que las carreras de ciencias de la computación parezcan más atractivas para las mujeres, “muchas todavía no están interesadas”, con brechas salariales de género y culturas dominadas por hombres todavía presentes.
Normativas
Las regulaciones de IA están comenzando a tomar forma, especialmente en la UE, pero con tales medidas que no se aplicarán por completo durante unos pocos años (la implementación de la Ley de IA en la UE no se espera hasta 2024), Kewley cree que las empresas no lo están haciendo. t pensando en el cumplimiento lo suficiente.
“Las empresas piensan que están sobre la colina cuando se trata de privacidad”, dijo. “Pero todavía no se está pensando en el cumplimiento, y ahora es una preocupación muy real a tener en cuenta”.
Con respecto a qué más se puede hacer para garantizar que las regulaciones sean adecuadas a nivel mundial, Duke sugirió realizar un seguimiento de cómo se diseñan los productos integrados con sistemas de inteligencia artificial, distribuidos en todo el mundo desde países como China y los EE. UU.
“Necesitamos un marco global para la IA”, comentó. “Estados Unidos y el Foro Económico Mundial están trabajando, pero esto no está estandarizado a nivel mundial. Esto debe ser proactivo “.
Discusiones positivas y comités de riesgos
Por otro lado, una encuesta reciente realizada por Clifford Chance y YouGov , que tuvo participación en Europa y EE. UU., Encontró que el 66% de los encuestados se sienten positivos acerca de la IA, y Kewley cree que las discusiones positivas sobre la tecnología son un paso en lo correcto. dirección.
“Los aspectos negativos de la IA están comenzando a equilibrarse”, dijo. “Es importante hablar sobre los efectos positivos que puede tener, así como discutir la debida diligencia y la transparencia”.
El futuro de la moderación de contenido en línea
Para cerrar el evento que discutió la ética digital, hubo un panel que discutió lo que depara el futuro para la moderación del contenido en línea. Moderado por Nick Ismail, editor de contenido de Information Age, la discusión contó con información de:
- Abhishek Suryawanshi , director del Esquema especial de concientización de Wikipedia para los afiliados de la atención médica ( SWASTHA )
- Alice Thwaite , fundadora de Hattusia y The Echo Chamber Club
- Dex Hunter-Torricke , jefe de comunicaciones de la Junta de Supervisión de Facebook
- Juliet Nanfuka , investigación y comunicaciones en Collaboration on International ICT Policy for East and Southern Africa ( CIPESA )
En primer lugar, el debate abordó cómo la moderación del contenido ha cambiado con el tiempo y desde el inicio de la pandemia mundial. Hunter-Torricke identificó una investigación reciente que encontró que más del 40% de los usuarios de Internet de la Generación Z recurren a las redes sociales para obtener información, y dijo que la confianza en los medios convencionales ha disminuido considerablemente.
“Recuerde la primera década de los 2000, y tenía estos sitios web básicos y feos”, explicó. “Luego, en 2007, todo cambió: llegó el iPhone y entramos en esta nueva era móvil.
“El contenido se volvió más visceral y todos tenían una cámara e Internet en el bolsillo, lo que traía más contenido generado por los usuarios.
“Ahora, los videos han reemplazado a las fotos, en términos de entregar contenido atractivo a través de plataformas de redes sociales”.
Thwaite, mientras tanto, cree que la moderación del contenido puede significar cosas diferentes para diferentes personas, comentando: “Algunos piensan que la moderación del contenido es algo nuevo y se enfurecen al respecto, afirmando que la libertad de expresión debe ser protegida.
“Pero la moderación del contenido se remonta a un estándar establecido por la BBC en la década de 1920, y los periódicos y la radio han sido moderados durante más de 50 años”.
Beneficios de la moderación
Como director de SWASTHA, Suryawanshi ha visto los beneficios que puede traer la moderación del contenido: “En los últimos 20 años, hemos visto una democratización de Internet. Antes de esto, solo había unos pocos expertos y solo ellos monitoreaban el contenido.
“Ahora, la gente se une para decidir si los contenidos son adecuados para la comunidad y hay más opciones de plataformas”.
El director de Wikipedia dedicado a la atención médica estaba dispuesto a disipar la idea errónea de que cualquier usuario puede publicar cualquier cosa en el sitio web sin que sea monitoreado: “Todos pueden editar artículos, pero esto debe ser citado y referenciado.
“Las estadísticas han demostrado que las personas se han basado más en Wikipedia que en su médico cuando buscan información sobre atención médica. Contamos con un equipo de médicos para verificar que el contenido se cite correctamente “.
Las desventajas
Por otro lado, Hunter-Torricke cree que la sociedad se está volviendo más consciente de las desventajas de la moderación del contenido y está pensando más en las mejoras: “Hace años, había muchas porristas y muy poco escrutinio, especialmente cuando se trataba de grupos vulnerables.
“Sin embargo, algunas personas tienden a predicar todas estas soluciones fáciles, sin darse cuenta de que no existe una solución fácil. Se necesitan varias partes interesadas para abordar los problemas de diferentes maneras “.
El futuro de la moderación de contenido
En cuanto a cómo podría tomar forma el futuro de la moderación del contenido, Nanfuka comentó que “para comprender el futuro, es necesario comprender los orígenes”, refiriéndose a un ejemplo de cómo se ha moderado el contenido en partes del África subsahariana.
“Durante las elecciones de la década de 2000 y principios de la de 2010, la gente usaba SMS para comunicarse, pero la red no compartía mensajes con ciertas palabras”, dijo.
“Existía esta necesidad constante de mantener el poder a pesar de la evolución de la tecnología, y la moderación del contenido se ha producido fuera de línea, con arrestos realizados debido a lo que se ha publicado en línea.
“En algunas partes de África, los blogueros deben pagar hasta $ 1000 y el estado necesita saber quién es usted, lo que afecta el contenido en línea. Vemos esto como una amenaza en todo el continente “.
En general, durante la mesa redonda se acordó que para que la moderación del contenido funcione realmente, se requiere una mentalidad global con diversos grupos de partes interesadas, a fin de representar plenamente a la sociedad en todo el mundo. También se señaló que la transparencia y la explicabilidad eran importantes, y las partes interesadas explicaron claramente cómo funcionará la moderación de contenido.
La segunda parte de la Serie Tecnología Responsable 2021 , que explora la sostenibilidad, tendrá lugar el 14 de octubre.
Fuente:
Hurst, A. (2021, 1 octubre). Responsible Tech Series 2021 Part 1: exploring ethics within digital practices. Recuperado 1 de octubre de 2021, de https://www.information-age.com/responsible-tech-series-2021-part-1-exploring-ethics-within-digital-practices-123497089/