La tecnología es un gran facilitador. Los innumerables avances que van desde los autos autónomos hasta la realidad virtual y un millón más son asombrosas insignias de honor para el ingenio humano.
Ok, ese es el preámbulo positivo. Tal vez sea solo el alarmista que hay en mí, pero donde parece que nos estamos quedando rezagados en nuestro ascenso meteórico como especie es la pregunta “¿Podemos hacer esto?” con “¿Deberíamos hacer esto?”, sin el cual podríamos seguir una ruta cercana a Frankenstein hacia el desastre.
Y con esa transición, me gustaría hablar sobre la reciente patente de Microsoft para “crear un chatbot conversacional de una persona específica”. En primer lugar, es brillante como un pensamiento. Si podemos entrenar chatbots a partir de las respuestas de millas de personas diferentes, tiene sentido que debamos hacerlo también a partir de las aportaciones de una persona. Y con nosotros ofreciendo a ciegas partes de nosotros mismos a los dioses digitales, probablemente no haya un fin de información con la que Big Tech podría hacernos renacer, si no ahora, en el futuro cercano. Pero lo que tal vez este genio no esté considerando es si deberíamos estar haciendo esto en absoluto.
¿El porque? Algunas razones rápidas me vienen a la mente:
- Libras y dólares : si lo construyes, vendrán … y te pagarán por ello. La conclusión es
que esto probablemente podría monetizarse de una manera bastante lucrativa. - Avances entre paréntesis : hay muchas investigaciones que tienen beneficios incidentales, es decir, que pueden
orientar a las personas sobre nuevas formas de utilizar esta tecnología o una nueva dirección en la que realizan más investigaciones. - Razones morbosas : como dice este artículo de Forbes , existe la posibilidad de que, al usar su presencia en línea y las aportaciones de sus días de vida, exista la posibilidad de que su chatbot pueda sobrevivirle y brindar una presencia continua después de su… partida .
- Porque podemos – Dijo suficiente.
El más razonable de los motivos anteriores es posiblemente el punto dos. La investigación relacionada con esta patente podría ser muy beneficiosa en formas que ni siquiera hemos concebido todavía. Sin embargo, lo imprevisto no tiene brújula moral y el hecho es que también podría utilizar para propósitos nefastos fuera de la intención original de sus creadores.
Podrías pensar que he visto demasiadas películas de Hollywood. Sin embargo, si piensa en la ya floreciente lista de formas moralmente ambiguas en las que se usa la tecnología, no se trata tanto de ciencia ficción como de hechos científicos.
Solo un ejemplo es el sesgo en los algoritmos de inteligencia artificial (IA) . Si bien la inteligencia artificial puede ayudar a los médicos a interpretar los resultados de las pruebas con mayor precisión en ciertos casos, estos algoritmos se entrenan con datos históricos que tienen incorporados nuestros sesgos humanos inherentes. Entonces, cuando los estudios como este muestran que los pacientes negros habrían recibido una mejor atención médica que les salvó la vida “. Si su función renal hubiera sido estimada usando la misma fórmula que para los pacientes blancos “, probablemente deberíamos tomar nota y hacer algo al respecto.
Además de simplemente crear tu doppelganger zombie digital, ¿esta tecnología abre potencialmente la caja de Pandora para el robo de identidad? La Comisión Federal de Comercio de los EE. UU. Informa que hubo $ 3.3 mil millones en pérdidas por fraude solo en 2020.
Si los piratas informáticos pueden obtener además el tono de voz de uno, la elección de palabras, etc., el cielo es el límite para su “éxito” en hacerse pasar por alguien. Podríamos seguir en este viaje hiperbólico agregando una capa de ‘deepfakes’ (videos falsos generados por IA). Así que ahora podríamos suplantar el tono de voz de alguien con un video de “ellos” diciéndolo. Ya que estamos en eso, también podríamos invitar a Boston Dynamics a la fiesta con su robot que camina, habla y (sí) baila, pero a estas alturas estoy seguro de que captas mi rumbo apocalíptico.
La práctica de preguntar “por qué” no es un concepto nuevo; esta tensión entre ciencia y ética ha persistido durante el tiempo y, de hecho, es necesario. Pero parece que esta vez se juega en una nueva arena, una en la que la regulación está luchando por mantenerse al día. La velocidad a la que estamos dando voluntariamente nuestros datos privados a Facebook y sus pares supera con creces cualquier cosa que la legislación como GDPR y sus contrapartes puedan controlar. Simplemente aceptamos las deliciosas galletas y seguimos adelante. Y luego estamos impactados con resultados como (supuestamente) resultados electorales influidos . Estas brechas se habilitaron utilizando las herramientas disponibles para quienes saben cómo manipularlas. Y la mencionada patente de Microsoft podría ser otra arma en el arsenal.
La privacidad de nuestros datos es el gran debate de nuestro tiempo, o al menos debería serlo. Permítanme ser claro: no estoy abogando por el abandono de todos los avances científicos y el regreso a la Edad Media (ellos también tenían sus problemas). Sin embargo, lo que hay que hacer es fomentar la discusión y el debate. Y esto debe provenir de una amplia franja de la sociedad, a diferencia de aquellos que conocen los avances tecnológicos y que “hablan el idioma”. Más voces significan puntos de vista menos miopes y una consideración de todos los aspectos relevantes de un tema.
Hablemos de las implicaciones éticas. Hablemos de para qué más se podría utilizar esta tecnología. Hablemos sobre si podemos hacer esto de otra manera. Hablemos sobre los controles y contrapesos que necesitamos para hacer esto de manera segura. Dejanos hablar.
Selección del editor. (2021e, 6 de mayo). Las implicaciones éticas de los chatbots. Recuperado 6 de mayo de 2021, de https://www.information-age.com/ethical-implications-chatbots-123495018/