La privacidad diferencial es algo que Apple utiliza en el iPhone para proteger los datos de sus usuarios, mientras que Google dice aplicarla en el Modo Incógnito de Chrome. En el caso de TensorFlow Privacy, la empresa de Mountain View indica:
Cuando se entrenan módulos de aprendiza automático con datos de los usuarios, la privacidad diferencial ofrece garantías matemáticas de que los modelos no aprenden ni recuerdan los detalles de ningún usuario específico.
Las nuevas bibliotecas de código abierto se adhieren a las Prácticas de IA responsables de Google y se pueden implementar con algunas líneas de código adicional, sin necesidad que los desarrolladores requieran conocimientos de cálculos matemáticos o sean expertos en privacidad.
Este anuncio también hace mención a TensorFlow Federated, un sistema para aprendizaje automático y otros cálculos sobre datos centralizados. Esta plataforma está basada en Aprendizaje Federado, una técnica en que se entrena a un modelo en un entorno local con la ayuda de varios clientes (smartphones, tablets).
El ejemplo más claro de esto lo vemos en el Teclado de Google para iOS y Android, el cual genera modelos predictivos sin exponer los datos de escritura de los usuarios. El aprendizaje federado no depende de la comunicación con la nube, ya que según Google, parte del algoritmo de machine learning se ejecuta directamente en el dispositivo.
En una época en la que el aprendizaje automático toma mayor fuerza es necesario tomar medidas para realizar un correcto manejo de los datos del usuario. El uso del aprendizaje federado garantiza que la única información que se suba a la nube sea el modelo entrenado en los dispositivos, sin comprometer la información privada de cada persona.
TensorFlow Privacy y TensorFlow Federated están disponibles para aquellos desarrolladores que busquen aplicar métodos predictivos en sus aplicaciones.
Fuente: Hipertextual