Las redes sociales, entre muchos sitios populares, siempre tienen problemas con algunos tipos de imágenes que suben los usuarios a sus respectivas cuentas. Por ejemplo, Facebook no permite imágenes de carácter pornográfico y claramente toma acciones cuando las identifica o bien, cuando algún usuario denuncia una foto poco apropiada. Sin embargo, esto parece ser un problema que no es fácil de automatizar.
Pero Yahoo! ahora ha anunciado su más reciente trabajo de código abierto: un modelo que puede darse cuenta específicamente si una imagen es de naturaleza pornográfica.
El sistema usa un tipo de inteligencia artificial llamada “aprendizaje profundo”, la cual involucra entrenar redes neuronales artificiales sobre un gran banco de imágenes (en este caso imágenes pornográficas) y hacer las inferencias necesarias sobre nuevos datos encontrados.
El modelo está en GitHub bajo la licencia BSD 2 y viene pre-entrenada, de manera que los usuarios pueden ajustarla a lo que más les convenga. El modelo trabaja con el marco de trabajo Caffe (de código abierto) para aprendizaje profundo. El equipo entrenó al modelo usando lo que ahora es el sistema CaffeOnSpark.
El nuevo modelo podría ser interesante de analizar y bien podría ser utilizado en sitios como Pinterest o Instagram, o incluso Facebook, para tratar de minimizar las fotos de carácter adulto que muchas veces aparecen y que son indeseables en un sistema como el de las redes sociales, por su alcance a tantos grupos de personas de tantas edades diferentes.
“Hasta donde sabemos, no hay un modelo o algoritmo de código abierto para identificar imágenes NSFW (Not safe/suitable for work)”, dice el ingeniero de Yahoo!, Jay Mahadeokar junto con el director senior de manejo de producto, Gerry Pesavento, en un artículo del blog de Yahoo.
Cabe decir que Baidu, Facebook, Google, Microsoft y Twitter han tenido sistemas de código abierto de aprendizaje profundo en el pasado, pero quizá sin el alcance que este sistema busca tener.
Sin embargo, este software no debería considerarse perfecto: “no podemos dar ninguna garantía sobre la salida. Lo que podemos hacer es poner esto a la disposición de los desarrolladores para explorar y mejorar este proyecto de código abierto”, dicen los autores del mismo en un texto donde se deslindan de cualquier responsabilidad o resultados.
Manuel López Michelone
Octubre 2016
Fuente: Unocero