Hasta ahora, si colgábamos un cartel publicitario en una zona para peatones, y queríamos saber cuánta gente lo miraba realmente, lo teníamos imposible.
Se podía intentar capturar esta importante información mediante la medición de la dirección de las miradas, pero esto requería un equipamiento especial de seguimiento ocular que necesita calibrarse durante minutos, y para obtener datos fiables todo el mundo tendría que llevar un aparato preparado para funcionar con el sistema. Las investigaciones fuera del laboratorio y sin sujetos de estudio reclutados formalmente, como por ejemplo los realizados observando la conducta espontánea de peatones en la calle, eran, en el mejor de los casos, complicadas y en el peor de ellos, imposibles.
Incluso cuando la cámara era colocada en el objeto de interés, por ejemplo el cartel, y se utilizaba aprendizaje automático, es decir, cuando la máquina era adiestrada usando una cantidad suficiente de datos de muestra, solo se podían reconocer las miradas a la propia cámara. Si la persona miraba a otra parte del cartel, el sistema no podía reconocerlo. Demasiado a menudo, la diferencia entre los datos usados para el de adiestramiento y los datos captables en el entorno real específico era excesivamente grande. Un detector universal de contacto de miradas, utilizable tanto para objetos pequeños como para grandes, en situaciones estacionarias o móviles, para un usuario o para todo un grupo, o bajo condiciones de iluminación cambiantes, era hasta el momento imposible.
Ahora, el equipo de Andreas Bulling, de la Universidad de Sarre (Saarland) en Alemania, ha desarrollado un método que está basado en una nueva generación de algoritmos para estimar la dirección de las miradas. Estos utilizan un tipo especial de red neural, del tipo conocido como “de Aprendizaje Profundo”, que está actualmente causando sensación en muchas áreas de la industria y de los negocios. Bulling, Xucong Zhang y Yusuke Sugano han estado trabajando en este método durante dos años y han avanzado paso a paso.
El método que han presentado ahora ha sido puesto a prueba en dos escenarios: en un lugar de trabajo, la cámara fue montada sobre el objeto del que contar las miradas recibidas, y en una situación cotidiana, un usuario llevaba una cámara encima, a fin de obtener un recuento de cuántas miradas recibía. El resultado: el sistema, dado que obtiene el conocimiento necesario por él mismo, es robusto, incluso cuando la cantidad de personas implicadas, las condiciones de iluminación, la posición de la cámara y los tipos y tamaños de los objetos varíen.
Fuente: NCYT