No resulta difícil encontrar en Youtube vídeos que afirman que la Tierra es plana, que el aterrizaje en la luna fue falso o que los inmigrantes nos quitan todo el trabajo. Las teorías de conspiración, cualesquiera que sean sus intenciones, no resultan difíciles de encontrar en la omnipresente plataforma de Google. El gigante estadounidense, sin embargo, responde a las críticas y ha dado un paso adelante y va a dejar de situarlos en posiciones recomendadas (200 millones al día, casi nada).
La compañía ha publicado un post en su blog oficial en el que explica su intención de modificar sus recomendaciones. YouTube dijo que ya no sugeriría vídeos con “contenido límite” o aquellos que “informan mal a los usuarios de manera dañina”, incluso si las imágenes no infringen las pautas de la comunidad. Es decir, Youtube no va a eliminar los vídeos: solo va a dejar de recomendarlos. La decisión de no hacer clic (y de no creerte todo lo que te sale en una pantalla o te envían por Whatsapp, recuerda, es tuya).
YouTube, eso sí, ha explicado que la cantidad de videos afectados por el cambio de política supone menos del 1% del total de videos en la plataforma. Para llevar a cabo este cambio, Youtube va a confiar tanto en el machine learning como en “gente real”. Los evaluadores humanos, desplegados por “todo EE UU”, dijo la compañía, verán diferentes videos de YouTube y ofrecerán comentarios sobre la calidad de esos videos. Esos juicios ayudarán a informar lo que marca el algoritmo.
Este será un cambio gradual y, por ahora, solo va a afectar a EE UU. “Con el tiempo, cuando nuestros sistemas se vuelvan más precisos, vamos a comenzar a desplegar estos cambios a otros países”.
YouTube y otras plataformas tecnológicas poderosas han enfrentado críticas crecientes por no vigilar el contenido que los usuarios publican. Su motor de recomendación ha sido denunciado por empujar a los usuarios a contenido dudoso. Incluso a aquellas personas que no muestran especial predisposición para consumirlos. También se le ha culpado por ampliar la división política en el país, llevando a los espectadores ya partidistas a puntos de vista más extremos, según explica The New York Times.
A finales de 2017, YouTube comenzó etiquetar ciertos vídeos como contenido “polémico religioso o supremacista”, por lo que los videos no se monetizan con publicidad. Además, desactivaba características como comentarios y me gusta. Algunos videos aparecen detrás de un breve mensaje que dice que los videos pueden ser inapropiados u ofensivos.
YouTube proporcionó solo tres ejemplos de los tipos de videos que dejaría de recomendar: aquellos que promueven una cura milagrosa falsa para una enfermedad grave, otros que afirman que la Tierra es plana o que hace afirmaciones descaradas sobre eventos históricos como los ataques del 11 de septiembre.
“Creemos que este cambio nos ayudará a conseguir un servicio equilibrado entre mantener una plataforma para la libertad de expresión y cumplir con nuestra responsabilidad para con los usuarios”, asegura YouTube en su post.
YouTube dijo que estaba ajustando constantemente su sistema de recomendaciones. Asegura que el año pasado ya aplicó “cientos de cambios”. En sus primeros años, explica, sugería aquellos videos que pensaba aportarían más clics o reproducciones. Con el tiempo, sin embargo, descubrió que las personas que crearon los videos comenzaron a tratar de jugar con el sistema con títulos de clickbait. Así las cosas, la intención de la compañía es que el usuario considere el tiempo que pasa en ello como “bien empleado”. Y eso, sin caer en la tentación de que la recomendación siguiente no sea demasiado similar al vídeo recién reproducido.
Fuente: Retina El Pais