España tiene un depósito fijo de odio. Es pequeño, pero constante, tiene sus objetivos diarios y una gran visibilidad. Es como si el gran cañón del odio español mirara cada mañana la actualidad y pensara: ¿A por quién vamos hoy? Si no hay blancos frescos, siempre hay un político o un futbolista que algo habrá hecho mal.
El último domingo, por ejemplo, fue fácil. Había un candidato sencillo: un Barça-Madrid. Los receptores principales de odio fueron el @realmadrid y @luissuarez9. El periodista @As_Tomasroncero hizo un tuit sobre una entrada de Luis Suárez a Nacho que merecía, en su opinión, la expulsión y recibió bastantes críticas, como también el programa @elchiringuitotv.
El programa que permite este análisis es obra del ingeniero informático y científico de datos Juan Carlos Pereira Kohatsu, de 24 años. Dedicó sus trabajos de final de grado y de máster al odio en las redes. Después de año y medio de trabajo su herramienta ha acabado instalada en el Ministerio del Interior.
El algoritmo rastrea unos 6 millones de tuits en 24 horas con un filtro que incluye más de 500 palabras vinculadas a insultos y a grupos de víctimas de odio: política, género, etnicidad, discapacidad, religión y deportes. Pereira pasa su algoritmo por ese conjunto de tuits. El resultado es una muestra del 33% de odio del día: esa muestra final de tuits se mantiene en días distintos con una increíble estabilidad de entre 3.000 y 4.000 tuits. Como es una muestra del 33%, el total de tuits con odio en España ronda los 10.000 diarios. Según el algoritmo, por tanto, el porcentaje de odio en Twitter en España está por debajo del 0,2% de los tuits de un día.
Pero la cantidad no es el problema. El problema es que se ven mucho y afectan a sus receptores y a la salud de la conversación.
Los tuits con odio son mayoritariamente respuestas a otros tuits, por lo que debería verlos poca gente. Pero no es así. A veces son retuiteados para vergüenza pública, a veces dan origen a batallas o son muy visibles porque son respuestas a tuits célebres. “Nuestros sesgos hacen que nos acordemos más de un tuit de odio. Le damos mucho más peso”, dice Miguel Camacho, cotutor del trabajo de máster de Pereira y jefe de la Oficina Nacional de Lucha contra Delitos de Odio, del Ministerio del Interior.
En esa oficina es donde está instalada la aplicación. Una funcionaria conoce su funcionamiento y trabaja junto a Pereira cuando necesita algo. “Estamos pensando en cómo usar la herramienta. Una opción es publicar informes periódicos o más concretos para días especiales. También podemos dar información al tercer sector o formación a nuestros cuerpos. O avisar de que un espacio de culto necesita más patrullaje porque hay movimiento en la red”, dice Camacho.
Hay insultos con sus matices
“Nuestros sesgos hacen que nos acordemos más de un tuit de odio. Le damos mucho más peso”
En el odio también hay matices. La herramienta da un índice de 0 a 1 a cada tuit. Por debajo de 0,7 no lo considera odio. Los odios por encima del 0,9 admiten pocas dudas, aunque algunos estén más cargados de basura que otros. Estos tres por ejemplo recibieron 0,92: “5 goles lo que más le puede joder a un facha asqueroso madridista! A mamarla prepotentes!”, “Era roja del puto asesino perro basura de Suárez” o “Disfrutad catalanes de mierda a ver si mañana os meten una bomba y voláis en pedacitos”, en cambio “Maldita lisiada! Estás loca de atar” era 0,7. Los emoticonos también son valores para el algoritmo.
El programa no pretende ser exhaustivo, sino convertirse en un termómetro que observe el odio y detecte picos o tendencias. No se trata de seguir a los odiadores mayores para borrar sus tuits. Esa tarea recae, en todo caso, en Twitter, que tiene el dilema eterno de averiguar dónde acaba la libertad de expresión y empieza el insulto. El odio, aunque no sea delito, perjudica la salud de la red y Twitter lleva año y medio intentando limitarlo. Los datos de la propia red también revelan un odio muy concentrado: la mayoría de los tuits problemáticos los emite menos del 1% de las cuentas. Eso no implica necesariamente que sean pocos tuits, sino que los emite relativamente poca gente.
Este algoritmo está destinado a medir ese odio global y contra grupos. Es evidente que por debajo de ese odio “mayoritario” hay odio concreto, individual, donde el odio machista es quizá el gran protagonista. La herramienta detecta ese odio, pero en el gráfico solo destacan los grandes nodos receptores, que pueden ser víctimas por ideología, género, religión u otros. La observación del odio pequeño, dirigido, queda más en manos de Twitter y de las denuncias que cada usuaria puede hacer.
El odio que campa por Twitter no afecta igual a todos los usuarios. Gabriel Rufián, diputado de ERC, y probablemente el político español que más odio recibe sin ser líder de su partido, no siente que la red sea un problema grave: “Twitter es una barra de bar. Todo es extremo. Es más peligroso e insultante un discurso de Rivera o Abascal que un trol de Twitter”, dice.
Los hechos recientes de la sinagoga de Pittsburgh, los paquetes bomba enviados desde Florida en Estados Unidos y la elección de Bolsonaro en Brasil han puesto aún más el foco en el odio en línea y en su posible expansión. Los dos acusados por los primeros hechos mencionados recibieron, repitieron y celebraron mensajes de odio en redes. ¿Es peor el odio virtual que en la vida real? Es claramente más accesible y el anonimato da libertad. Esa facilidad para exhibir el odio puede tener consecuencias, según Christopher Bail, profesor y director del Laboratorio de Polarización de la Universidad de Duke: “En la medida en que los extremistas son más que los moderados en muchas redes sociales –o al menos más insistentes al expresar sus puntos de vista extremos– pueden contribuir a los estereotipos y el tribalismo político que otros usuarios pueden malinterpretar como representativo del otro bando”, explica Bail.
¿El odio en las redes llega a la vida real?
Según el algoritmo, el porcentaje de odio en Twitter en España está por debajo del 0,2% de los tuits de un día
¿Puede ese extremismo llevar el odio a la vida real? ¿Tiene consecuencias fuera de internet? “Es una pregunta muy difícil”, dice Kevin Munger, investigador en la Universidad de Princeton. “Un problema mayor es la amplificación de este comportamiento por los medios: los trols apuntan a periodistas, lo que les lleva a escribir artículos sobre odio y trols, así haciéndoles parecer más poderosos de lo que son”, explica. ¿Hay entonces más odio ahora que antes? Los difusores de odio “siempre han estado ahí, pero antes (acertadamente) no salían en los medios. Internet les ha permitido encontrar a otros con odio”, dice Munger.
La herramienta de Pereira puede aún mejorarse. Su perfeccionamiento depende de si obtiene fondos europeos. Ahora no funciona automáticamente, sino solo cuando se quiere medir un día. Puede también afinarse: acierta un 77% de las veces en las que predice odio. Además, el algoritmo aprenderá a buscar símbolos de odio en fotos o incluso a leer memes y clasificarlos. También puede ampliarse a otras redes, como Instagram. Allí podría crearse un algoritmo para que encontrase patrones en el ciberacoso.
“Siempre ha estado ahí, pero antes (acertadamente) no salía en los medios. Internet ha permitido encontrar a otros que odian”
Otro aspecto que se puede mejorar es el etiquetado de los tuits para que el algoritmo aprenda qué es y qué no es odio. Este proceso demuestra los riesgos de aplicar la inteligencia artificial a una base de datos sesgada. ¿Cómo se entrenó este algoritmo para distinguir odio? Seis mujeres de edad parecida etiquetaron a mano 6.000 tuits: a un lado los que eran odio; a otro, los que no. No siempre coincidían. Así que, como dice Lara Quijano, cotutora del trabajo de Pereira e investigadora en la Universidad Autónoma de Madrid, “el algoritmo piensa como esas seis personas, que son mujeres, de una franja de edad”.
Esto puede ser algo menor, pero no lo es. Por ejemplo, este tuit: “Os he contado la historia del guiri detrás mío? Que hombre más subnormal por favor”. ¿Es odio? Entre las etiquetadoras hubo empate. ¿Por qué? El tuit respondía a otro donde se llamaba “feminazi” a la autora de la frase. ¿Rebaja eso la calificación de odio? Depende de cada cual. Por ejemplo, la herramienta dio un 0,2 de odio a “La llamáis feminazi, pero los nazis sois vosotros, dais lastima, sois vomitivos”.
Fuente: El Pais