Mujeres políticas y periodistas sufren abusos cada 30 segundos en Twitter

Mujeres políticas y periodistas sufren abusos cada 30 segundos en Twitter
El estudio más grande sobre los ataques en línea revela que las mujeres de color son las más propensas a ser el blanco de ataques| Archivo

Las mujeres políticas y periodistas sufrieron abusos en Twitter cada 30 segundos en 2017, según el estudio más grande sobre cómo las mujeres son atacadas con discursos de odio en línea.

Investigadores de Amnistía Internacional y Element AI, una empresa “startup” de software de inteligencia artificial utilizaron voluntarios para leer 300,000 tuits que mencionaron a alguna de las 778 mujeres de su lista en 2017 y etiquetaron cualquier abuso enfocado en género, raza y sexualidad.

Los hallazgos, cuando se extrapolan, sugieren que se enviaron 1.1 millones de tuits abusivos a las mujeres en su lista, en la que se incluyó a todas las mujeres miembros del parlamento en el Reino Unido, las mujeres miembros del Congreso de EU y una serie de periodistas que trabajan en títulos en medios noticiosos de todo el espectro político, desde Pink News y The Guardian hasta Daily Mail y Breitbart.

Las mujeres de color fueron más propensas a ser mencionadas en tuits abusivos. Las mujeres de raza negra tenían casi el doble de probabilidades de ser atacadas que sus contrapartes blancas. Diane Abbott, la secretaria del Interior de la oposición y política laborista, recibió la mayor cantidad de abusos entre las mujeres británicas, y las estimaciones indican que el número total de tuits abusivos que la mencionaron fue de 30,000 el año pasado.

Este tipo de abuso realmente limita la libertad de expresión de las mujeres en línea. Las hace retraerse, limitar sus conversaciones e incluso retirarse por completo”, dijo Milena Marin, asesora principal de Tactical Research de Amnistía Internacional, quien ha estado estudiando el tema durante tres años.

“Hemos estado dialogando con Twitter durante mucho tiempo, pidiendo transparencia en torno a los datos de abuso, pero ellos actúan como guardianes. No creo que sea tarea de Amnistía analizar el abuso en Twitter, pero no tuvimos otra opción”.

Añadió que el conjunto de datos compilado por los investigadores es ahora el más grande de su tipo en el mundo. “Tenemos los datos que respaldan lo que las mujeres nos han estado diciendo durante mucho tiempo: Twitter es un lugar donde el racismo, la misoginia y la homofobia pueden prosperar básicamente sin control”, dijo la señora. Marin.

Los investigadores se basaron en 6,000 voluntarios de todo el mundo a quienes se les mostraron tuits anónimos que mencionaban a alguna de las mujeres de la lista y se les pidió que calificaran si era abusivo y por qué.

Cada tuit fue analizado por varias personas. Los voluntarios recibieron un tutorial y definiciones y ejemplos de contenido abusivo y problemático antes de comenzar. Luego, Element AI extrapoló los datos sobre la magnitud del abuso que las mujeres enfrentaron y desarrolló una aplicación que intenta detectar si un tuit es abusivo.

“Lo que descubrimos es que tenemos algoritmos que funcionaron, pero no correctamente el 100 por ciento de las veces”, dijo Julien Cornebise, director de Investigación de la Fundación AI For Good y director de la oficina de Element AI en Londres. “El juicio humano juega un papel clave, los algoritmos pueden empoderar a los moderadores humanos, pero funciona un poco como un sistema de clasificación. No es perfecto y no puede reemplazar totalmente a los humanos”.

Twitter, al igual que otras compañías similares de redes sociales, ha luchado contra la avalancha de abusos que los usuarios, tanto hombres como mujeres, reciben en forma de discurso de odio, noticias falsas y terribles teorías de conspiración.

Recientemente, Jack Dorsey, director ejecutivo de Twitter, lanzó la búsqueda de una nueva forma de medir la “salud” de las conversaciones en línea, conforme la compañía intenta reducir los abusos, troles y bots en su plataforma, mientras intenta mantener la libertad de expresión.

Twitter está invirtiendo fuertemente en el aprendizaje automático, para desarrollar herramientas automatizadas que puedan juzgar los reportes de abuso, pero la señora Marin de Amnistía dice que la compañía no ha compartido muchos detalles sobre cómo se capacitan sus algoritmos, cuántos moderadores humanos emplea y cómo se manejan exactamente los reportes de abuso, por humanos o por máquinas.

Madhumita Murgia
Financial Times

Más informaciones

Comente la noticia

Ver todas las noticias