Redes sociales enfrentan presión para monitorear contenidos

Redes sociales enfrentan presión para monitorear contenidos

Facebook se ha vuelto más agresivo a la hora de eliminar contenido

Parental control against adult sites for kids. Round icon.

Facebook Inc. usualmente depende de sus 1.500 millones de usuarios para identificar contenidos ofensivos, pero la semana pasada, la red social salió en su búsqueda.

Recientemente, Facebook retiró un perfil usado por una o dos personas sospechosas de asesinar a 14 personas el día anterior en San Bernandino, California. Un portavoz dijo que la página infringía los estándares de comunidad de Facebook que, entre otras cosas, prohíbe las publicaciones, fotos o videos que apoyen el terrorismo o glorifiquen la violencia. El sospechoso, Tashfeen Malik, publicó una entrada cerca del momento del ataque, pero Facebook se abstuvo de revelar su contenido.

La empresa no indicó cómo encontró el perfil y determinó su autenticidad.

Estas decisiones subrayan la creciente presión sobre sitios como Facebook, YouTube, propiedad de Alphabet Inc. y Twitter Inc. para monitorear, y a veces remover, contenido violento y propaganda de los grupos terroristas. No está claro qué tan de cerca trabajan las empresas con los gobiernos, qué tan frecuentemente eliminan contenido y cómo es identificado.

Cuando se trata de contenido terrorista, es una posición complicada para la empresas y una que no envidio, dice Jillian York,
directora de libertad de expresión internacional de la Electronic Frontier Foundation (EFF), en un correo electrónico. Aun así, me preocupa que darle más poder para regular la expresión a las compañías, que por naturaleza no son democráticas, es peligroso.

Las tres empresas emplean tecnología para escanear imágenes relacionadas a la explotación de menores. Hany Farid, director de la división de ingeniería informática de Dartmouth College, que ayudó a desarrollar el Sistema, dijo que espera que se expanda a otros tipos de contenidos cuestionables.

Pero, esto es un reto por diferentes razones. Los scans de explotación de menores emplean una base de imágenes conocidas, creada por el Centro Nacional de Niños Explotados y Desaparecidos de Estados Unidos. No hay una base de datos similar para imágenes relacionadas con terrorismo.

Además, imágenes perturbadoras a menudo aparecen en contenido noticioso y las empresas de medios sociales no desean convertirse en censores de noticias. En una reunión abierta en septiembre, el presidente ejecutivo de Facebook, Mark Zuckerberg se refirió a la fotografía de Aylan Kurdi, un refugiado de tres años que murió mientras trataba de escapar de Siria. La imagen de su cuerpo inerte en las playas de Turquía, la cual se compartió ampliamente, es un ejemplo de una imagen que podría haber sido considerada como inapropiada por un algoritmo, pero que no debería ser censurada.

Eso deja a las empresas de redes sociales en una posición incómoda. En 2014, YouTube rápidamente eliminó los videos de la decapitación de dos periodistas estadounidenses por parte de Estado Islámico. Twitter adoptó una perspectiva similarmente pasiva frente a las mismas imágenes, las cuales permanecieron en el servicio hasta que los usuarios las reportaron.

En agosto, Twitter quitó rápidamente un video de dos reporteros de Virginia TV que fueron asesinados durante una transmisión en vivo.   

Deepa Seetharaman, Alistair Barr y Yoree Koh
Dow Jones

Más informaciones

Comente la noticia