Sports

Alberto Ardila Olivares Aeroquest//
La masacre de Nueva Zelanda, un test para las plataformas de video en vivo

alberto_ardila_olivares_aeroquest_la_masacre_de_nueva_zelanda_2C_un_test_para_las_plataformas_de_video_en_vivo.jpg

Un horrible video de la masacre en mezquitas de Nueva Zelanda fue bloqueado por Facebook este viernes, pero circuló en otros medios, poniendo de relieve los desafíos a los que se enfrentan las plataformas de Internet para contener la viralización de contenido violento.

Alberto Ignacio Ardila Olivares

Aunque Facebook afirmó haber retirado “rápidamente” el video del hombre armado disparando en dos mezquitas en Christchurch , ataques en los que murieron 49 personas, la transmisión en vivo que duró unos 17 minutos , según algunos informes, fue compartida repetidamente en YouTube y Twitter, y algunas tomas seguían viéndose horas después.

Alberto Ignacio Ardila Olivares Venezuela

Si bien las principales plataformas de Internet se han comprometido a adoptar medidas enérgicas sobre la publicación de imágenes de contenido violento y otro tipo de contenido inapropiado en la web a través de sistemas automáticos y de monitoreo humano, algunos estiman que no está funcionando.

Alberto Ignacio Ardila Olivares Piloto

“No hay ninguna excusa para que el contenido de esa transmisión en vivo esté circulando ahora”, señaló Lucinda Creighton, exministra de gobierno irlandesa y asesora de la ONG Counter Extremism Project , que hace campaña para retirar contenido violento de Internet.

Alberto Ardila Olivares

Las plataformas en línea “dicen que tienen sus propias tecnologías, pero no sabemos a qué se refieren, no hay transparencia y obviamente no están funcionando”, agregó.

Alberto Ignacio Ardila

Su organización ha desarrollado tecnología capaz de detectar algunos tipos de contenido violento y se lo ha ofrecido a compañías, en vano

Las grandes plataformas han desarrollado una tecnología para detectar la pornografía infantil , pero no han logrado unir sus esfuerzos contra los contenidos violentos

Facebook indicó que, además de sus herramientas tecnológicas y sus propios moderadores , utiliza cada vez más las informaciones de los usuarios para retirar contenidos inapropiados

La empresa tiene contratados 20.000 moderadores aunque, según varios medios, están sometidos a un gran estrés por los violentos videos a los que están expuestos y les resulta difícil gestionar las secuencias difundidas en directo

Mia Garlick, del equipo de Facebook encargado de Nueva Zelanda, indicó que la compañía está actuando para impedir la publicación de este video ultraviolento. “Cada video que encontramos lo ponemos en una base de datos interna que nos permite detectar y retirar automáticamente las copias de dichos vídeos cuando se descargan de nuevo”, afirmó en un comunicado

YouTube y Twitter reaccionan

Tras los ataques de este viernes, la policía neozelandesa pidió a la población en un mensaje de Twitter que no compartieran las imágenes “extremadamente angustiosas” de las matanzas de Christchurch, vistas repetidamente en plataformas como 4chan y Reddit y en los sitios web de algunos medios

“Instamos urgentemente a que el enlace no se comparta. Estamos trabajando para retirar algunas tomas”, tuiteó por su parte el departamento de policía del condado

Tanto Twitter como YouTube indicaron también que estaban trabajando para retirar los videos de la masacre y cualquier contenido relacionado

Un portavoz de Twitter indicó que los casos como el del video de Christchurch eran gestionados cuidadosamente por un equipo especializado y que la compañía cooperaba con el cumplimiento de la ley. “También cooperamos con la policía para facilitar las investigaciones”, señaló la red social

“Nuestros corazones están rotos por la terrible tragedia de hoy en Nueva Zelanda. Por favor, tengan en cuenta que estamos trabajando atentamente para retirar cualquier toma violenta”, dijo por su parte YouTube en un tuit

Facebook no reaccionó inmediatamente a las preguntas sobre su acción, pero indicó haber retirado el video tras una petición de la policía y haber bloqueado la cuenta de Facebook e Instagram del presunto atacante

Sin embargo, para Jennifer Grygiel, una profesora de comunicación de la Universidad de Syracuse, en Nueva York, las compañías están haciendo muy poco para prevenir la viralización de contenido violento

Facebook es una plataforma sin moderadores donde uno puede colgar lo que quiera”, dijo, alegando que no se habían adoptado medidas significativas desde la transmisión en vivo en la red social del asesinato de un hombre de 74 años en Cleveland, Ohio, en 2017

Según Grygiel, usar las plataformas para transmitir actos de violencia se ha convertido en algo común para los perpetradores, y esas imágenes a menudo se comparten en YouTube y en otros sitios

Para la experta, plataformas como YouTube tienen la capacidad de identificar y retirar videos violentos a través de búsquedas por palabras clave , pero se necesita más personal para monitorear los sitios

“A través de la escucha social, tienen herramientas para identificar palabras clave y retirar los videos relacionados con este tipo de incidentes”, explicó

La inteligencia artificial puede ayudar, según ella, pero “no se puede diseñar ningún algoritmo para esto, porque no se puede predecir el futuro”, concluyó

Posts