Masacre de Nueva Zelanda: Facebook explicó por qué no pudo detener la transmisión y dejó al desnudo todos sus problemas

El vicepresidente de Producto de Facebook, Guy Rosen, salió a dar respuestas y brindó explicaciones sobre la transmisión en vivo de la masacre en Nueva Zelanda. En una reciente publicación en el blog oficial, uno de los máximos referentes de la compañía señaló que no se activaron los sistemas de detección automática porque la inteligencia artificial no tenía suficiente entrenamiento para…

Masacre de Nueva Zelanda: Facebook explicó por qué no pudo detener la transmisión y dejó al desnudo todos sus problemas

El vicepresidente de Producto de Facebook, Guy Rosen, salió a dar respuestas y brindó explicaciones sobre la transmisión en vivo de la masacre en Nueva Zelanda. En una reciente publicación en el blog oficial, uno de los máximos referentes de la compañía señaló que no se activaron los sistemas de detección automática porque la inteligencia artificial no tenía suficiente entrenamiento para reconocer ese tipo de video

Mirá también

Newsletters Clarín

Lo más leído del día | Enterate de que se habló hoy para no quedarte afuera del mundo

De lunes a viernes por la tarde.

Recibir newsletter

Al momento de la espeluznante matanza, que duró 17 minutos sin interrupciones, cerca de 200 personas lo estaban viendo en vivo. Luego, el video alcanzó las 4.000 reproducciones antes de que fuera eliminado de la red social. 

“Nos preguntaron por qué nuestra tecnología de coincidencia de imagen y video, que fue tan efectiva para prevenir la propagación de propaganda de organizaciones terroristas, no captó esas copias adicionales”, escribió Rosen. “Lo que desafió nuestro enfoque fue la proliferación de muchas variantes diferentes del video, impulsadas por las formas amplias y diversas en que la gente lo compartió”, respondió. 

Brenton Harrison Tarrant, de 28 años, logró transmitió durante 17 minutos el horrible ataque que se llevó la vida de 50 personas.

Los sistemas de inteligencia artificial detrás de la plataforma de Mark Zuckerberg son los encargados de democratizar los contenidos que allí se publican. Están basados en “datos de entrenamiento” que sirven para educar al software para reconocer y eliminar contenidos, como la desnudez y el terrorismo.

Rosen también reveló que la forma en que los usuarios reportaron el video provocó un retraso en la reacción del algoritmo de Facebook. 

Mirá también

Actualmente, los usuarios de Facebook pueden marcar como contenido inapropiado todo aquel que incluya desnudez, violencia, acoso, noticias falsas, spam, terrorismo, discurso de odio, contenido grosero y suicidio o autolesión. 

Pero los primeros informes sobre el video del tiroteo en Nueva Zelanda, que se produjeron después de finalizada la transmisión en vivo, fueron calificados por los usuarios como “algo distinto al suicidio” y, como tal, Rosen señaló que “se manejó de acuerdo con diferentes procedimientos”.  

Para colmo, según dijeron desde Facebook, varios usuarios subieron a la plataforma diversas versiones editadas de la transmisión en vivo, lo que complicó aún más la posibilidad de bloquear el video. Las iteraciones, que incluían fragmentos grabados de televisores y monitores de computadoras, trabajaron para engañar al sistema de inteligencia artificial y permitieron que esas copias se difundieran, escribió Rosen.

Mirá también

Tras el episodio de Tarrant, la red social de Mark Zuckerberg reveló que comenzará a utilizar una tecnología basada en audio para detectar esta clase de videos, que incluso podrían haber sido editados para vulnerar al sistema visual de inteligencia artificial.

“Otro desafío será discernir automáticamente este contenido de contenido visualmente similar e inocuo; por ejemplo, si nuestros sistemas marcan miles de videos de videojuegos transmitidos en vivo, nuestros revisores podrían perderse los videos importantes del mundo real”, detalló Rosen. 

El martes, Facebook y YouTube defendieron sus respuestas a la transmisión en vivo de Christchurch. La plataforma de videos de Google dijo que se vio superado por la “escala y velocidad sin precedentes” con la que se cargaron nuevos videos en las 24 horas posteriores al ataque.

H.M