Video suicida de TikTok: es hora de que las plataformas colaboren para limitar el contenido perturbador

Video suicida de TikTok: es hora de que las plataformas colaboren para limitar el contenido perturbadorVideo suicida de TikTok: es hora de que las plataformas colaboren para limitar el contenido perturbadorVideo suicida de TikTok: es hora de que las plataformas colaboren para limitar el contenido perturbador

Por Ariadna Matamoros-Fernández, D. Bondy Valdovinos Kaye

Miércoles, 9 de septiembre de 2020 1:40 PM UTC

Según los informes, un video perturbador que pretende mostrar a un hombre suicidándose está circulando en la popular aplicación de videos cortos TikTok, reavivando el debate sobre lo que están haciendo las plataformas de redes sociales para limitar la circulación de material preocupante.

Según los informes de los medios, el video apareció por primera vez en Facebook a fines de agosto, pero se volvió a cargar y compartir en Instagram y TikTok; según los informes, a veces se cortó con contenido aparentemente inofensivo, como videos de gatos.

Los usuarios de TikTok han advertido a otros que se deslicen rápidamente si ven un video emergente que muestra a un hombre con cabello largo y barba.

Una declaración de TikTok citada por News.com.au decía:

Nuestros sistemas han detectado y marcado automáticamente estos clips por violar nuestras políticas en relación con contenido que muestra, alaba, glorifica o promueve el suicidio.

Estamos prohibiendo las cuentas que intentan cargar clips repetidamente, y apreciamos a los miembros de nuestra comunidad que han informado sobre contenido y advirtieron a otros que no vean, participen o compartan dichos videos en cualquier plataforma por respeto a la persona y su familia.

Las escuelas y los defensores de la seguridad infantil han advertido a los padres que estén atentos a la posibilidad de que su hijo vea, o ya haya visto, el video si es un usuario de TikTok o Instagram.

La triste realidad es que los usuarios continuarán publicando contenido perturbador y es imposible que las plataformas moderen antes de publicar. Y una vez que un video está en vivo, el contenido no tarda mucho en migrar a otras plataformas.

Apuntar con el dedo a plataformas individuales como TikTok no resolverá el problema. Lo que se necesita es un enfoque coordinado en el que los grandes gigantes de las redes sociales trabajen juntos.

Evadir la moderación

La posmoderación significa que se puede publicar incluso el peor contenido. O las plataformas lo identifican con sistemas de aprendizaje automático o los usuarios informan que lo procesan moderadores humanos. Pero puede estar en vivo durante cinco minutos, una hora o más.

Una vez que un video está publicado, los malos actores pueden descargarlo, modular para reducir la posibilidad de detección mediante sistemas de aprendizaje automático de moderación de contenido y compartirlo en múltiples plataformas: Reddit, Instagram, Facebook o más.

Estos malos actores pueden cortar el video de manera ligeramente diferente, editarlo dentro de material inofensivo, ponerle filtros o distorsionar el audio para que sea difícil para los programas de moderación de contenido identificar automáticamente videos perturbadores. El aprendizaje automático con contenido visual está avanzando, pero no es perfecto.

En líneas generales, esto es lo que sucedió con el video de la masacre de Christchurch, donde el contenido tomado de la transmisión en vivo de Facebook del agresor de su ataque se descargó y luego se compartió en varias plataformas.

Para cuando Facebook eliminó el video original, la gente ya tenía copias y lo estaban subiendo a Facebook, Reddit, YouTube y más. Muy rápidamente se convirtió en un problema multiplataforma. Estos malos actores también pueden agregar hashtags (algunos que suenan muy inocentes) para dirigirse a una comunidad en particular.

Uno de los atractivos clave de TikTok como plataforma de redes sociales es su “capacidad de difusión”; con qué facilidad facilita la creación y el intercambio de nuevos videos basados en el que un usuario estaba viendo.

Con solo unos pocos toques, los usuarios pueden crear un video de “dueto” en el que se muestran a sí mismos reaccionando al contenido perturbador. Los malos actores también pueden volver a subir fácilmente videos que se han eliminado. Ahora que este presunto video de suicidio está en libertad, será difícil para TikTok controlar su propagación.

¿Qué pasa con las eliminaciones por derechos de autor?

Algunos han notado que las plataformas de redes sociales parecen ser muy hábiles para eliminar rápidamente material protegido por derechos de autor de sus servicios (y así evitar enormes multas), pero pueden parecer más tardías cuando se trata de contenido perturbador.

Sin embargo, los videos con derechos de autor son, en muchos sentidos, más fáciles de detectar para los sistemas de moderación de aprendizaje automático. Los sistemas existentes que se utilizan para limitar la difusión de material protegido por derechos de autor se han creado específicamente para hacer cumplir los derechos de autor.

Por ejemplo, TikTok usa un sistema para detectar material protegido por derechos de autor (específicamente música con licencia de los principales sellos discográficos) para identificar automáticamente la huella digital de una canción.

Aun así, TikTok se ha enfrentado a una serie de problemas relacionados con la aplicación de los derechos de autor. Detectar discursos de odio o videos gráficos en la plataforma es mucho más difícil.

Margen de mejora

Ciertamente, hay margen de mejora. Es un problema de toda la plataforma, de toda la sociedad; no podemos simplemente decir que TikTok está haciendo un mal trabajo, es algo que todas las plataformas deben abordar juntas.

Pero pedir a los competidores del mercado que propongan un enfoque coordinado no es fácil; las plataformas normalmente no comparten recursos y trabajan juntas a nivel mundial para manejar la moderación de contenido. Pero tal vez deberían hacerlo.

TikTok emplea equipos masivos de moderadores humanos además de su moderación de contenido automatizada impulsada por algoritmos. Estos moderadores de contenido humano trabajan en muchas regiones e idiomas para monitorear el contenido que puede violar los términos de uso.

Los eventos recientes muestran que TikTok es consciente de la creciente demanda de prácticas mejoradas de moderación de contenido. En marzo de 2020, respondiendo a preocupaciones de seguridad nacional, la empresa matriz de TikTok, ByteDance, se comprometió a dejar de utilizar equipos de moderación con sede en China para moderar el contenido internacional. También estableció un “centro de transparencia” en marzo de 2020 para permitir que los observadores externos y los expertos examinen las prácticas de moderación de la plataforma.

Estas plataformas tienen un poder enorme y con eso viene la responsabilidad. Sabemos que la moderación del contenido es difícil y nadie dice que deba arreglarse de la noche a la mañana. Cada vez más usuarios saben cómo jugar con el sistema, y no existe una solución única que haga que el problema desaparezca. Es un problema en evolución y la solución también deberá evolucionar constantemente.

Mejorar las habilidades de ciudadanía digital

Los ciudadanos también tienen un papel. Cada vez que estos videos perturbadores circulan, muchas más personas se conectan a Internet para encontrar el video, lo hablan con sus amigos y contribuyen a su circulación.

Para complicar las cosas, el hecho de informar videos en TikTok no es tan sencillo como en otras plataformas, como Facebook o Instagram. Un estudio reciente en el que participé (Bondy Kaye) comparó características en TikTok con su contraparte china, Douyin. Descubrimos que la función de informe estaba ubicada en el menú “compartir” al que se accede desde la pantalla de visualización principal en ambas plataformas, no un lugar en el que muchos pensarían buscar.

Entonces, si eres un usuario de TikTok y te encuentras con este video, no lo compartas, ni siquiera en un esfuerzo por condenarlo. Puede informar el video haciendo clic en el icono de compartir y seleccionando la opción de informe correspondiente.

Share Button
Previous Article
Next Article