El pasado 30 de diciembre, una niña de 12 años llamada Katelyn retransmitió en directo a través de Live.me cómo se colgaba de un árbol para quitarse la vida. Distintas copias del vídeo corrieron como la pólvora por las redes sociales. Facebook, a diferencia de YouTube, tardó dos semanas en eliminarlo de su red.
En el vídeo de 43 minutos se veía a Katelyn atando una soga a un árbol, subiendo a una rama y dejándose caer. Durante los últimos 15 minutos, su teléfono empezaba a sonar y se escuchaba cómo distintas voces gritaban su nombre en la distancia, mientras su cuerpo inerte colgaba en primer plano.
La familia de Katelyn borró el clip de Live.me, pero Internet se llenó de copias en cuestión de horas. YouTube las eliminó a principios de la semana pasada, argumentando que violaba su política de contenido violento o gráfico. En Facebook, las copias estuvieron disponibles hasta la tarde del 12 de enero.
El error de la compañía es especialmente flagrante si tenemos en cuenta que la policía del condado de Polk —de donde era Katelyn— había admitido públicamente su fracaso a la hora de eliminar el vídeo de las redes sociales. “Estamos haciendo una petición específica para que cualquiera que tenga algún vídeo o comentario sobre este caso mantenga esa información fuera de Internet”, publicaron en Facebook el lunes 9 de enero, hace justo una semana.
Quizá uno de los problemas que retrasó la acción por parte de Facbook fuera decidir en base a qué política eliminarían las distintas copias (muchas eran resúmenes que advertían a los usuarios que iban a ver contenido gráfico). Finalmente Facebook dijo que el vídeo violaba las directrices de su comunidad sobre la promoción de autolesiones y conductas suicidas:
No se permite el contenido que fomente el suicidio o cualquier otro tipo de autolesión, incluidos los trastornos alimenticios y las automutilaciones. No obstante, sí es posible compartir información sobre estas conductas que no las fomente.
Pero, ¿fomentaba realmente el sucidio? Tras ser cuestionados por Quartz, los responsables de la compañía no respondieron a esa pregunta.
Lo intrigante del caso es que a Facebook no le suele temblar la mano a la hora de borrar cierto contenido que causa malestar en algunos usuarios. De hecho tienen sistemas automatizados para eliminar las imágenes sexuales o de mujeres en topless. Por otro lado, en octubre anunciaron que comenzarían a aceptar vídeos de contenido gráfico si estos entraban en la categoría de actualidad periodística e interés público. En 2014 ya se habían negado a borrar las fotos del suicidio de un marine de los Estados Unidos, a pesar de las súplicas de su familia.
Aunque el vídeo original no tuviera nada que ver con Facebook Live, la muerte de Katelyn pone en evidencia los retos a los que se enfrenta la compañía desde que lanzó su servicio de vídeo en directo. En agosto del año pasado, la policía solicitó a Facebook que desactivara las cuentas de una mujer que estaba emitiendo en directo su enfrentamiento armado con la policía del condado de Baltimore. Hace unas semanas, un grupo de personas usó la plataforma pararetransmitirse a sí mismos torturando y burlándose de un adolescente discapacitado.
0 Comentarios