“No tengo ninguna duda de que Instagram ayudó a matar a mi hija”.
Esas son las palabras con las que Ian Russell, el padre de Molly, una niña de 14 años que se suicidó en 2017, ha puesto entre las cuerdas a la red social, a la que acusa de exponer “contenido estremecedor” que “anima a autolesionarse.”
Tras la muerte de Molly, la familia analizó las cuentas de las redes sociales que tenía la pequeña. Había contenido sobre la depresión y las autolesiones. “Me acuerdo de encontrar un dibujo que decía lo siguiente: ‘Este mundo es muy cruel, ya no quiero verlo más’”, le contó Russell a la BBC en un programa emitido este martes.
Russell también declaró que Molly accedió a “cuentas de gente que estaba deprimida, que se autolesionaba o que se planteaba el suicidio”.
Molly dejó notas en las que explicaba cómo se sentía.
Su padre dice que el contenido que vio en Instagram incentivó su muerte.
En un primer momento, la red social no quiso pronunciarse demasiado al respecto.
Cuando la BBC trató de contactar a sus responsables, estos no quisieron hacer comentarios. Tan solo emitieron un comunicado asegurando que Instagram “no permite ese tipo de contenido” y que lo elimina de su plataforma.
Pero la red social ha roto su silencio.
“Devastador” y “complicado”
Steve Hatch, director de Facebook -la compañía a la que pertenece Instagram- para Europa del Norte, le contó a la BBC en una entrevista en exclusiva que la muerte de Molly Russell fue un “suceso devastador”.
Hatch le dijo al editor de la BBC Amol Rajan que se sintió “profundamente afligido” cuando escuchó las acusaciones del padre de Molly en las que aseguró que la red social es, en parte, responsable de la muerte de la niña.
Molly era la pequeña de tres hermanas.
“No me puedo ni imaginar cómo se siente el padre de Molly y el resto de la familia”, declaró.
Cuando Rajan le mostró imágenes de autolesiones que supuestamente van en contra de las políticas de Instagram, pero, aún así, disponibles en la red social, el ejecutivo respondió lo siguiente: “Tenemos que asegurarnos de que analizamos estas imágenes y nos aseguramos de que son eliminadas”.
Hatch también dijo que Instagram revisa sus políticas constantemente en todo lo relacionado con imágenes sobre depresión y suicido.
“Es un asunto muy complicado”, añadió.
Steve Hatch es el director de Facebook para Europa del Norte.
“Trabajamos con expertos que ayudan a diseñar las políticas sobre las imágenes de autolesiones. Es un área muy compleja”.
“Los expertos nos dice que cuando esas imágenes son publicadas por personas que están pasando, claramente, por una situación muy difícil, muchas veces lo hacen porque buscan apoyo o ayuda”.
“En esos casos, puede ser muy útil y de mucha ayuda que esas imágenes estén disponibles en la plataforma. Por eso las permitimos y ofrecemos apoyo a quienes las puedan ver”.
“Lo que no permitimos son las que aplauden o ensalzan (el suicidio)”.
No quiso, sin embargo, responder a la pregunta de si permite a sus hijos usar Instagram, pero señaló que la red social “trabaja duro” en eliminar ese tipo de imágenes y que también ofrece “mucho apoyo” a la gente.
Filtros de contenido
La BBC buscó en Instagram el contenido que aparecía con el “hashtag” (etiqueta) de “selfharm” (autolesión, en inglés) y encontró imágenes muy explícitas de los usuarios.
Instagram dice que el problema es “complejo”.
Además, los algoritmos hacen que los hashtags ayuden a encontrar más contenido similar.
Ese material sigue estando disponible en la plataforma. Y aunque Instagram cuenta con una herramienta que advierte sobre ciertos términos de búsqueda y ofrece ayuda, los usuarios pueden ignorar la ayuda, seguir navegando y acceder a ese material de todas formas.
La red social creó esos nuevos “filtros de contenido” a partir de otra investigación de la BBC, en la que se resaltó cómo la red social promueve la anorexia y la bulimia.
Fuente: www.bbc.com