Instagram étend l'interdiction du contenu lié à l'automutilation et au suicide

Instagram a annoncé le dimanche 27 octobre qu'il interdisait les représentations fictives d'automutilation ou de suicide de sa plate-forme, y compris les dessins ou les mèmes et le contenu de films ou de bandes dessinées utilisant des images graphiques. Il supprimera également tout message contenant du matériel associé, qu'il montre directement des images d'automutilation ou de suicide.

Cette décision fait suite à la décision de la société en février 2019 d'interdire le téléchargement de photos graphiques d'automutilation sur sa plateforme.

Instagram subit une pression croissante pour traiter de telles images à la suite d'une affaire très médiatisée au Royaume-Uni impliquant Molly Russell, 14 ans, qui s'est suicidée en 2017 après avoir visionné du matériel graphique sur le site. Son père, Ian Russell, pense que la plateforme est au moins en partie responsable de sa mort.

Dans un message publié dimanche, le patron d'Instagram, Adam Mosseri, a décrit le suicide et l'automutilation comme des «sujets difficiles et complexes», mais a ajouté qu '«il existe de nombreuses opinions sur la meilleure façon de les aborder».

Mosseri a poursuivi: «La réalité tragique est que certains jeunes sont influencés de manière négative par ce qu'ils voient en ligne, et par conséquent, ils pourraient se blesser. C'est un vrai risque. Mais en même temps, il y a beaucoup de jeunes qui viennent en ligne pour obtenir du soutien dans les difficultés qu'ils ont - comme ceux partageant des cicatrices guéries ou parlant de leur rétablissement d'un trouble de l'alimentation. Souvent, ces réseaux de soutien en ligne sont le seul moyen de trouver d’autres personnes qui ont partagé leurs expériences. »

Il a déclaré qu'après avoir demandé l'avis d'universitaires et d'organisations de santé mentale, Instagram cherchait à trouver «l'équilibre difficile entre permettre aux gens de partager leurs expériences en matière de santé mentale tout en protégeant les autres contre l'exposition à des contenus potentiellement dangereux.

Mosseri a reconnu qu'il y avait encore beaucoup de travail à faire dans la région, mais a noté que dans les trois mois qui ont suivi son changement de politique initial en février 2019, Instagram a supprimé, réduit la visibilité ou ajouté des «écrans de sensibilité» qui rendent les images plus floues. plus de 834 000 éléments de contenu et a pu localiser plus de 77% de ce contenu avant qu'il ne soit signalé par les utilisateurs.

S'adressant à la BBC, Ian Russell, qui a fait campagne pour qu'Instagram soit plus robuste dans la manière dont il gère les contenus sensibles, a décrit la dernière initiative de la plateforme visant à interdire les représentations fictives d'automutilation et de suicide comme un effort «sincère», mais voulait pour être sûr que l'entreprise tiendrait ses promesses tout en continuant de s'attaquer au problème.

Facebook, qui possède Instagram et a pris des mesures similaires pour lutter contre l'automutilation et les images liées au suicide, a récemment utilisé la Journée mondiale de la santé mentale pour lancer de nouveaux filtres et autocollants Messenger visant à encourager les conversations et le soutien de ceux qui ont besoin d'aide.