Vine continue de lutter pour éviter le contenu pour adultes

xxxvineInternet était autrefois destiné à la pornographie (du moins, plus qu'il ne l'est maintenant), puis les filets de sécurité ont été mis en place pour garder les yeux (et les oreilles) jeunes et purs à l'écart de ce contenu. Et il semble que la même chose se passe avec les médias sociaux. La récente brouille sur Vine et son problème NSWF, cependant, nous a fait réaliser une chose: le porno ne fait que suivre l'une des règles primaires d'Internet - s'adapter. 

Lorsque Vine est apparu pour la première fois, il a été mis dans la nature avec une poussée encourageante de Twitter, tous les yeux écarquillés et à queue touffue - et non réglementés. Vous pouvez rechercher des balises aussi évidentes que «NSFW» ou les «seins» les plus flagrants et trouver des résultats… beaucoup de résultats. Et notoirement, en raison d'une erreur humaine supposée, une vigne appelée «Dildoplay» a fait son entrée dans la liste des choix de l'éditeur sur l'application (vous ne pouvez pas vous empêcher de vous demander comment la réunion qui en a résulté s'est déroulée). 

On aurait dit que Vine risquait de suivre la voie de l'application Post Secret, c'est-à-dire de sortir de l'App Store iOS rapidement après son lancement grâce à des images pornographiques, horribles et même menaçantes qu'une petite équipe de modérateurs (dans PostSecret's cas, composé en grande partie de bénévoles) ne pouvait tout simplement pas suivre. Les règles de l'App Store indiquent que les applications qui «contiennent du contenu généré par l'utilisateur qui est souvent pornographique» obtiendront le démarrage, et mentionnent ChatRoulette par son nom dans ses exemples de choses qui ne volent pas. 

Les conditions d'utilisation de Vine n'interdisaient même pas les images explicites ou la nudité - et ne le font toujours pas (bien qu'il note que les menaces sont interdites). Bien que la société conserve le droit de «répondre aux demandes d'assistance des utilisateurs», nulle part elle ne dit explicitement que l'explicite n'est pas OK. Cela n'a pas changé, mais la possibilité d'utiliser des balises pour trouver du porno a été abandonnée.

Depuis les débuts de Vine, les hashtags comme #boobs et #smut obtiennent juste un visage triste "rien à voir ici". # Sex101 évoque une vigne étrangement adorable d'animaux en peluche posés dans diverses positions coïtales, mais pas de parties du corps humain.

vigne suicidegirlsMais il y a encore des failles. Par exemple, le compte SuicideGirls montre des photos frontales de modèles tatoués. En faisant défiler, les premiers Vines jouent une série d'images de thèmes très adultes ... mais obtiennent environ quatre ou cinq vidéos, et tout à coup, vous voyez des avertissements concernant le contenu sensible que vous devez appuyer pour afficher. De toute évidence, l'équipe Vine a du mal à suivre ce qui se passe. Alors que certains des hashtags les plus évidents ne tirent pas les Vines souhaitées, d'autres regorgent encore de vidéos très pour adultes (vous voulez voir par vous-même? Recherchez #xxxvine ou #xxxxxx et soyez prêt pour ce qui se présente).  

Lorsqu'il s'agit de dépendre de l'App Store et de fonctionner avec un personnel relativement petit pour parcourir le contenu et sa nature visuelle - et une tendance à attirer des images obscènes - Instagram établit la norme pour signaler, trouver et extraire des images sur le thème des adultes.

Aujourd'hui, Instagram a une note de 12+ dans l'iTunes Store pour, entre autres, «Contenu sexuel peu fréquent / léger ou nudité». Tags non autorisés: # NSFW, # porn, etc. Et même les comptes porn_stars et Suicidegirls sont plus Victoria's Secret que Penthouse . Au lieu de s'appuyer sur une armée de modérateurs, Instagram a supprimé les balises évidentes et s'appuie ensuite sur le bouton «Signaler pour examen».

tags instagram

Pourtant, les masses sont curieuses, alors un utilisateur a essayé de voir ce qu'il pouvait faire. L'utilisateur a posté une photo de seins sur Instagram sous le nom @thebreastsofayounglady et a rapporté les résultats. En un jour et demi, Instagram a appelé avec un avertissement:

Nous avons constaté qu'une ou plusieurs des photos que vous avez partagées sur Instagram enfreignent notre règlement de la communauté, que vous pouvez trouver ici.

En bref, nous vous demandons:

  • Ne partagez pas de photos qui ne vous appartiennent pas.
  • Ne partagez pas de photos qui montrent de la nudité ou du contenu mature
  • Ne partagez pas de photos de contenu illégal.
  • Ne partagez pas de photos qui attaquent un individu ou un groupe, ou enfreignent nos conditions d'utilisation.

Toutes les images non conformes signalées par les membres de la communauté Instagram ont été automatiquement supprimées, et nous vous suggérons fortement de supprimer tout contenu supplémentaire de votre compte qui pourrait ne pas être conforme aux directives ci-dessus ou à nos conditions d'utilisation. 

Il semble que si de nombreux utilisateurs ne craignent pas un peu de T&A, d'autres contrôlent assez efficacement.

Instagram a fait un travail admirable en se nettoyant - mais le fait est que les utilisateurs continueront à publier du contenu pour adultes, même s'il continue à être attiré. Il y a trop de failles et trop de gens pour empêcher complètement le porno d'échapper aux réseaux sociaux. Vine devra apprendre de l'expérience de son prédécesseur s'il veut rester en partenariat avec Twitter et peut-être même corriger cette note de 17+ sur l'App Store. 

Alors que de plus en plus d'applications de partage visuel prennent le dessus sur les réseaux sociaux (et s'associent à de grandes plates-formes comme Facebook et Twitter), l'autocensure sera extrêmement importante. Et à mesure que nous nous adaptons et trouvons des moyens de glisser nos esprits sales dans ces flux riches en images, ils devront continuer à trouver des moyens de nous avertir ou de bloquer complètement le contenu. Internet - et par extension, les médias sociaux - sera toujours pour le porno, mais maintenant il va aussi venir avec des verrous pour enfants attachés. 

Original text