Facebook utilise des robots pour prédire et prévenir les mauvais comportements

Malgré les nombreux efforts de Facebook, les mauvais acteurs parviennent toujours à s'infiltrer dans ses garanties et politiques. Le réseau social expérimente maintenant une nouvelle façon de renforcer ses murs anti-spam et de prévenir les mauvais comportements qui pourraient potentiellement enfreindre ses garanties: une armée de robots.

Facebook dit développer un nouveau système de robots capables de simuler de mauvais comportements et de tester sa plate-forme pour dénicher les failles et les lacunes. Ces robots automatisés sont formés et apprennent à agir comme une vraie personne en utilisant le trésor de modèles de comportement que Facebook a acquis auprès de ses plus de deux milliards d'utilisateurs.

Pour s'assurer que cette expérience n'interfère pas avec les vrais utilisateurs, Facebook a également construit une sorte de version parallèle de son réseau social. Ici, les robots sont lâchés et autorisés à fonctionner de manière effrénée - ils peuvent s'envoyer des messages, commenter des messages factices, envoyer des demandes d'amis, visiter des pages, etc. Plus important encore, ces robots d'IA sont programmés pour simuler des scénarios extrêmes tels que la vente de drogues et d'armes à feu pour tester comment les algorithmes de Facebook essaieraient de les empêcher.

Facebook affirme que ce nouveau système peut héberger «des milliers, voire des millions de robots». Puisqu'il fonctionne sur le même code que les utilisateurs expérimentent réellement, il ajoute que «les actions des robots sont fidèles aux effets qui seraient observés par de vraies personnes utilisant la plate-forme.»

«Alors que le projet en est actuellement à une phase de recherche uniquement, l'espoir est qu'un jour il nous aidera à améliorer nos services et à détecter les problèmes potentiels de fiabilité ou d'intégrité avant qu'ils n'affectent de vraies personnes utilisant la plate-forme.» a écrit le chef de file du projet, Mark Harman dans un article de blog.

On ne sait pas pour le moment dans quelle mesure le nouvel environnement de simulation de Facebook sera efficace. Comme Harman l'a mentionné, il n'en est encore qu'à ses débuts et la société n'a encore utilisé aucun de ses résultats pour des mises à jour destinées au public. Au cours des dernières années, le réseau social a activement investi et soutenu la recherche basée sur l'intelligence artificielle pour développer de nouveaux outils de lutte contre le harcèlement et le spam. Lors de sa conférence annuelle des développeurs il y a deux ans, Mark Zuckerberg a annoncé que la société construisait des outils d'intelligence artificielle pour lutter contre les publications contenant du contenu terroriste, des discours de haine, du spam, etc.