Suite à une déclaration l’année dernière dans laquelle il promettait aux utilisateurs une plus grande transparence sur la manière dont il s’attaque au « contenu problématique », YouTube a publié son tout premier Rapport sur les règles de la communauté. Pour permettre aux utilisateurs de vérifier l’état des vidéos qu’ils ont signalées pour examen, le site a également annoncé le tableau de bord de l’historique des rapports.
Le rapport montre qu’au cours des trois premiers mois de 2018, YouTube a supprimé plus de 8 millions de vidéos de son site. La grande majorité d’entre eux – près de 6,7 millions – ont été automatiquement signalés par des machines, 1,1 million étant identifiés par les signaleurs de confiance de YouTube et 400 000 signalés par des utilisateurs normaux.
« La majorité de ces 8 millions de vidéos étaient pour la plupart des spams ou des personnes tentant de télécharger du contenu pour adultes », a résumé YouTube dans un article de blog.
Sur les 6,7 millions de vidéos signalées par des machines, le rapport affirme que 76 % ont été supprimées avant d’avoir reçu une seule vue, et YouTube affirme que son apprentissage automatique est particulièrement efficace pour identifier et supprimer les vidéos contenant de l’extrémisme violent.
« Début 2017, 8 % des vidéos signalées et supprimées pour extrémisme violent ont été retirées avec moins de dix vues. Nous avons introduit le signalement de l’apprentissage automatique en juin 2017. Aujourd’hui, plus de la moitié des vidéos que nous supprimons pour extrémisme violent ont moins de dix vues.
Au total, 9,3 millions de vidéos ont été signalées par des humains pour violation potentielle des directives de la communauté YouTube, ce qui montre qu’environ seulement un signalement sur neuf a entraîné le retrait d’une vidéo. L’Inde était le pays responsable du plus grand nombre de drapeaux humains, avec les États-Unis à la deuxième place et le Royaume-Uni en bas de la liste à la sixième place.
« Cette mise à jour régulière aidera à montrer les progrès que nous réalisons dans la suppression du contenu non conforme de notre plate-forme », explique le billet de blog. « D’ici la fin de l’année, nous prévoyons d’affiner nos systèmes de création de rapports et d’ajouter des données supplémentaires, notamment des données sur les commentaires, la vitesse de suppression et les raisons de la suppression de la politique. »
Le rapport devrait être bien accueilli par ceux qui ont le sentiment que YouTube ne fait pas assez pour supprimer le contenu offensant ou inapproprié de son site. En début d’année, le site a retiré Logan Paul du programme Google Preferred après avoir posté une vidéo montrant un cadavre dans la forêt d’Aokigahara au Japon.
Désormais, lorsque vous signalez manuellement une vidéo, vous pouvez vérifier son état à l’aide de la Tableau de bord de l’historique des rapports. Si le contenu est considéré comme enfreignant les conditions de YouTube, il sera supprimé et le tableau de bord sera mis à jour en conséquence.