top of page

Propagande terroriste et fake news : Facebook dévoile sa politique de modération

INTERVIEW - Monika Bickert, directrice de la politique des contenus sur Facebook, détaille les moyens mis en place par le réseau social pour assurer une meilleure modération de contenus partagés.



Fake news, propagande terroriste, comptes supprimés... Facebook a dévoilé mardi 15 mai pour la première fois les chiffres de sa modération de contenus. Objectif affiché : la transparence. L'entreprise veut faire table rase du passé et du scandale Cambridge Analytica relatif au détournement de données de plusieurs dizaines de millions d'utilisateurs du réseau social. 

Dans ce rapport, Facebook annonce que 3,4 millions d'images violentes ont été supprimées ou assorties d'avertissements au premier trimestre 2018, presque le triple du trimestre précédent. La société annonce aussi la suppression de 21 millions d'images de nudité ou d'activité sexuelle, au premier trimestre, autant que fin 2017.


Le réseau social dévoile aussi les chiffres concernant la propagande terroriste. Fin avril, 1,9 million de contenus ont été supprimés au premier trimestre, soit 73% de plus qu'au 4e trimestre 2017, grâce à des améliorations technologiques. 99,5% des contenus supprimés l'ont été avant tout signalement. 


Monika Bickert, directrice de la politique de contenus de Facebook. Crédit : Brendan Smialowski / AFP


Comment combattre la propagande terroriste ?


Monika Bickert, la directrice de la politique des contenus sur Facebook, fait de la lutte contre la propagande jihadiste, une priorité. L'entreprise revendique sa capacité à pouvoir supprimer des vidéos de propagande terroriste, avant même qu'elles ne soient signalées par les utilisateurs.

À RTL.fr, elle explique que "l'utilisation de cette technologie nous permet d’identifier des contenus terroristes. 99,5 % des contenus associés à de la propagande terroriste que nous supprimons, sont détectés avant qu'ils ne soient signalés par les internautes". Concrètement, le réseau social repère les images, vidéos et contenus problématique. Ensuite, une sorte d'identifiant est associé à chaque type de contenus. Lorsqu'un utilisateur souhaite poster un message qui reprend ces identifiants, le site est alerté et peut directement le supprimer.

Dans leur charte, Facebook rappelle que tous les contenus en rapport avec des activités terroristes est interdit sur le réseau social, ainsi que "tout contenu soutenant ou faisant l'éloge de groupes, dirigeants ou individus impliqués dans ces activités". 


Comment modérer les commentaires ?


La société fondée par Mark Zuckerberg a ainsi développé trois niveaux de signalement. Le niveau 1 concerne "les attaques à l'encontre d'une personne ou d'un groupe de personnes". Tous les discours violents, déshumanisant, les comparaisons faites avec des animaux, les incitations à la haine entrent dans cette catégorie. 

Le niveau 2 prend en compte les "affirmations d'infériorité physique, d'apparence, mentale et morale", mais aussi les "expressions de mépris comme 'je déteste', 'je n'aime pas' ou 'x est ce qu'il y a de pire' et de dégoût". Le niveau 3 concerne "les appels visant à exclure ou à isoler une personne ou un groupe de personnes. Nous autorisons les critiques à l'égard des politiques d'immigrations et les arguments qui consistent à restreindre ces politiques". 

Pour savoir ce qui est toléré ou non sur Facebook, Monika Bickert insiste sur le fait que "ce n'est pas parce que quelque chose est offensant qu'il est contraire à nos règles et que nous devons supprimer le message ou le compte associé. Nous estimons qu'il est plus opportun de laisser aux gens les moyens de contrôler directement ce qu'ils vont voir sur leur page Facebook. Vous pouvez bloquer certains comptes, posts, ou messages si vous vous sentez offensé". 


Comment éviter la propagation des fake news ?


Pour les fake news(fausses informations ndlr), le système est différent pour Facebook. Le réseau social réaffirme sa volonté de "limiter la diffusion des fausses informations" car c'est "une responsabilité que nous prenons au sérieux, ajoute la directrice de la politique des contenus sur Facebook. Nous ne procédons pas en terme de posts à proprement parlé, mais nous ciblons plutôt les comptes. Pour ces raisons, nous ne supprimons pas les fake news". 

Comment ? "En dessous de chaque message, nous offrons la possibilité à chaque internaute de voir un lien vers un 'vrai' article cette fois. Nous donnons la possibilité à chacun de s'informer et de se faire sa propre opinion", explique Monika Bickert.


L'entreprise met aussi "fin aux incitations économiques pour les personnes, les pages et les domaines qui propagent de fausses informations. Nous limitons la diffusion des contenus dits faux". 

Facebook donne aussi des détails sur les équipes en charge de la modération. "7.500 modérateurs travaillent pour nous dans le monde entier. Nous en avons aussi en France, ce qui permet de mieux cerner les mots et la culture du pays pour adapter notre politique de modération des contenus", conclut Monika Bickert. 









Parcourez toutes l'actualité High-Tech gratuitement sur notre site








Achetez, revendez ou faites réparer votre smartphone en toute sérénité



Comments


bottom of page