Réseau social – Sous pression, Facebook détaille ses mesures contre l’apologie du terrorisme

Le réseau social va notamment s’appuyer sur l’intelligence artificielle pour détecter les contenus inappropriés avant même qu’ils soient publiés.
LE MONDE | 16.06.2017 | Par Damien Leloup et Morgane Tual
Sous la pression croissante des gouvernements, notamment français et britannique, Facebook a détaillé, jeudi 15 juin, ses mesures pour lutter contre l’apologie du terrorisme sur sa plateforme. Il est depuis longtemps reproché à ce réseau social – comme à d’autres –, de laisser proliférer ce type de contenus sur son site.
Mercredi, un texte issu de la rencontre, la veille, entre le président français Emmanuel Macron et la première ministre britannique Theresa May présentait des axes de travail pour lutter contre le terrorisme sur Internet, évoquant, sans les nommer, les grands réseaux sociaux.
Vingt-quatre heures plus tard seulement, la publication sur Facebook d’un long texte présentant une liste des dispositions – certaines nouvelles, la plupart déjà connues – apparaît comme une réponse aux propositions formulées par les deux dirigeants, même si le réseau social explique que sa communication était prévue depuis longtemps.
Lire aussi :   Terrorisme sur Internet : le plan d’action détaillé de Macron et May en 4 points
« Le contexte est important »
« Il n’y a pas de place pour le terrorisme sur Facebook », tient à rappeler en préambule l’entreprise, sans manquer de glisser que « la recherche a prouvé que la radicalisation des membres [de groupes] comme l’organisation Etat islamique [EI] ou Al Qaida a d’abord lieu hors-ligne ». Mais « nous savons qu’Internet joue un rôle » et « nous avons encore beaucoup à faire », admet-elle.
Dans ce document, Facebook annonce notamment utiliser des technologies d’intelligence artificielle (IA) pour repérer les contenus faisant l’apologie du terrorisme – une possibilité que Mark Zuckerberg, le fondateur de l’entreprise, avait déjà évoquée. Elle est désormais effective, explique au Monde, par visioconférence, Brian Fishman, chargé de la lutte contre le terrorisme à Facebook :
« Nous utilisons une série d’outils automatisés – dans certains cas, nous supprimons automatiquement les contenus, comme les vidéos de décapitation. Le contexte est important : une photo du drapeau de Daesh [acronyme arabe de l’EI] peut être utilisée pour de la propagande, mais il peut aussi illustrer un article de presse. Quand le contexte compte, ces outils servent à prioriser ces contenus pour nos équipes de modération. »
Excepté pour les contenus pédopornographiques, Facebook ne modérait jusqu’à il y a peu les contenus qu’a posteriori, le plus souvent après un signalement par un internaute.
Désormais, « la moitié des comptes supprimés pour apologie du terrorisme sont découverts directement par nous, sans signalement », précise Monika Bickert, qui dirige la politique publique du réseau social.
Facebook dit aussi utiliser les technologies d’apprentissage automatique pour détecter les textes relevant de l’apologie du terrorisme, en se basant sur des exemples de textes de ce genre déjà repérés par le site. C’est un procédé en cours d’expérimentation, précise l’entreprise, qui assure par ailleurs être devenue « bien plus rapide » pour détecter les nouveaux comptes créés à la chaîne par les personnes bannies du réseau social.
« Nous considérons que c’est une part très importante de notre travail : c’est un challenge de parvenir à identifier les récidivistes, mais nous avons fait d’importants progrès dans le domaine de l’IA pour détecter les personnes qui ont été bannies et qui créent de nouveau comptes », dit M. Fishman.
Importants enjeux
Concernant l’identification des comptes problématiques, Facebook annonce aussi avoir « commencé à travailler sur des systèmes permettant d’agir sur les comptes terroristes à travers toutes nos plateformes, y compris WhatsApp et Instagram ».
Le réseau social précise qu’« en raison des données limitées collectées par certaines de nos applications, la possibilité de partager des données à travers toute notre famille [de services] est indispensable à notre effort ». Une phrase loin d’être anodine, car derrière celle-ci se trouvent d’importants enjeux, qui dépassent la question de la lutte contre le terrorisme.
L’entreprise est en effet régulièrement épinglée pour avoir permis le partage de données avec Facebook des utilisateurs de WhatsApp, société rachetée en 2014. Elle a été sanctionnée en mai dans cette affaire par l’Union européenne (UE), peu après avoir été condamnée en Italie, et après avoir subi les remontrances des gardiens européens des données personnelles du G29. « Nous sommes très attentifs au respect de la vie privée », dit Mme Bickert, expliquant que l’entreprise étudie les options juridiques à sa disposition sur ce point.
Le texte publié par Facebook laisse passer un message clair : si vous voulez que nous luttions efficacement contre le terrorisme, laissez-nous partager les données de nos utilisateurs comme nous le souhaitons.
Le document évoque aussi la partie « humaine » de la gestion de contenus, rappelant que 3 000 personnes supplémentaires vont s’ajouter dans l’année à venir à son équipe de modération, qui compte déjà 4 500 personnes. Car « l’IA ne peut pas tout détecter », « pour comprendre les cas les plus nuancés, nous avons besoin de l’expertise humaine ».
Facebook affirme que « 150 personnes sont exclusivement, ou prioritairement, concentrées sur la lutte contre le terrorisme », parmi lesquels des chercheurs, d’anciens procureurs ou agents, des analystes ou encore des ingénieurs.
Définition de ce qu’est un « message terroriste »
« Nous sommes entièrement impliqués »
Lire

A propos kozett

Deux phénomènes peuvent amener à une manipulation dans la prise en compte des informations par notre conscience : --> Le mirage qui voile et cache la vérité derrière les brumes de la sensiblerie et de la réaction émotionnelle. --> L’illusion qui est une interprétation limitée de la vérité cachée par le brouillard des pensées imposées. Celles-ci apparaissent alors comme plus réelles que la vérité qu’elles voilent, et conditionnent la manière dont est abordé la réalité … A notre époque médiatisée à outrance, notre vigilance est particulièrement requise !
Cet article, publié dans International, Internet, Médias, Politique, est tagué , , . Ajoutez ce permalien à vos favoris.