Le stratège principal de lutte contre le terrorisme de Facebook a rejeté la demande de Theresa May selon laquelle l’entreprise devrait aller «de plus en plus vite» pour supprimer le matériel créé par les terroristes et leurs partisans, en décrivant l’affirmation selon laquelle il ne suffit pas d’être assez inutile.

Des programmes d’intelligence artificielle sont créés pour identifier un tel matériel, et des centaines de personnes sont employées pour rechercher du contenu qui devrait être supprimé, a déclaré Brian Fishman, qui gère la politique mondiale de lutte contre le terrorisme de l’entreprise.

En réponse à une question sur les affirmations de mai selon lesquelles les grandes entreprises d’Internet fournissent un espace sûr pour le terrorisme, Fishman a déclaré: « La politique de Facebook à ce sujet est vraiment claire. Les terroristes ne sont pas autorisés à être sur Facebook. Je ne pense donc pas que la suggestion selon laquelle les entreprises technologiques doivent être obligées de se soucier est utile à ce stade.

Mercredi, mai a déclaré à l’assemblée générale des Nations Unies qu’elle croyait que les entreprises de technologie avaient besoin de développer la capacité de supprimer le matériel lié au terrorisme en deux heures.

Dans une interview publiée quelques heures plus tard par la CTC Sentinelle, le journal du Centre de lutte contre le terrorisme à l’Académie militaire américaine à West Point, Fishman a insisté pour que des entreprises comme celles-ci mettaient déjà beaucoup d’efforts dans ce travail.

« Il est clair que les entreprises technologiques de l’industrie traitent le problème du contenu terroriste en ligne », a-t-il déclaré.

«Nous avons actuellement plus de 4 500 personnes qui travaillent dans des équipes d’opérations communautaires du monde entier, en examinant tous les types de contenu signalés par les utilisateurs pour les signes de terrorisme potentiels, et nous avons annoncé il y a plusieurs mois que nous étendons ces équipes de 3 000″. presque entièrement sur du matériel lié au terrorisme.

«Nous utilisons de plus en plus des techniques automatisées pour trouver ce genre de choses. Nous essayons de permettre aux ordinateurs de faire ce qu’ils sont bons: regardez beaucoup de matériel très rapidement, nous donner un aperçu de haut niveau. Nous avons récemment commencé à utiliser l’intelligence artificielle « , a déclaré Fishman.

Cependant, l’utilisation d’évaluateurs humains reste critique car les ordinateurs ne peuvent pas comprendre le contexte nuancé de certains éléments, tels que certains messages en ligne destinés à contrer la propagande terroriste.

«S’assurer que nous pouvons comprendre une activité vraiment nuancée culturellement d’une manière cohérente est un défi constant», a-t-il déclaré. « Et c’est quelque chose qui requiert des êtres humains. Nous voulons vraiment, autant que possible, compter sur notre capacité à utiliser des algorithmes et de l’apprentissage par machine pour faire autant que possible. Mais nous ne nous éloignons jamais de la nécessité d’avoir des êtres humains pour faire appel à la zone grise.  »

Cependant, Fishman a reconnu qu’il était difficile de s’assurer que le pourcentage de contenu lié au terrorisme était identifié et abattu.

Répondant à l’appel du secrétaire de la maison, Amber Rudd, pour l’accès à la porte dérobée aux applications de messagerie cryptées – comme WhatsApp appartenant à Facebook -, il a déclaré que changer les règles pourrait être contre-productif. « En raison de la façon dont fonctionne le cryptage de bout en bout, nous ne pouvons pas lire le contenu des messages chiffrés individuels, par exemple, WhatsApp, mais nous répondons rapidement aux demandes appropriées et légales d’application de la loi. Nous pensons que cela met réellement les autorités mieux positionnées que dans le cas où ce type de technologie échoue aux applications de la mère et de la pop dispersées partout dans le monde « .

Cependant, Fishman a précisé que certaines métadonnées de WhatsApp – informations sur les données de communication – ont été remises aux organes de police ou aux services de renseignement.

« Nous répondons rapidement aux demandes appropriées et juridiques d’application de la loi », a-t-il déclaré. Interrogé sur la question de savoir si les métadonnées sont partagées à la suite de ces demandes, il a déclaré: «Il existe des données limitées disponibles et WhatsApp travaille à aider les forces de l’ordre à comprendre comment elles répondent à leurs demandes, en particulier dans les situations d’urgence».

Fishman a déclaré que Facebook travaillait également avec des «groupes de la société civile sur le terrain» au Royaume-Uni, en Allemagne et en France, offrant des crédits de formation et d’annonces afin de rendre leur messagerie plus efficace.

 

 

La Source: http://bit.ly/2fegWRl

Pin It on Pinterest

Share This