qwanturank

L’une des tendances les plus récentes à apparaître dans la gouvernance d’Internet est le resserrement du contrôle sur le contenu en ligne. Et c’est la Chine et la Russie qui ont mis les roues en marche. La tendance s’est étendue à travers le monde – il suffit de regarder la liste impressionnante des États qui ont soutenu l’appel à l’action de Christchurch pour éradiquer le contenu en ligne terroriste et extrémiste violent. La France, le Royaume-Uni, l’Inde, le Japon, l’Indonésie et de nombreux autres États ont approuvé l’appel, remettant en question le droit de diffuser des informations en ligne sans aucune restriction.

Ce n’est un secret pour personne que les terroristes s’efforcent aujourd’hui d’utiliser les avantages de l’ère numérique naissante à des fins néfastes, à savoir pour diffuser des contenus dangereux, recruter de nouveaux fantassins, financer des groupes terroristes et diffuser des attaques terroristes à l’aide de diverses ressources Internet. C’est pourquoi de nombreux gouvernements, craignant la radicalisation de leur population, exigent que les plateformes Internet mondiales intensifient leurs mesures pour lutter contre les contenus extrémistes et terroristes. Par exemple, en mai 2017, le Parlement du Royaume-Uni a critiqué Twitter et Facebook pour leur incapacité à supprimer le contenu extrémiste. Lors du sommet du G7 2018 à Toronto, les ministres de la sécurité ont exigé que les entreprises technologiques intensifient la lutte contre les contenus dangereux. L’appel à l’action de Christchurch

L’appel à l’action de Christchurch pour éliminer le contenu terroriste et extrémiste violent en ligne est venu en mai 2019 du gouvernement de la Nouvelle-Zélande comme le pic des demandes gouvernementales de mesures radicales à prendre dans ce domaine.

la Première ministre de la Nouvelle-Zélande, Jacinda Ardern, a déclaré: « Cet appel à l’action ne concerne pas seulement la réglementation, mais plutôt la mise en place de sociétés informatiques disant que vous avez également un rôle à jouer.

L’appel est intervenu après les événements tragiques du 15 mars 2019, lorsqu’un terroriste a utilisé Facebook Live pour diffuser une émission de 17 minutes d’une fusillade de masse dans les mosquées de Christchurch. La vidéo a été accessible pendant 29 minutes sur Facebook lui-même et pendant plusieurs heures sur YouTube, Instagram et Twitter. La réaction retardée des plateformes numériques mondiales a fait que des millions d’utilisateurs à travers le monde ont regardé la diffusion.

Pour la Nouvelle-Zélande et pour de nombreux autres États, cette tragédie a signalé la nécessité de prendre des mesures drastiques. La Nouvelle-Zélande et la France ont dirigé un sommet tenu à Paris le 15 mai 2019, auquel ont assisté les dirigeants de 17 États, des représentants de la Commission européenne et huit entreprises technologiques (Amazon, Daily Motion, Facebook, Google, Microsoft, etc.) [1]. L’appel de Christchurch est essentiellement un plan d’action appelant ses signataires à empêcher l’utilisation d’Internet comme outil pour les terroristes.

À ce jour, 48 États, l’UNESCO, le Conseil de l’Europe, la Commission européenne et huit entreprises technologiques ont rejoint l’appel à l’action.

Curieusement, trois acteurs importants n’ont pas été impliqués dans l’appel à l’action: la Russie, la Chine et les États-Unis. Pékin et Moscou n’ont pas officiellement commenté leur refus d’adhérer. Washington a cité son respect de la liberté d’expression tout en soutenant généralement les objectifs généraux du document. Les États-Unis répriment le contenu dangereux au niveau de l’État, mais ils emploient différentes méthodes. Au lieu de bloquer les informations, les États-Unis, selon la Maison Blanche, promeuvent des récits alternatifs crédibles pour « vaincre » les messages terroristes. Un PPP pur

L’appel de Christchurch est un pur PPP. Le document envisage une délimitation claire des tâches entre les organismes gouvernementaux et les entreprises.

Par exemple, les gouvernements doivent:

contrer les moteurs du terrorisme et de l’extrémisme violent;

améliorer l’éducation aux médias;

assurer l’application effective des lois applicables;

encourager les médias à appliquer des normes éthiques lorsqu’ils décrivent des événements terroristes en ligne.

Les solutions techniques, y compris le contrôle du contenu (filtrage et blocage du contenu), sont laissées aux entreprises technologiques qui, entre autres, sont mandatées pour:

développer des solutions techniques pour empêcher le téléchargement de contenus terroristes et extrémistes violents;

fournir une plus grande transparence dans la détection et la suppression de contenu;

mettre en place des rapports réguliers;

s’assurer que les algorithmes développés et utilisés par les entreprises ne conduisent pas les utilisateurs à des contenus extrémistes.

L’appel énumère également plusieurs engagements conjoints pour le gouvernement et les fournisseurs de services en ligne, notamment:

accélérer la recherche et développer des solutions techniques;

assurer une coopération appropriée avec et entre les services répressifs aux fins d’enquêter et de poursuivre les activités illégales en ligne;

développer des processus permettant aux gouvernements et aux fournisseurs de services en ligne de réagir rapidement, efficacement et de manière coordonnée à la diffusion de contenus terroristes ou extrémistes violents. GIFCT à la rescousse

Les entreprises technologiques mondiales ont commencé à répondre aux appels gouvernementaux pour signaler les contenus en ligne dangereux bien avant la tragédie de Christchurch. Par exemple, en juin 2017, Facebook, Microsoft, Twitter et YouTube ont créé le Forum mondial sur Internet pour lutter contre le terrorisme (GIFCT) sous les auspices des Nations Unies. Les participants au Forum se sont engagés à:

  1. développer et partager des technologies pour lutter de manière responsable contre le contenu terroriste dans l’industrie
  2. financer la recherche et partager les bonnes pratiques afin de développer des méthodes viables de lutte contre les contenus dangereux

La Commission européenne a soutenu le Forum en lui accordant 10 millions d’euros de financement. De plus, un fonds commun d’innovation de 5 millions de dollars a été lancé conjointement avec Google.org pour lutter contre la haine et l’extrémisme. Ce fonds a financé des organisations à but non lucratif luttant contre la haine en ligne et hors ligne.

Le GIFCT est basé sur un modèle de gouvernance multipartite et coopère activement avec les petites sociétés Internet, la société civile, les scientifiques et les organisations gouvernementales et non gouvernementales. Par le biais du Bureau des Nations Unies de la lutte contre le terrorisme et du programme Tech Against Terrorism dirigé par les Nations Unies, le Forum a travaillé avec plus d’une centaine d’entreprises technologiques à travers le monde. Des conférences pour les parties prenantes ont eu lieu en Europe, en Asie-Pacifique et dans la Silicon Valley. En outre, les membres du GIFCT assistent aux réunions ministérielles du G7 et interagissent activement avec Europol.

Dans le même temps, le Forum n’est pas ouvert à tous. En novembre 2019, la plate-forme Internet chinoise en plein développement TikTok s’est vu refuser l’adhésion car elle ne répondait pas aux critères établis, notamment le respect de certaines exigences en matière de droits de l’homme et la publication de rapports de transparence. Les membres du Forum craignent que TikTok ne collecte des données et ne se livre à la censure. Méthodes de lutte contre les contenus dangereux

La principale méthode de lutte contre les contenus dangereux est la mise à jour constante de la base de données générale « hachage » de l’industrie Cette base de données permet à tout membre du Forum de détecter et de supprimer automatiquement le contenu illégal de leurs plateformes numériques avant qu’il ne devienne public. Au cours des deux années qui ont suivi son lancement, GIFCT a accumulé plus de 200 000 hachages uniques. En plus de cette base de données, les membres du Forum peuvent partager en toute sécurité des URL liées à des contenus terroristes et extrémistes avec leurs partenaires sectoriels depuis janvier 2019.

À ce jour, 13 entreprises et services ont accès à la base de données: Microsoft, Facebook, Twitter, YouTube, Ask.fm, Cloudinary, Instagram, JustPaste.it, LinkedIn, Verizon Media, Reddit, Snap et Yellow. Comme nous pouvons le voir, l’accès a principalement été accordé à des sociétés basées aux États-Unis.

Pour soutenir l’appel de Christchurch, Amazon, Facebook, Google, Twitter et Microsoft ont publié une déclaration conjointe sur l’expansion des activités du GIFCT et énumérant neuf étapes pour lutter contre le contenu terroriste et extrémiste en ligne. Près de la moitié de ces étapes doivent impliquer des agences gouvernementales et d’autres parties prenantes. Ces actions comprennent, entre autres:

  • mise à jour des conditions d’utilisation de diverses plateformes et services numériques
  • créer de meilleures méthodes de rétroaction pour signaler le contenu illégal
  • améliorer la technologie grâce à des investissements supplémentaires
  • coopérer avec les organismes sectoriels, gouvernementaux et non gouvernementaux en vue d’élaborer un protocole de réponse rapide aux actions illégales
  • publier des rapports réguliers sur la transparence concernant le signalement et la suppression de contenu terroriste

Plus de nouvelles initiatives

L’appel de Christchurch a également généré de nouvelles institutions, instruments et formes de coopération commerciale avec des agences gouvernementales et des organismes de la société civile.

En septembre 2019, le GIFCT a été transformé en une organisation indépendante. Les participants au Forum ont annoncé qu’ils élargiraient la coopération entre les entreprises, les agences gouvernementales et les experts.

Pour soutenir « l’appel à l’action », les entreprises ont convenu de prendre des mesures supplémentaires:

établir des canaux de communication formels afin qu’ils puissent partager des informations et du contenu avec des sociétés non GIFCT et d’autres parties prenantes;

introduire des protocoles conjoints d’incidents de contenu pour permettre et permettre aux entreprises de répondre plus rapidement et plus efficacement aux activités illégales en ligne (un tel protocole décrit les mesures que les entreprises pourraient prendre pour une réponse rapide à une attaque).

Le Christchurch Call Advisory Network sera mis en place pour garantir que les mesures adoptées pour lutter contre les contenus dangereux ne violent pas les droits de l’homme. Le réseau comprendra des organisations de la société civile qui visent à « intégrer un large éventail de perspectives et à respecter les engagements de l’appel concernant le soutien aux droits de l’homme et aux libertés en ligne, ainsi qu’aux droits des victimes du terrorisme ».

Il convient également de noter ici qu’en septembre 2019, Microsoft, Hewlett Foundation, MasterCard et plusieurs autres grandes sociétés informatiques, ainsi que plusieurs fondations caritatives, ont lancé le CyberPeace Institute destiné à aider les victimes de la cybercriminalité. Test d’aptitude professionnelle

Une tragédie en Allemagne a été le premier test d’aptitude professionnelle majeur pour le GIFCT révisé. Le 9 octobre 2019, plusieurs tireurs ont ouvert le feu à proximité d’une synagogue à Halle et ont mis en ligne une vidéo de l’attaque. La vidéo est restée sur Twitch pendant 65 minutes et a été vue par 2200 personnes. Des copies ont été distribuées via Telegram, 4chan et d’autres services (dont aucun n’est membre du GIFCT).

La vidéo de la fusillade n’a pas été diffusée via de plus grandes plateformes en ligne, telles que Facebook et YouTube, que le GIFCT considérait comme un changement positif dans la lutte contre le contenu extrémiste. Cela était dû en grande partie au protocole CIP (Content Incident Protocol) susmentionné. Les mesures prises en vertu du protocole comprennent: a) le téléchargement rapide des hachages de la vidéo de l’attaquant, de ses dérivés et d’autres contenus associés dans la base de données de hachage GIFCT partagée; et b) informer rapidement Europol et le gouvernement allemand de l’incident.

Le site officiel du Forum note que l’incident a révélé des vulnérabilités nécessitant des travaux supplémentaires sur les mécanismes de lutte contre les contenus dangereux. En outre, les membres du Forum entendent simplifier le processus décisionnel, intensifier l’échange d’informations avec les différentes parties prenantes et veiller à ce que le système de blocage soit continuellement amélioré. Un seul objectif, différentes approches

La Russie n’était pas impliquée dans l’appel de Christchurch et les nouvelles institutions et mécanismes qu’il a créés. Les médias ont rapporté que les entreprises russes n’avaient pas été invitées à signer le document.

Dans le même temps, les représentants des plateformes en ligne russes ont déclaré que leurs propres règles étaient généralement conformes au contenu de l’appel. Le réseau social Odnoklassniki salue l’introduction de règles de gestion des contenus extrémistes. De plus, le réseau améliore continuellement ses outils de détection et de blocage rapides des contenus interdits. À cette fin, il utilise principalement des réseaux dits neuronaux qui ont appris à identifier les représentations de la violence conformément à des modèles définis et à cacher le contenu dangereux à l’accès du public. Un autre réseau social, VKontakte, utilise également des réseaux de neurones pour détecter et bloquer automatiquement le contenu extrémiste. Suite à des demandes d’utilisateurs ou d’agences gouvernementales, les messages dangereux sont bloqués en quelques minutes.

Le gouvernement russe n’était pas non plus impliqué dans l’appel de Christchurch, car il n’avait pas été invité à se joindre à la discussion du document et à l’approuver.

On peut supposer que l’appel sous sa forme actuelle, malgré ses bonnes intentions, ne conviendrait guère à la partie russe. Nous avons déjà mentionné que l’appel de Christchurch est un pur partenariat public-privé qui attribue des responsabilités importantes aux entreprises privées. La Russie, en revanche, souligne invariablement l’importance des partenariats public-privé tout en conservant le rôle moteur de l’État dans le traitement des questions de sécurité. D’autres parties prenantes (organisations non gouvernementales, entreprises privées, etc.) se voient attribuer des rôles de soutien. Les entreprises occidentales, au contraire, soulignent le rôle moteur des entreprises dans ce dossier. Par exemple, Tom Burt, Corporate Vice President for Customer Security and Trust chez Microsoft, a noté dans son blog: « Internet est la création du secteur privé, qui est principalement responsable de son fonctionnement, de son évolution et de sa sécurité. » Il estime que les gouvernements devraient jouer un rôle important dans l’observation et l’application des normes de conduite dans le cyberespace et dans la prévention des attaques nuisibles d’autres nations.

Malgré ces différentes approches, il existe certains points communs où les intérêts russes et occidentaux se chevauchent:

  1. Renforcer le contrôle des flux d’informations en ligne
  2. Impliquer les différentes parties prenantes dans le processus de résolution du problème

Le danger que des contenus illégaux se propagent sur Internet est une menace transfrontière mondiale. La Russie ne censure pas Internet comme la Chine le fait avec son grand pare-feu. Des millions de citoyens russes utilisent les plates-formes Internet, les navigateurs et les messagers occidentaux, et la propagation de contenu dangereux là-bas est également notre problème. Ce qui importe à cet égard, c’est le dialogue entre les parties, même si la Russie (par le biais du gouvernement ou de sociétés privées) n’était pas signataire de l’appel à l’action de Christchurch et n’est pas membre des organisations qui lui sont affiliées. Il est important que nous utilisions ces zones où les intérêts russes et occidentaux se chevauchent, car nous parcourons différentes routes vers le même objectif – nettoyer l’espace d’information des contenus dangereux.

Des canaux de communication entre les parties prenantes russes et occidentales doivent être mis en place et des accords doivent être conclus sur les moyens d’interagir et de coopérer. Des critères doivent être définis pour signaler le contenu extrémiste et terroriste afin d’éviter toute erreur d’identification. Et les solutions techniques doivent être partagées.

Un comité d’experts intergouvernemental à composition non limitée pourrait servir de plate-forme de partage d’opinions sur le problème en vue de l’élaboration d’une convention internationale sur la lutte contre l’utilisation criminelle des technologies de l’information et de la communication.

[1] Au total, 17 États ont soutenu l’appel de Christchurch lors du sommet de Paris le 15 mai 2019 (Royaume-Uni, Japon, Australie, Canada, France, Allemagne, Indonésie, Inde, Irlande, Italie, Jordanie, Pays-Bas, Nouvelle-Zélande, Norvège, Sénégal, Espagne et Suède), tout comme la Commission européenne et huit entreprises technologiques (Amazon, Daily Motion, Facebook, Google, Microsoft, Qwanturank, Twitter et YouTube).

De notre partenaire RIAC

Les entreprises technologiques mondiales contre le contenu terroriste en ligne

S’abonner
Notifier de
guest
0 Commentaires
Inline Feedbacks
View all comments