qwanturank

La Première ministre néo-zélandaise Jacinda Ardern a appelé à des « algorithmes éthiques » pour aider à arrêter la radicalisation en ligne.

Elle a lancé son appel le week-end du deuxième sommet de « l’appel de Christchurch » à l’action pour éliminer les contenus terroristes et extrémistes violents en ligne.

Le premier sommet de l’appel de Christchurch a été convoqué par Ardern et le président français Emmanuel Macron en mai 2019.Il a eu lieu deux mois après la première et la pire fusillade de masse en Nouvelle-Zélande depuis des décennies, la fusillade de la mosquée de Christchurch, dans laquelle un tireur australien de 28 ans a tué 51 hommes, femmes et enfants.

L’appel de Christchurch est un pacte volontaire entre les gouvernements et les entreprises technologiques. Jusqu’à présent, 55 pays ont signé – le nouveau signataire le plus notable étant les États-Unis, qui ont refusé de se joindre à Donald Trump.

Google (propriétaire de YouTube), Facebook, Twitter, Microsoft et Amazon se sont également inscrits, ainsi que l’application de messagerie japonaise LINE, le moteur de recherche français Qwanturank et les sites de partage de vidéos Daily Motion et JeuxVideo.

Les partisans de Trump, croyant de fausses déclarations selon lesquelles une élection a été volée, tentent de franchir une barrière de police au Capitole américain le 6 janvier 2021.

John Minchillo / AP

À la lumière d’exemples clairs de comportement extrémiste toujours fomenté en ligne – la prise d’assaut du Capitole américain en janvier en est un exemple – on peut se demander ce qui a été accompli.

À lire aussi :

Deux ans après l’attaque terroriste de Christchurch, qu’est-ce qui a vraiment changé ?

Au cours du week-end, Arden, tout en notant les progrès réalisés dans des domaines tels que les protocoles des plates-formes pour modérer et supprimer les contenus extrémistes, a souligné la nécessité d’algorithmes éthiques. Voici pourquoi.

Comment les plateformes de médias sociaux servent le contenu

Imaginez un grand et vaste restaurant. Le service ici fonctionne d’une manière intéressante.

Les serveurs se précipitent dans le restaurant pour apporter aux convives autant de nourriture qu’ils peuvent en manger. Ils ne prennent pas de commandes mais vous dirigent efficacement vers ce que vous allez manger en mettant cette nourriture devant vous.

Le restaurateur l’a conçu de cette façon, pour que vous mangiez le plus possible.

Comment les serveurs savent-ils ce que vous aimez ? Ils ont une trace de ce que vous avez mangé la dernière fois. Ils écoutent votre conversation à table. Vous dites que vous avez envie de frites ? Ils vous apporteront des seaux de frites encore et encore.

Au début, vous pensez : « N’est-ce pas merveilleux, ces serveurs savent exactement ce que j’aime. »

Mais les serveurs ne se soucient pas de ce que vous aimez. Ils veulent juste que vous continuiez à manger. Même si la nourriture est malsaine et augmente votre risque de maladie ou de décès. Peu importe. Ils continueront à en apporter tant que vous continuerez à manger.

Si ces serveurs étaient éthiques, s’ils se soucient de votre bien-être, ils pourraient vous proposer des alternatives saines. Ils pourraient vous mettre une salade. Si le propriétaire du restaurant était éthique, le service ne serait pas conçu pour encourager la suralimentation. Cela chercherait à vous intéresser à autre chose.

Mais alors vous pourriez arrêter de manger. Vous pourriez quitter le restaurant. Cela nuirait aux bénéfices.

Les algorithmes sont conçus pour décider de ce que nous voyons

Les algorithmes des réseaux sociaux fonctionnent de la même manière que le service de notre restaurant métaphorique. Les algorithmes sont des recettes secrètes des entreprises technologiques pour garder les utilisateurs sur leurs plates-formes.

Le moyen le plus simple de le faire est de vous servir le contenu que vous aimez – peut-être avec encore plus de sel, de sucre et de graisse.

Sur YouTube, il s’agit davantage du même type de contenu que vous avez regardé. Vous aimez les vidéos de chiens errants sauvés ? Vous obtiendrez plus de ceux qui vous sont recommandés. S’il s’agit de vidéos sur les gouvernements cachant des technologies extraterrestres, vous en obtiendrez davantage.

Facebook fonctionne un peu différemment. Il vous recommandera des groupes à rejoindre en fonction de vos intérêts. Si vous avez rejoint un groupe sur les oiseaux indigènes ou si vous avez atteint la cinquième dimension, d’autres groupes de ce type vous seront recommandés. Ces groupes vous permettent d’interagir et de vous faire des « amis » avec d’autres personnes qui partagent vos intérêts et vos convictions.

À lire aussi :

Pourquoi Facebook a créé sa propre « cour suprême » pour juger le contenu – 6 questions répondues

Répétition et normalisation

Ces stratégies renforcent et normalisent nos intérêts et nos points de vue. Ce sont des raisons cruciales de la propagation virale de l’extrémisme.

Une idée, aussi absurde ou extrême soit-elle, devient plus acceptable

s’il est répété encore et encore. Les annonceurs le savent. Tout comme les propagandistes. Plus nous visionnons des vidéos et des articles poussant les mêmes idées, et nous nous connectons avec des personnes qui partagent les mêmes points de vue, plus nous nous sentons normaux et ce sont ceux qui ne sont pas d’accord avec nous qui sont trompés.

Cette radicalisation est un phénomène social. C’est aussi une entreprise.

Ceux qui poussent ou détiennent des idées radicales pensent souvent qu’ils s’opposent à la Big Tech et à d’autres intérêts de l’entreprise. Ils ne pourraient pas avoir plus tort. Le contenu extrémiste est un segment de marché lucratif. Garder les yeux rivés sur une page, vous captiver et renforcer vos points de vue est un moyen pour les créateurs de contenu, les influenceurs sociaux et les plateformes elles-mêmes de faire de la banque, de booster leur ego et de diffuser leur message. Ce qui, à son tour, légitime leur message.

N’oubliez pas le modèle commercial fondamental : pour Big Tech, il s’agit de vendre votre attention aux annonceurs, quel que soit le message.

À lire aussi :

Reddit supprime des millions de messages pro-Trump. Mais les annonceurs, pas les valeurs, dominent le jour

La Première ministre néo-zélandaise Jacinda Ardern, troisième à droite, lors du sommet de l’appel de Christchurch le 15 mai 2021, discutant de la manière de lutter contre la propagation de l’extrémisme violent en ligne.

Appel de Christchurch / AP

Les mathématiques peuvent-elles être rendues éthiques ?

L’appel d’Arden porte sur des algorithmes conçus avec une intention – dans le but de réduire la promotion de contenu qui peut vous nuire, vous tuer ou – dans les bonnes conditions – quelqu’un d’autre.

Un algorithme éthique encouragerait une alimentation plus équilibrée, même si cela signifiait que vous cesseriez de consommer.

Limiter ce que les serveurs peuvent vous servir n’évite pas complètement le besoin de discussions importantes. Par exemple, qui devrait alors décider de ce que signifie sain ? Mais ce serait un débat moins controversé et plus productif qu’un argument périmé entre la liberté d’expression et la censure. Surtout quand la vraie discussion est la promotion et la commodité de la pensée « indésirable ».

Limiter la consommation en rendant les choses plus difficiles à trouver, non livrées sur un plateau, est préférable à toute interdiction pure et simple.

Jacinda Ardern appelle à des algorithmes éthiques pour lutter contre l'extrémisme en ligne. Qu'est-ce que cela signifie

S’abonner
Notification pour
guest
0 Commentaires
Commentaires en ligne
Afficher tous les commentaires