Overblog Suivre ce blog
Editer l'article Administration Créer mon blog
19 mai 2016 4 19 /05 /mai /2016 09:07
Tweet haineux, post Facebook etc. La liste est longue et les réseaux tweeter, Facebook Youtube sont quasi léthargiques sur ce sujet.

Tweet haineux, post Facebook etc. La liste est longue et les réseaux tweeter, Facebook Youtube sont quasi léthargiques sur ce sujet.

Haine sur Internet : le plan de Valls est à côté de la plaque

 

La tactique du gouvernement, c’est un peu comme vouloir régler le problème du téléchargement illégal en fermant Megaupload. Ça ne marche pas comme ça.

 

Par Olivier Ertzscheid Enseignant chercheur. = 1 16/05/2016 à 12h53

 

 

Avant les deuxièmes assises contre la haine sur internet, différentes associations de lutte contre le racisme et les discriminations ont fait du « testing » sur la politique de modération des grandes plateformes, notamment pour évaluer leur réactivité. Et les résultats sont loin d’être à la hauteur de ce qui pourrait être attendu. 

Elles ont donc livré une série de propositions parmi laquelle celle-ci : que les grandes plates-formes «  éditorialisent leurs contenus pour empêcher l’enfermement algorithmique des contenus haineux  ». En clair, lit-on dans Le Monde, « elles demandent que Facebook, Twitter et YouTube agissent manuellement sur leurs algorithmes de recommandation pour discriminer les articles ou vidéos haineuses... »

 

Mot pour mot ce que dit Valls

 

Côté agenda politique justement, cette proposition reprend mot pour mot celle qui figure dans le « plan d’action pour lutter contre la radicalisation et le terrorisme », présenté le 9 mai 2016 par le cabinet du Premier ministre et dans lequel on peut lire ceci :

« Mesure 59 : Lutter contre l’enfermement algorithmique.

Si les mécanismes de radicalisation chez les jeunes sont complexes, et divers, [...] les algorithmes de recommandation de certains réseaux sociaux ou plateformes vidéo ont l’effet imprévu d’enfermer l’utilisateur dans des contenus systématiquement orientés dans le même sens.

La visualisation préalable d’un contenu vu ou aimé conduit mécaniquement à ce que la personne concernée s’en voit proposer 10 de nature similaire, puis 10 autres, jusqu’à ce que l’offre présentée à l’utilisateur soit parfois entièrement consacrée à ces contenus de haine.

Ce phénomène d’enfermement algorithmique ne peut être combattu que par les acteurs économiques concernés, qui devront prendre en compte d’autres facteurs dans leurs mécanismes techniques de recommandation, comme par exemple les signalements et éventuels retraits passés de contenus similaires.

Le Gouvernement a entamé un dialogue stratégique et technique avec les principaux acteurs concernés afin de parvenir à circonscrire ce phénomène, et aboutir à une limitation de l’enfermement pour les contenus de haine, voire à la recommandation de contre-discours dans l’offre de contenus. »

 

Trois bonnes nouvelles

 

Première bonne nouvelle, le politique semble avoir lu le livre d’Eli Pariser sur la bulle de filtre.

 

Deuxième bonne nouvelle, le même politique a compris que la question de la recommandation est aussi de nature politique à l’échelle de plateformes drainant chaque jour plusieurs millions d’utilisateurs.

 

Troisième bonne nouvelle (mais mal formulée), la prise en compte des deux bonnes nouvelles précédentes pour aboutir à cette notion « d’enfermement algorithmique ».

Mais trois bonnes nouvelles ne font pas pour autant une bonne résolution. Car la réalité est en fait plus complexe.

 

Une part d’aléatoire

 

Indépendamment de l’existence (réelle) d’une bulle de filtre dont les logiques de causalité ou de corrélation peuvent être discutées, c’est profondément méconnaître les logiques de « recommandation » que de les présenter de la manière dont elles le sont ici (= « Si tu regardes des vidéos terroristes on te suggèrera plein d’autres vidéos terroristes »).

Car ces logiques relèvent 

  • à la fois d’une part algorithmique (reposant sur l’analyse des profils et des contenus partagés, bref, sur de la personnalisation),
  • mais également d’une part humaine (les modérateurs des grandes plateformes donc, qui règlent également le curseur de visibilité de certains contenus à la hausse ou à la baisse en fonction de l’actualité),
  • et enfin une part d’aléatoire, de stochastique, précisément pour introduire du désordre, de l’imprévisibilité, une part de non-linéarité, afin précisément que ces logiques de recommandation ne finissent pas par tourner en boucle au bout de 5 ou 10 itérations.

Des projets de nature carcérale

 

Ce qui est vrai en revanche, et je l’avais expliqué et documenté dans cet article du Monde daté de 2010, c’est que :

« Le projet “politique” de ces plateformes est de bâtir des environnements en apparence semblables à des graphes invariants d’échelle mais dont la dimension, c’est-à-dire le spectre de ce qui est observable et/ou navigable se réduit au fur et à mesure ou l’observateur se rapproche. Soit une forme paradoxale de panoptique et l’antithèse exacte d’un Web fractal.

Facebook, YouTube et tant d’autres sont, chacun à leur manière des projets de nature carcérale, c’est-à-dire qui valorisent et exploitent la complétude de l’entre-soi. Un projet de nature idéologique pour Facebook (faire en sorte que nous soyons tous “amis”), de nature culturelle pour YouTube (faire en sorte que nous aimions tous les mêmes vidéos “rigolotes”).

Tous ont en commun de tendre vers l’abolition du fractal, c’est-à-dire d’une certaine forme d’inépuisable, de diversité. »

 

Immense polémique

 

Voilà pourquoi se limiter à la description qui est faite de la recommandation et se contenter de l’appliquer à la question du terrorisme ou à celle, bien plus culturellement complexe, du racisme, ne peut et ne doit suffire. 

Alors qu’aux Etats-Unis une immense polémique est en train de naître suite aux accusations portées contre Facebook de modérer intentionnellement des contenus en lien avec des idées « trop » orientées « parti républicain tendance Tea Party en pire », difficile de croire que le « dialogue stratégique et technique avec les principaux acteurs concernés afin de parvenir à circonscrire ce phénomène » annoncé par le gouvernement servira à autre chose que de poser un emplâtre temporaire sur une jambe de bois vermoulu (donc à produire une énième sorte de « charte » ou à mettre en place mais de manière totalement non-significative des recommandations de « contre-discours »). 

Donc non, cela ne marchera pas. Ce n’est pas comme cela qu’on lutte contre « l’enfermement algorithmique ». Pour – au moins – trois bonnes raisons. 

 

Megaupload

 

Primo, parce que « les principales plateformes » (Google, Facebook et dans une moindre mesure Twitter) ne sont pas éternelles, et que même si elles s’avisaient de mettre en place, à la lettre, les instructions gouvernementales, les réseaux terroristes auraient jeu facile de ne plus s’en servir que comme porte d’entrée permettant de rebasculer leur « audience » et leurs « cibles » vers d’autres plateformes plus sécurisées (c’est d’ailleurs déjà le cas, si radicalisation en ligne il y a, elle passe davantage par des réseaux comme Telegram que par YouTube ou Facebook).

De la même manière d’ailleurs, et sur des sujets heureusement plus réjouissants, que l’on observe une baisse générale des interactions sur Facebook et des effets générationnels de migration vers des plateformes alternatives (les « jeunes » en ayant marre d’être sur la même plateforme que leurs « vieux »).

Bref cibler de cette manière les plateformes les plus visibles ou les plus fréquentées n’est ni adéquat ni suffisant. Pour prendre une analogie facile, c’est comme vouloir régler le problème du téléchargement illégal en fermant Megaupload. Ça ne marche pas comme ça. 

 

La « tyrannie des agissants »

 

Deuxio, parce qu’il existe, sur le web, un effet parfaitement documenté scientifiquement et sociologiquement que l’on appelle la « tyrannie des agissants » (cf notamment les travaux de Dominique Cardon). C’est à dire que ceux qui agissent et / ou portent un discours radical (qu’il s’agisse de terrorisme, de politique, d’écologie ou de tout autre chose) bénéficient et bénéficieront toujours de la plus forte exposition au sein de ces plateformes.

Et que « ceux qui agissent » en matière de terrorisme sont – hélas – d’abord et avant tout les terroristes eux-mêmes. 

 

Tertio, et c’est peut-être là la raison principale, parce que toute l’histoire et tout l’ADN de ces plateformes est de s’être construites et de véhiculer un discours, des valeurs et une idéologie qui visent précisément à remplacer les Etats (y compris dans leurs tâches et fonctions « régaliennes ») en combinant une bonne grosse couche de libéralisme avec une non moins bonne grosse tartine de solutionnisme technologique.

Donc elles n’écouteront pas les demandes des Etats (paradoxalement d’ailleurs, les demandes de modération auxquelles elles répondent le plus promptement et efficacement viennent d’Etats qui ne sont pas vraiment des parangons de démocratie... comme le démontra l’affaire de la censure des caricatures du prophète à la demande du gouvernement Turc).

 

Point « Gros Malin »

 

« Donc on fait quoi gros malin ? », me direz-vous. 

Ce n’est pas pour autant qu’il ne faut rien faire. Sur les logiques de modération propres à des contenus assez facilement repérables (terrorisme, racisme explicite), il est certainement possible d’améliorer les choses (tant sur le plan humain qu’algorithmique).

Mais cela ne suffira pas (cf les trois raisons ci-dessus) et c’est surtout une erreur stratégique d’envisager de traiter le problème de « l’enfermement algorithmique sur les questions de terrorisme » alors que le vrai problème est celui de la transparence, de la clarification et de l’explicitation de la partie du code algorithmique relevant de processus classiques d’éditorialisation. 

Mais ça je l’ai déjà dit et écrit hein : -) Comme j’ai déjà dit et écrit que pour que cela ait une chance d’aboutir, il fallait, en même temps, s’efforcer de construire un index indépendant du web, et que c’était relativement facile et faisable à court terme.

A condition bien sûr qu’il y ait une impulsion politique. Pour l’instant inexistante, ledit politique préférant partir à la chasse aux likes du djihad plutôt que de s’attaquer au problème de fond.

 

Making of

Une version plus longue de ce billet a d'abord été publiée sur l'excellent blog Affordance.info, tenu par le maître de conférences en sciences de l'information et de la communication Olivier Ertzscheid. Il nous a aimablement autorisé à reproduire l'extrait ci-dessus sur Rue89.

 Mathieu Deslandes

 

Partager cet article

Repost 0
Published by radicalisme-finisterien - dans Politique Idées
commenter cet article

commentaires