Introduction
Les problèmes environnementaux (changement climatique, érosion de la biodiversité, etc.) ne sont pas les pires risques auxquels font face nos sociétés.
Alors même que l’écologie est tout à la fois mon leitmotiv professionnel depuis 8 ans et une angoisse existentielle depuis encore plus longtemps -et plus anecdotiquement l’objet de quelques articles de niche sur ce blog, je me suis finalement et récemment convaincu qu’il y avait en fait … pire pour nos sociétés.
Non pas que les risques environnementaux ne soient pas si graves que cela ou se soient récemment atténués -que nenni, mais (mauvaise nouvelle) il y a en fait plus problématique!
Il faut dire que les candidats à la première place pour détrôner notre effondrement écologique sont nombreux : conflits géopolitiques et militaires croissants (principalement en Europe orientale, Proche-Orient et Asie de l’Est), crises économiques, politiques et institutionnelles, risques de pandémie, extension du narcotrafic en Europe, etc.
Mais le risque que je qualifierais de plus aigü pour nos sociétés et dont il va être question dans cet article ne figure pas dans la liste morbide ci-dessus.
Ou plutôt, car touchant à l’information qui parvient à nous, il la surplombe, la traverse et lui donne corps.
Ce méta-risque porte une formulation en apparence austère : les algorithmes de recommandation de contenu sur les plateformes numériques.
Je suis régulièrement depuis 7 ans (et une vidéo de philosophie morale) Lê Nguyên Hoang, brillant mathématicien et vulgarisateur scientifique multi-thématiques, qui alerte de manière répétée depuis maintenant plusieurs années sur les risques liées aux algorithmes et IA de recommandation utilisées par les réseaux sociaux pour nous pousser des contenus à consulter.
Si j’étais sensible à ses arguments et à son ton alarmiste, je n’aurais pour autant pas classé le risque “IA de recommandation” en haut de mon podium de la peur.
Mais un événement récent et particulièrement marquant a fini de me convaincre du bien-fondé des craintes de Lê : l’élection présidentielle début Décembre 2024 en Roumanie, et le choc de l’élection d’un candidat d’extrême droite inconnu propulsé vainqueur en quelques semaines.
Pourquoi les IA font peser un risque existentiel à nos sociétés
Repartons des bases.
Un risque se définit comme le croisement d’une exposition, d’un aléa et d’une vulnérabilité :
Risque = aléa × exposition × vulnérabilité (il peut y avoir des variations à la marge dans la manière de schématiser l'équation d’un risque).
Ainsi, pour qu’un objet ou un phénomène représente un risque pour nos sociétés, il faut que nous ayons a minima un peu de ces trois termes -et plus chaque terme est élevé, plus le risque global l’est (et ce de manière cubique puisque ces trois termes se multiplient entre eux) :
l’exposition : nos sociétés doivent se trouver dans un environnement (géographique, informationnel, etc.) où le phénomène problématique se manifeste.
Concernant le changement climatique, on dirait ainsi que le sud de la France est exposé au risque de sécheresse et de canicule.
l’aléa : ce terme traduit l’ampleur du phénomène lorsqu’on y est exposé -toutes choses égales par ailleurs, i.e quelque soit notre vulnérabilité.
Concernant le changement climatique, on dirait que les sécheresses et canicules peuvent griller et détruire des récoltes, causer la mort de personnes vulnérables à la chaleur, etc.
la vulnérabilité : ce terme met en lumière nos capacités d’adaptation et notre sensibilité à l’aléa. Certes nous pouvons être très exposés à un aléa puissant, mais peut-être sommes nous résilients et avons nous des ressources (financières, technologiques, humaines, etc.) qui nous permettront d’amortir en partie le choc.
Concernant le risque de sécheresse et de canicule, la vulnérabilité alimentaire sera plus ou moins forte en fonction du type de cultures agricoles (et de leurs besoins en eau, résistance au stress thermique, etc.), de nos réserves alimentaires, de la capacité d’autres régions proches à être solidaires et transférer de la nourriture, de l’eau, etc.
Nous allons maintenant essayer d’évaluer qualitativement et dans une certaine mesure quantitativement le risque des IA (ou algorithmes) de recommandation, en décomposant chacun des trois termes de l’équation.
Exposition
Nous sommes particulièrement exposés aux failles algorithmiques des réseaux sociaux (si je devais faire un classement des réseaux sociaux qui nous y exposent le plus, je mettrais Tiktok et Twitter en premier, suivis de Facebook puis Youtube), pour au moins trois raisons principales :
Il y a un nombre très important et croissant d’utilisateurs des réseaux sociaux (en particulier Tiktok, plusieurs dizaines de millions en Europe par exemple), et nos heures d’attention ou visionnage de contenus sur ces plateformes suivent la même dynamique,
Les contenus que nous consultons ou visionnons sur ces plateformes sont de manière croissante le résultat non de choix éclairés et délibérés (i.e je recherche spécifiquement tel contenu de tel auteur), mais le résultat de recommandations faites par les fameux algorithmes de ces plateformes.
2 vues sur 3 sur YouTube sont le résultat de recommandations de l’algorithme de YouTube, et les chiffres sont probablement équivalents ou supérieurs sur les autres réseaux sociaux. En particulier pour Tiktok, où Lê Nguyên Hoang parle ainsi de télécommande de Xi Jinping pour qualifier Tiktok et son fonctionnement fait de défilement de vidéos sur lesquelles nous n’avons pour ainsi dire quasiment pas la main.
On a ainsi tous déjà vécu ce type d’expérience, où l’on se fait emporter par l'algorithme de recommandation pour finir par regarder de multiples vidéos très éloignées du sujet original de notre recherche.
L’humoriste Ronny Chieng ironise à ce sujet dans son show “Love to hate it” sur le fait que certains hommes cherchant des vidéos de développement personnel sur Youtube finissent quelques semaines plus tard par tomber dans les thèses masculinistes les plus radicales et (caricature partielle) devenir les assaillants du Capitole.
Les contenus qui sont recommandés et mis en avant par les IA de recommandation sont généralement de très mauvaise qualité informationnelle (piètre niveau de crédibilité des informations pour le dire en termes bayésiens, fake news, mute news et désinformation pour le dire en langage courant) et émotionnelle (messages haineux, qui divisent, polarisent, irritent, etc.).
Ces contenus remontent et nous sont poussés par les algorithmes par la conjonction de plusieurs phénomènes : l’IA a identifié que ces contenus polarisant étaient ceux les plus susceptibles de capter notre attention et nous faire rester sur la plateforme (elle a donc un biais d’apprentissage en faveur de tels contenus), et des campagnes de désinformation généralisée (guerre hybride et informationnelle à l’aide de faux-comptes, armées de bots,relais, etc.) sont menées par des acteurs malveillants pour pourrir les données et surtout tromper les algorithmes afin de rendre ces contenus encore plus attractifs et suggérés par l’algorithme.
La combinaison des IA de recommandation des réseaux sociaux avec celles génératives de texte, images, sons et vidéos -par ailleurs complètement dérégulées à ce stade, nous le verrons en parlant de vulnérabilité- crée un cocktail ultra-explosif.
Notons que la désinformation n’est pas nouvelle (traditionnellement relayée ou générée par les médias classiques), et que certains maux et causes d’insatisfaction de nos sociétés sont réels et n’ont pas à voir en tant que tel avec les algorithmes de recommandation.
Les médias et autres acteurs traditionnels (politiciens, associations, etc.) ont et continueront d’avoir un rôle clé dans la diffusion de l’information et donc la construction de l’opinion public -l’objet ici n’est pas de réduire l’importance encore forte de ces acteurs dans la construction de l’information de nos sociétés.
Et ces médias souffrent aussi de nombreux torts, en particulier de leur concentration croissante et de la mainmise toujours plus forte de milliardaires intéressés (Bolloré et cie) aux projets politiques explicites (en témoigne Périclès).
Mais se contenter de dire ce qui précède sans mentionner le rôle des IA de recommandation dans l'avènement de l'ère de la post-vérité et la guerre informationnelle serait une posture extrêmement naïve, presque niaise.
Cela reviendrait à omettre “l’éléphant dans la pièce”, le super-pouvoir des IA de recommandation : leur capacité d’amplification de contenus de basse qualité informationnelle et émotionnelle (Jean-Lou Fourquet parle de permis d’amplification qu’elles se sont auto-accordées sans que nous ne les régulions jusqu'à présent).
Souvenez-vous de la courbe d’intentions de votes de Georgescu en Roumanie : elle n’aurait jamais pu être aussi verticale en l’absence de réseaux sociaux et d’IA de recommandation biaisées et bruitées, ou du seul fait de médias -mêmes puissants- dont le pouvoir de frappe et d’influence n’est pas du même ordre de grandeur.
En outre, médias et réseaux sociaux interagissent et s’auto-alimentent, les premiers commentant de plus en plus ce qui se passe sur les seconds, ce qui contribue à amplifier l'écho donné aux contenus promus par les algorithmes de recommandation, dans une boucle de rétroaction délétère.
Si l’on poursuit la métaphore animale, on pourrait dire des IA de recommandation (ou de manière plus juste, pouvoirs de recommandation) qu’elles sont des “rhinocéros gris” (pour reprendre l’expression de Michele Wucker : un risque dont on sait qu’il va se matérialiser si nous ne faisons rien, car tellement gros), bien plus qu’un “cygne noir” de Nassim Taleb (un risque imprévisible, "que l’on ne saurait prédire").
Dans la guerre informationnelle, ce n’est peut-être tant les biais de raisonnement de ceux qui consultent les contenus que le bruit informationnel qui dimensionne et calibre ce que l’on pense savoir, et en particulier les contenus (et l’”information” qu’ils contiennent) qu’on nous projette à la figure.
Et à ce jeu de l'exposition au bruit le plus corrosif, les IA de recommandation sont probablement l'outil le plus puissant que l'humanité n'ait jamais connu.
Aléas
Les aléas générés par les IA de recommandation ont des dommages directs et indirects (plus insidieux et diffus) sur nos sociétés, parmi lesquels : amplification des conflits et des tensions, polarisation du débat public, perte de cohésion sociale, de confiance dans les institutions, la science, etc.
Ce n’est pas de la science-fiction ou une projection imaginaire et dystopique : les IA de recommandation ont déjà créé de très nombreux dommages majeurs sur les populations et nos sociétés.
Le caractère insidieux de cet aléa réside dans la difficulté à établir a posteriori un lien clair de cause à effet dans la survenue du dommage, çàd d'identifier explicitement l'IA de recommandation d'une plateforme comme cause déterminante du phénomène.
On peut d'ailleurs faire un parallèle avec le changement climatique (et la fameuse science de l’attribution) pour lequel il peut être compliqué d’établir des liens explicites de cause à effet lorsque des événements extrêmes surviennent.
Cela dit, la responsabilité des réseaux sociaux et algorithmes de recommandation est établie de manière robuste dans un certain nombre de cas de figure listés ci-dessous -et comme pour le changement climatique dont on peut dire qu’il joue un rôle certain dans la survenue actuelle de vagues de chaleur l’été, on peut à mon sens dire la même chose des IA de recommandation dans les troubles sociaux actuels.
Nous pouvons néanmoins donc citer de manière affirmative le rôle établi des IA de recommandation dans :
L’amplification de nettoyages ethniques
Myanmar (Birmanie) : massacre des Rohingyas en 2018 dont la responsabilité critique de Facebook a été établie,
Conflits en Ethiopie et Soudan
Les dommages générés sur les démocraties et notamment l’influence de certaines élections :
Exemples récents de la Roumanie (Le Grand Continent parle ainsi d’arsenalisation de nos démocraties par la Russie à l’aide de Tiktok), des États-Unis (manipulation de Twitter par Elon Musk en 2024),
Manipulations des opinions des citoyens à peu près partout dans le monde, par exemple en France,
La promotion de contenus provoquant la colère (Facebook Files)
La désinformation russe dopée par les réseaux sociaux dans les pays du Sahel
Faisons un court instant de politique fiction.
Des élections législatives se tiendront en Allemagne en Février 2025 : alors que l’AfD (parti qui se rapproche probablement le plus de ce qu’on a pu connaître dans les années 1920-30) est déjà annoncé à environ 20% dans les sondages, que se passera-t-il s’il est poussé par une vague algorithmique équivalente à celle en Roumanie en Novembre 2024?
Qu’allons-nous faire si un tel parti à la radicalité décomplexée obtient 30-40% des suffrages dans le pays le plus puissant d’Europe, grâce à un booster des IA de recommandation manipulées par des puissances déstabilisatrices?
Une telle perspective devrait effrayer toute personne un minimum soucieuse de son avenir.
Vulnérabilité
Si l’exposition et les aléas du risque “IA de recommandation” sont très élevés, il y a peut-être de quoi être encore plus inquiet vis-à-vis de la vulnérabilité de nos sociétés.
En effet, notre vulnérabilité se nourrit et se compose des éléments suivants :
L’absence quasi-totale de régulation interne (i.e au-sein des plateformes) et externe (par des Etats régulateurs) des algorithmes de recommandation
Les failles énormes bien identifiées ne sont pas comblées.
Il y a bien eu un certain nombre de consultations (on peut citer la commission Fake News en France, et la loi Avia) et même quelques réglementations en Europe (par exemple le Digital Service Act), mais c’est à ce stade c’est bien trop peu contraignant.
Comme le suggèrent Lê Nguyên Hoang et Jean-Lou Fourquet dans "La dictature des algorithmes" , une méthode bien plus efficace pour réduire notre vulnérabilité consisterait à instaurer un principe de non conformité par défaut des algorithmes de recommandation, de la même manière qu'on le fait pour d'autres technologies à fort "aléa potentiel" (un avion par exemple). Ce serait alors à ces algorithmes de montrer patte blanche pour pouvoir être utilisés par des tiers -on accorderait pas par défaut un permis d'amplification tel qu'on le fait à date.
De même, les réseaux sociaux devraient être considérés comme l'équivalent des ICPE (Installation classée pour la protection de l'environnement) vis-à -vis de l’information (on pourrait ainsi les appeler ICPI) et respecter un cahier des charges rigoureux pour pouvoir être utilisés.
Lié au point précédent, le manque d'attention collectif et de lucidité vis-à-vis des risques des IA de recommandation.
A titre d'exemple, quand on parle du danger des réseaux sociaux, beaucoup pensent aux conséquences pour les enfants (risques de cyber-harcèlement accru, etc.). C’est un danger réel, mais il ne faudrait pas croire que les adultes sont immunisés, bien au contraire. Et je dirais même que les enfants sont peut-être davantage à risque du fait du contenu que visionnent leurs parents (et de leur attitude qui en résulte) plutôt que de leur propre exposition directe.
Il y a ainsi un très fort biais de confiance excessive : beaucoup de personnes réfléchies minimisent ce risque en surestimant notre capacité collective et individuelle à faire la part du vrai du faux et ne pas être influencé de manière rédhibitoire.
L’opacité des IA de recommandation : c’est bien simple, personne d'extérieur aux plateformes n’a accès au coeur de la machine ou ne peut auditer le code, tester sa résistance à des attaques malveillantes, etc.
Le démantèlement des équipes modération et éthique des algorithmes en interne des Big Tech, qui rend le traitement à la source des failles algorithmiques encore plus improbable.
La malléabilité de ces mêmes algorithmes -et donc de nos sociétés- par puissances malveillantes,
L'attitude de type marchands de doute des plateformes numériques, à la manière de l’industrie du tabac il y a quelques dizaines d’années ou l’industrie des énergies fossiles de manière plus contemporaine, qui minimisent délibérément les risques liés aux IA de recommandation,
On est par exemple collectivement beaucoup plus vigilants vis-à-vis du greenwashing qu’on ne l’est vis-à-vis du coolwashing des acteurs de l’IA, qui mettent surtout en avant certains bénéfices des IA de recommandation.
La confusion tenace et récurrente entre liberté d'expression et permis d'amplification (plus techniquement, confusion entre droit-créance et droit-liberté)
L'absence de régulation des IA de recommandation s'explique aussi -de manière plus banale cette fois- par notre incapacité collective à bien comprendre le fait qu'il y a une différence forte entre interdire à quelqu'un de s'exprimer et interdire (ou réguler) à un tiers d'amplifier ce que quelqu'un d'autre a exprimé.
C'est une chose de "dire des bêtises" entre proches ou au café du coin (on a ce droit), c'en est une autre de donner un microphone à cette même personne pour que ses bêtises soient relayées et touchent une audience X fois plus importante (il ne s'agit alors plus du même droit, et on peut légitimement considérer que cet autre droit devrait être encadré).
Par ailleurs, toute liberté ne consiste pas à pouvoir faire (ou dire ici dans le cas de l’expression) n’importe quoi. “La liberté des uns s'arrête là où commence celle des autres”, dit-on de manière courante. Ainsi, on n'a pas le droit diffuser des propos haineux : on est libre de s’exprimer dans un certain cadre comportant des limites (toute la difficulté est de les définir de manière acceptable), sans quoi la cohésion de nos sociétés est impossible.
L'irréversibilité et l’asymétrie informationnelle : c'est très dur de revenir en arrière une fois que le ver est dans le fruit, et que la désinformation s'est diffusée (loi de Brandolini), que nos sociétés sont polarisées et à cran, etc.
Conclusion : un risque massif, quelques motifs d’espoir
Il y a urgence à agir et réguler les plateformes et IA de recommandation qui constituent le cœur de la machine informationnelle contemporaine, et qui sont actuellement sur-vulnérables à des attaques malveillantes.
Si les problèmes environnementaux m'inquiètent beaucoup, je pense néanmoins qu'à court terme le risque "IA de recommandation" est encore davantage susceptible de faire vaciller nos sociétés, démocratiques en particulier -les conséquences directes du changement climatique, quoique en forte croissance, sont à ce stade relativement limitées et gérables.
Pour le dire encore plus clairement, qu’attendons-nous pour purement bannir et interdire des plateformes comme Tiktok et Twitter, qui ne montrent aucun signe d’autorégulation -au contraire, et plus généralement réguler bien plus fortement le “marché de l’information”, étant donné le bilan coûts-bénéfices en faveur d'une telle régulation ?
Sommes-nous à ce point là naïfs et faibles pour ne pas agir à la hauteur du risque que font courir les IA de recommandation ?
Si le tableau dressait précédemment est sombre, on peut néanmoins se raccrocher à plusieurs motifs d’espoir de réduction du risque :
Exposition et Aléa
Une relative conscience des dangers des IA de recommandation par la population (et même un consensus transpartisan!), même si les causes de ces derniers sont en partie mal identifiées.
Une réduction partielle du nombre d’utilisateurs de manière volontaire (début d’exode limité hors Twitter) ou forcée (bannissement de telles plateformes, encore peu pratiqué : discussions en cours aux Etats-Unis, moins avancé en Europe),
Des instances de régulation qui existent et sont d'une relative efficacité (on peut citer en France le CJDM et l'Arcom).
Les marges de manœuvre sont cela dit relativement minimes à ce sujet, tant le flot de nouveaux contenus de basse qualité est quasi infini.
Les leviers les plus puissants ne portent donc à nouveau pas tant sur la réduction du nombre de contenus de basse qualité que la réduction de leur mise en avant par les algorithmes. Par exemple concernant le climat, le problème n'est pas tant qu'une vidéo de basse qualité du Raptor existe, mais que cette vidéo soit suggérée et poussée à des millions d'utilisateurs par l'algorithme de YouTube.
Vulnérabilité
Nos institutions tiennent (encore?) : réponse (a posteriori) forte du conseil constitutionnel roumain qui a annulé l'élection, et publication transparente de documents déclassés des actions de déstabilisation extérieures (Russie)
Des Etats comme Taïwan ont réussi à mettre en œuvre une démocratie numérique avancée et résiliente à de tels risques algorithmiques,
Le projet Tournesol, qui vise à créer un algorithme de recommandation fiable et résilient, et l'activisme de certaines entités comme Quota Climat, Data for good, etc.
"Quitte ou double", c'est le nom de ce blog choisi il y a 10 ans en référence au fait qu'il n'y a pas d'échappatoire satisfaisant au fait de réussir la transition écologique.
On pourrait en dire de même de la transition vers une démocratie numérique : soit nous parvenons très rapidement à réguler les IA de recommandation, soit nous en paierons le prix, très élevé.
Comments