
Roger-Luc Chayer (Image : IA / Gay Globe)
Les algorithmes de Meta et la propagation des fausses informations
Tous les utilisateurs des services de Meta, que ce soit Facebook, Instagram, Threads ou d’autres, savent très bien que Meta analyse tout ce que vous lisez pour vous bombarder de contenu similaire. L’algorithme pense que c’est ce que vous voulez, alors qu’en réalité, cela peut être extrêmement irritant.
Combien de fois voyons-nous défiler des milliers de fausses nouvelles sur des découvertes santé, sur Trump, sur la guerre en Ukraine ou sur n’importe quelle déclaration de politiciens dans le monde ? C’est de la pollution sociale qui favorise évidemment la désinformation, mais qui sert surtout à générer des clics et des vues, pour monétiser ces sites. Meta ne fait rien pour retirer ce contenu de ses plateformes, puisque c’est très rentable pour la compagnie.
Longtemps, j’ai cru qu’il n’y avait rien à faire et que c’était le prix à payer pour utiliser ces réseaux sociaux. Or, je m’étais trompé !
Pourquoi les publications désinformantes se propagent
La raison pour laquelle nous voyons autant de publications désinformantes sur les réseaux sociaux est essentiellement liée à l’algorithme et au modèle économique de ces plateformes. Les réseaux comme Meta, X (anciennement Twitter) ou TikTok ne se contentent pas de montrer ce qui est vrai ou pertinent ; ils optimisent ce qui retient votre attention le plus longtemps. Les contenus sensationnels, polarisants ou provocateurs génèrent beaucoup plus de clics, de partages et de commentaires que des informations neutres ou factuelles.
Ce mécanisme a plusieurs conséquences : d’abord, la désinformation se propage très rapidement, car elle est souvent plus choquante ou émotionnelle que la vérité. Ensuite, ces plateformes monétisent la visibilité : plus de clics et d’interactions signifient plus de revenus publicitaires. Enfin, il y a peu de filtres efficaces pour stopper la diffusion de contenus faux ou trompeurs, car leur suppression pourrait réduire l’engagement, ce qui est contraire à l’intérêt économique de la plateforme.
Les biais cognitifs et la viralité des fake news
Le fait que beaucoup de gens croient à ces publications désinformantes s’explique par plusieurs facteurs liés à la psychologie humaine et au fonctionnement des algorithmes. Les réseaux sociaux exploitent des biais cognitifs naturels : par exemple, nous avons tendance à croire ce qui confirme nos idées préexistantes (biais de confirmation), à partager ce qui suscite une émotion forte comme la peur, la colère ou la surprise, et à faire confiance à ce que nos amis ou communautés publient, même si c’est faux.
Les algorithmes amplifient ces tendances en montrant en priorité le contenu le plus engageant, pas nécessairement le plus vrai. Cela crée ce qu’on appelle des bulles de filtre, où chaque utilisateur est exposé presque uniquement à des informations qui renforcent ses croyances et opinions. Au fil du temps, cela rend la désinformation plus convaincante et difficile à contester, car elle est constamment répétée et validée par l’entourage virtuel.
En pratique, ce mélange de prédispositions psychologiques et de logique algorithmique transforme la désinformation en un phénomène viral : plus le contenu choque ou conforte, plus il est montré, plus il est partagé, et plus il devient “réel” aux yeux de ceux qui le voient.
Exemple concret : les fake news sur la santé
Questionné sur cette situation, ChatGPT explique : « Prenons un exemple concret lié à la santé. Supposons qu’une publication affirme qu’un remède naturel X “guérit définitivement” une maladie commune. Cette affirmation, même sans preuve scientifique, va immédiatement attirer l’attention : elle promet une solution simple à un problème sérieux, ce qui suscite curiosité, espoir et émotion. Les gens qui y croient vont liker, commenter et partager avec leurs amis, renforçant la diffusion.
L’algorithme des réseaux sociaux détecte cet engagement élevé et va alors montrer la publication à encore plus de personnes, souvent à des profils qui ont montré un intérêt pour des sujets similaires. Ceux-ci voient le contenu dans leur fil, parfois plusieurs fois, ce qui crée une illusion de vérité : plus on voit une information répétée, plus notre cerveau a tendance à la considérer comme fiable.
Si la publication est liée à des personnalités ou à des événements polarisants, comme Trump ou la guerre en Ukraine, l’effet est encore plus fort : la peur, la colère ou l’indignation incitent à partager immédiatement, sans vérification. Ainsi, une fausse information peut se propager très rapidement, toucher des millions de personnes et sembler “vraie”, simplement parce que le réseau social optimise la visibilité des contenus qui provoquent une réaction émotionnelle, pas la véracité. »
Comment reprendre le contrôle de votre fil d’actualité
Petite révélation que j’ai faite récemment : croire qu’on est impuissant face aux réseaux sociaux est complètement faux. En réalité, il est possible de jouer avec l’algorithme et de réduire la portée de leurs publications indésirables. Voici comment procéder :
D’abord, je coupe toute interaction avec le contenu indésirable. Pas de clic, pas de commentaire, pas même pour dénoncer. Même un commentaire critique alimente l’algorithme, car il interprète toute interaction comme un signal d’intérêt. L’indifférence est beaucoup plus puissante que l’indignation.
Ensuite, j’utilise systématiquement les outils disponibles : je masque les publications, j’indique “je ne suis pas intéressé”, je me désabonne d’une page sans nécessairement la bloquer, je signale les contenus manifestement faux. Chaque action envoie un signal négatif au système. Répétées, ces actions finissent par modifier sensiblement mon fil d’actualité.
Parallèlement, je renforce volontairement le contenu que je souhaite voir. Je suis des médias fiables, j’interagis avec des sources crédibles, je commente ou partage des analyses sérieuses. L’algorithme fonctionne par apprentissage : il amplifie ce que je nourris.
Je fais aussi un ménage régulier : je nettoie mes abonnements anciens, je quitte certains groupes, je revois les pages que je suis. Beaucoup de désinformation provient d’abonnements oubliés depuis des années.
Dès la première journée où j’ai commencé à utiliser “Ne plus suivre…” ou “Tout masquer de…”, en appliquant ces fonctions à une cinquantaine de publications en à peine une heure, j’ai immédiatement constaté une nette baisse des fausses informations et des faux sites : pendant deux jours, je n’ai plus rien reçu de similaire. Aujourd’hui, chaque fois que j’en croise une, je l’élimine systématiquement de mon fil. Résultat : non seulement ces contenus disparaissent de ma vue, mais ces sites ne peuvent plus tirer le moindre profit de moi.
Je partage ça pour que mes lecteurs cessent de subir les algorithmes et reprennent le pouvoir sur ce qu’ils voient !
PUBLICITÉ
