Quel impact l'Internet zéro clic aura-t-il sur l'écosystème informationnel ?
Quel impact l'Internet zéro clic aura-t-il sur l'écosystème informationnel ?
Par Nicolas Hénin, article paru à l’origine sur le site du projet Mis(trans)lating Deceit
Les grands acteurs du numérique, à commencer par les réseaux sociaux et les outils de recherche, accélèrent le mouvement vers un internet zéro-clic. Ce qui ne sera pas sans conséquence pour l'écosystème informationnel : difficulté accrue à comprendre les logiques de recommandation et nouvel appauvrissement des producteurs d'information.
Les clics constituent la pierre angulaire de l'influence. Les contenus qui visent la viralité et l'engagement ne sont pas appelés “clickbait”, et même “putaclic” en français, pour rien.
Les clics sont également la pierre angulaire de l'économie de l’Internet depuis qu’il est devenu un produit omniprésent pour le grand public il y a un quart de siècle, à la fois comme marché commercial et comme source d'information. Ils permettent de placer des cookies, de suivre les audiences, de surveiller le comportement de navigation et de vendre des données publicitaires.
Enfin, les clics sont la pierre angulaire du marketing en ligne. Ils génèrent du trafic, augmentent la visibilité et le classement dans les moteurs de recherche et, dans le cas des sites web commerciaux tels que la plupart des sites médiatiques, génèrent des revenus publicitaires.
Sont, ou plutôt étaient. Car tout cela est en train de changer.
En effet, les plateformes en ligne suppriment les liens. “Lien ci-dessous”, “lien dans le premier commentaire” : ces expressions apparaissent de plus en plus souvent sur les réseaux sociaux, de X à LinkedIn. Elles constituent des tentatives pour contourner une stratégie qui réduit considérablement la visibilité de toutes les publications contenant des liens externes. La raison est la suivante : tant que vous continuez à naviguer sur la plateforme elle-même, vous augmentez son audience et vous vous exposez à davantage de publicités. Si vous cliquez sur un lien externe, la plateforme vous laisse partir, sans savoir quand ni si vous reviendrez. Son objectif est donc de s'assurer activement que vous ne cliquerez pas.
Cependant, les liens ont une fonction informative importante. Ce sont des connecteurs qui renvoient aux sources. Ils permettent de justifier et de vérifier les informations, même si une approche critique des sources est indispensable. Il est essentiel d'évaluer le point de vue d'une source et son éventuel parti pris. Les chercheurs et les journalistes savent que leur travail n'a pas beaucoup de valeur s'il est détaché de celui de leurs pairs et collègues, et que sa valeur réside en grande partie dans la qualité des sources. L'exemple ultime est Wikipédia, le seul site web qui s'interdit d'être la principale source d'information : rien ne doit y être écrit qui ne soit étayé par une source externe fiable. Une information sans source n'est pas vraiment une information. Si la source est médiocre, obscure, cachée ou falsifiée, l'intégrité de l'information est compromise.
Cette tendance de plusieurs plateformes à réduire les clics vers des sites externes a un impact sur leurs utilisateurs : la proportion de "partages sans clics" (shares without clicks, SwoC) sur les réseaux sociaux ne cesse d'augmenter. De plus en plus de personnes partagent des contenus qu'elles n'ont pas lus, en se basant uniquement sur leur titre ou leur aperçu, et éventuellement aussi sur leur origine (en se fiant à la crédibilité du site web qui les a publiés ou du compte qui les a partagés), ce qui a des conséquences importantes sur la qualité des informations qui circulent. Les contenus qui provoquent, cultivent ou alimentent l'indignation sont plus viraux et surreprésentés, ce qui favorise les contenus extrémistes et de mauvaise qualité. Ce phénomène s'accompagne également d'une accélération du nombre de publications. Ouvrir et lire des articles est une opération qui ralentit naturellement le nombre de publications et de partages, et qui améliore les connaissances du lecteur et sa compréhension globale d'actualités complexes qui ne peuvent être résumées dans un titre. Elle est donc contraire à la stratégie de rétention des plateformes, qui s’en satisfont.
Cette augmentation du zéro-clic a enfin un impact sur la presse elle-même, l'incitant à changer ses méthodes. De nombreux médias, y compris les médias traditionnels de qualité, ont tendance à ajuster leurs stratégies de titraille pour privilégier l'engagement et stimuler le trafic en ligne, dans le but de maintenir leur visibilité au détriment de la qualité de l'information. Cependant, il s'agit d'une bataille perdue d'avance. L'accélération du zéro-clic enferme les médias dans une baisse des recettes publicitaires, réduisant mécaniquement leur capacité à produire des informations de qualité.
La recherche en ligne est également en train de changer. Début 2025, 55 % des Américains utilisaient déjà des chatbots plutôt que des moteurs de recherche pour effectuer des recherches en ligne, même si la plupart de ces recherches ne sont pas liées à l'actualité et sont donc moins problématiques en termes de désinformation. Si les chercheurs qui étudient la désinformation se sont souvent plaints du manque de transparence de l'algorithme de Google, on peut au moins reconnaître une certaine clarté : en haut de la page de recherche (appelée SERP pour Search Engine Results Page), les résultats sponsorisés sont affichés (et mentionnés comme tels), qui sont le résultat du SEA (Search Engine Advertising). Ces sites ont payé pour que leurs liens soient affichés en premier aux utilisateurs effectuant certaines recherches. En dessous apparaissent les résultats considérés comme organiques, résultat du SEO (Search Engine Optimisation). Ces sites ont été configurés, à travers un processus complexe impliquant un large éventail d'opérations, allant de la constitution d'une audience au recoupement, afin d'optimiser leurs chances d'apparaître parmi les premiers résultats de la recherche.
De nos jours, pour un expert du marketing (ou un influenceur, ou un entrepreneur spécialisé dans la désinformation – ces professions sont différentes mais elles partagent de nombreuses techniques et les objectifs de visibilité et d'attention liés à la rétention recherchée de l'utilisateur), l'objectif n'est plus tant d'apparaître parmi les premiers résultats de Google que de voir sa marque – ou son récit – cité dans les réponses des principaux LLM. Plusieurs entreprises se vantent de pouvoir modifier les résultats. Des articles de presse ont révélé des opérations d'influence, comme celle menée par la société américaine Clock Tower X LLC pour le compte du ministère israélien des Affaires étrangères, qui ciblait la génération Z sur les chatbots et leur fournissait des récits favorables à Israël.
Une étude remarquée de NewsGuard publiée en mars 2025 mettait en garde contre le toilettage de résultats, "LLM grooming", qui permettrait au réseau pro-Kremlin Pravda d'influencer les principaux modèles d'IA. Cette stratégie expliquerait le nombre considérable d'articles produits par ce réseau (qui a publié pas moins de 3,6 millions d'articles en 2024, selon NewsGuard) pour des indicateurs de visibilité dérisoires : ces articles ne génèrent aucun engagement et ne sont jamais partagés. De toute évidence, personne ne semble les lire. À part les robots d'indexation (“crawlers”) des LLM, qui les utilisent comme données d'entraînement. L'objectif principal de cette profusion d'articles serait d'empoisonner la source de connaissances en ligne dont s'inspire l'IA générative.
Cependant, les résultats de cette étude ont été remis en question et nuancés par des recherches ultérieures, menées par des chercheurs affiliés au projet Mis(trans)lating Deceit, qui suggèrent des lacunes dans les données plutôt qu'une manipulation intentionnelle des données d'entraînement. "Pour que la désinformation apparaisse dans une réponse, plusieurs conditions doivent être réunies. Les utilisateurs doivent poser 1) des questions très spécifiques sur 2) des sujets peu couverts, et 3) les garde-fous des chatbots doivent échouer", notent les auteurs, qui concluent que "les utilisateurs sont peu susceptibles de rencontrer un tel contenu dans des conditions normales" et invitent à la prudence afin de ne pas surestimer le rôle des acteurs malveillants dans l'IA. Nous savons à quel point la propagande russe apprécie que les Occidentaux surestiment ses capacités ou lui attribuent des actions qu'elle n'a pas commises.
Néanmoins, l'avènement du GEO (Generative Engine Optimisation) complique encore davantage la traçabilité des informations. Les techniques permettant d'augmenter ou de réduire la visibilité sont largement masquées par le mécanisme de "digestion" des LLM, qui fournit une réponse entièrement rédigée et prête à l'emploi plutôt qu'une simple liste de liens comme sources, dont l'utilisateur peut rapidement évaluer la pertinence. Les mécanismes algorithmiques, le "raisonnement" suivi par le chatbot, sont pour la plupart cachés. Les agents conversationnels ont des problèmes encore plus importants avec les liens. Ils les fournissent rarement, sauf instruction explicite, et les inventent souvent par hallucination. Beaucoup dépendra de la volonté des entreprises d'IA de s'attaquer à ces problèmes et d'introduire des garde-fous plus solides et une plus grande transparence sur la manière dont les réponses sont construites et sourcées. Cela constituera un enjeu majeur pour les professionnels du marketing, car les chatbots sont susceptibles de proposer deux niveaux de tarification pour les publicités, rendant leurs services moins chers lorsque les liens sont admis et plus chers lorsqu'ils sont dissimulés.
Cela complique la tâche non seulement des chercheurs qui étudient la désinformation, mais aussi du public : examiner et remettre en question les sources est l'un des principes fondamentaux de l'éducation aux médias, même si ce principe peut être compromis dans des contextes où l'accès à des informations politiquement diversifiées fait défaut. De plus, il est urgent de mettre en place des programmes d'éducation aux médias afin de remédier à la mauvaise compréhension du fonctionnement des LLM par le public. Comme le montre une récente enquête, lorsqu'on leur demande ce qui se passe lorsqu'ils consultent un outil tel que ChatGPT, peu de personnes comprennent correctement la nature probabiliste des LLM: 45 % des personnes interrogées pensent que le chatbot recherche une réponse exacte dans une base de données, et 21 % pensent qu'il suit un script de réponses pré-écrites.
Alors que l'IA modifie profondément la chaîne de valeur sur Internet (les chatbots visent à vendre une visibilité privilégiée dans leurs réponses, absorbant une part croissante des budgets publicitaires), ceux qui se trouvent au bas de la "chaîne alimentaire" de l'information, à savoir les médias et leurs journalistes, risquent de voir leur travail non seulement spolié, mais aussi déformé, et leurs ressources fondre encore davantage. Ainsi, outre l'amélioration de l'éducation aux médias, l'autre solution (certes difficile) à l'Internet zéro-clic consiste à renforcer la réglementation des LLM, à garantir une plus grande transparence et à permettre aux chercheurs de comprendre comment les chatbots trouvent des résultats spécifiques, pourquoi ces résultats ont été mis en avant et si un paiement a été effectué dans le cadre de ce processus.