Les utilisateurs de nos services numériques sont-ils vraiment des utilisateurs ?
La qualité dépend du contexte! Un des éléments importants de ce contexte c’est les utilisateurs du service numérique.
Comme je l’ai écrit dans mon article qui présente Gravity, il est pour moi essentiel de connaitre l’usage de son service si on veut offrir la meilleure expérience à ses utilisateurs.
Malheureusement, je parle ici de théorie car les « utilisateurs » des services numériques ne sont pas forcément des humains! En 2024 les « bots » (robots donc non-humains) représentaient plus de la moitié du trafic (51%), en 2025 cette barre des 50% est plus que certainement dépassée.

Nous sommes donc entré dans une ère où il y a plus de « robots » que d’humains sur internet !
Cela pose pour moi un problème beaucoup plus important qu’il n’y paraît. Doit-on designer nos services pour les robots ou pour des humains ?
La réponse semble sûrement évidente: pour les humains!
Malheureusement, à l’heure où l’économie tourne autour du clic et de la visibilité les choses ne sont pas si simples… Et beaucoup de personnes sont en train de penser au coup d’après avec comme réponse: pour les robots.
Ce qui paraît assez cohérent quand on regarde l’influence qu’a eu l’arrivée de Google sur les sites.
L’expérience du SEO ou comment concevoir son site POUR l’algorithme de Google.
Si vous lisez ces lignes sur le blog de la taverne, il y a plus de 50% de chances (70% d’après les statistiques) que vous l’ayez trouvé avec Google !
Si vous utilisez Google (ou tout autre moteur de recherche), il y a de très fortes chances que vous n’alliez pas au delà de la première page pour plus de 90% de vos recherches.
Un site doit donc, pour être vu et exister… être affiché sur la première page de recherche de Google (et de préférence en haut!).
Pour cela les sites ont du s’adapter. Si l’on veut continuer à avoir du trafic (et générer de l’argent!) il faut avoir un bon SEO.
Tous les sites s’y sont mis, c’est devenu une priorité. Les outils de « SEO » (Search Engine optimization) se sont multipliés. Les « techniques » pour tromper les moteurs de recherches également, qui ne s’est jamais fait avoir en tombant sur un site qui ne correspondait pas du tout à leur recherche ? Il y a quelques années, une de ces techniques étaient d’ajouter de nombreux mots clés écrits en tout petit pour être référencés même si le site ne parlais pas du sujet.
Depuis l’année dernière et la refonte graphique de la taverne, j’ai également un outil SEO, que je regarde.
Voici les statistiques:

Concrètement, cela me rajoute, un peu de travail sur chacun de mes articles. Je dois mettre les termes de la recherche cible:

Et une présentation qui sera affichée en résumé par le moteur de recherche:

Ce travail supplémentaire est, uniquement fait, pour les algorithmes des moteurs de recherche et n’améliorent en rien la qualité de l’article pour les lecteurs!
Fort heureusement, la survie de la taverne ne dépend pas du trafic et je n’ai pas à chercher de stratégie pour avoir un meilleur SEO ! Il faut néanmoins reconnaitre, qu’une partie de mon effort de travail est maintenant tourné vers des robots et non, le plus important, les lecteurs!
Nous connaissons l’impact de Google qui a fait apparaitre le SEO… Quel sera celui des LLMs ?
Impact actuel des LLM
On voit de plus en plus de personnes faire des recherches ChatGPT là ou elles faisaient des recherches Google.
Avec les LLM (ChaGPT, Claude, Llama, Mistral, Perplexity…) la réponse ne vient plus des sites à lire mais directement des outils de LLM qui ont « ingurgité » le contenu des sites et se servent de ces informations pour générer des réponses. Les internautes qui utilisent les LLMs plutôt que les moteurs de recherches, outre le fait qu’ils ont un impact particulièrement néfaste sur l’environnement, ne voient plus les sites!
Quel sera l’avenir de ces sites ? Quelles stratégies seront mises en place pour qu’ils subsistent ? A partir de quand les contenus générés par les IAs deviendront-ils majoritaires et la norme ?
Impact potentiel des LLM
Beaucoup de personnes réfléchissent à cela!
Certaines arrivent même déjà avec des solutions.
Celle qui a le plus attiré mon attention est à propos de l’évolution des sites, non plus pour l’algorithme des moteurs de recherches mais pour les IAs et les LLM. La solution proposée ? Aller vers un internet des APIs, avec un web « full » Base de données. Ce qui annoncerait la fin de l’UX, les SEO et la construction de sites… Tout serait alors généré à la volée par des LLM.
Je n’ai pas trouvé de sources à ces discours mais cette idée émerge au point de voir des posts de plusieurs personnes sur le sujet… Et même si elle se base sur des propositions, nous avons vu à quelle vitesse pouvait évoluer le web avec l’apparition de Google.
Dans ce cas, internet ne serait plus pour les utilisateurs et utilisatrices humains mais uniquement pour les robots. Les services numériques seront encore plus impactés qu’avec le SEO. A quoi bon faire de l’accessibilité, des sites lisibles, clairs et pédagogiques aucun être humain ne le voit ?
Si l’on s’oriente dans cette direction, on ira vers une qualité pour services numériques qui auront pour but de nous pondre des réponses (ou même sites) sur mesures mais générées de manière totalement statistiques, sans aucun moyen de croiser des sources, d’avoir des « sites de confiance »… Le tout, en augmentant exponentiellement notre impact environnemental…
Cette qualité pourrait être intéressante à court terme… mais ne pourra pas tenir sur la durée pour plusieurs raisons. Les 2 principales sont:
- Une fois que l’environnement sera détruit et que l’on ne pourra plus faire tourner les serveurs pour l’IA tout s’effondrera
- A partir d’un moment la part de contenu issus d’une véritable création et d’humain sera négligeable. Les IAs se nourriront d’elles même et on entrera certainement dans une phase de stagnation
Fort heureusement ce futur n’est qu’un futur possible et pas forcément notre futur.
La qualité Durable, une autre voie pour le futur des services numériques
Les collectifs
J’en parle depuis longtemps dans la taverne mais aussi à travers des conférences. Je travaille depuis maintenant presque 2 ans avec un groupe dédié sur à ce sujet. D’autres personnes parlent directement de ce sujet comme Lydie Huon et Guillaume Kerrien mais aussi en parlant de numérique responsable comme Tristan Nitot et de très nombreux collectifs.
L’objectif de ces communautés ?
Proposer un avenir différent, plus enviable, plus respectueux et pensé pour les humains plus que pour les robots ou les vendeurs de Hardware.
Tristan Nitot parle du concept eRoom, l’inverse de la loi de Moore où pour continuer à proposer mieux et plus il faut optimiser plutôt qu’améliorer le matériel qui peine fortement à s’améliorer depuis quelques années:

Il y a évidemment le travail de collectifs comme l’AFNOR ou l’INR qui traite de numérique responsable et qui se penchent sur l’IA avec des référentiels comme celui de l’IA frugale ou le RIA31.
Je ne donne ici que quelques exemples mais il faut être conscient que les groupes de travail et les communautés qui se penchent sur le sujet sont très nombreuses, passionnées… Et qu’elles se basent sur des faits, avec des sources fiables comme celles de l’ADEME.
Le futur proposé
Contrairement à ce que l’on pourrait croire, le futur proposé est un futur qui s’appuie sur la technologie. Sauf que dans ce futur, la technologie est un outil au service des personnes et non une fin en soi!
Les IAs ouvrent de grandes perspectives, le numérique peut proposer des outils formidables d’intégration, de partage de connaissances, de connexions entre les individus du monde entier.
Tous ces apport doivent être conservés et accessible au plus grand nombre… Sur une durée aussi importante que possible.
Pour cela il est nécessaire d’avoir une qualité durable. Par qualité durable, vous pouvez entendre:
- des services qui respectent les utilisateurs et non utilisateurs
- des services qui respectent les personnes qui les construisent
- des services qui respectent l’environnement

Cet autre futur est possible. A l’heure actuelle c’est encore nous, les utilisateurs humains d’internet (en encore plus ceux qui travaillent dans l’IT) qui avons la main sur l’orientation que prendra internet et les services numériques dans un avenir proche.
Conclusion
L’arrivée des LLM nous a amené vers un croisement de l’histoire (encore assez courte) d’internet.
Iront nous vers une qualité et des services pensés pour les robots ? Avec un assemblages de base de données analysées par des LLM qui génèreront, à un prix environnemental catastrophique et sans donner des vraies références, des réponses à toutes nos questions. Cette qualité a l’avantage de la « simplicité », à court terme pour nous utilisateurs. Elle a l’inconvénient de nous envoyer dans le mur de la catastrophe écologique mais aussi de déshumaniser cet espace qu’est internet.
Ou iront nous vers une qualité durable avec des services pensés pour des humains ? Cet alternative brille peut être moins, ne proposera pas de réponse toutes faites avec un seul point d’entrée… mais elle a le mérite d’être respectueuse, de l’environnement, des personnes tout en proposant des solutions adaptées et pensées pour les utilisateurs et utilisatrices.
Pour ma part, j’ai fait mon choix!
Pensez à rejoindre le groupe Le métier du test si le test vous intéresse !
N’hésitez pas à me suivre et lire mes autres articles si vous voulez en apprendre plus sur le test ou venir partager vos connaissances
Merci à tous ceux qui mettent « j’aime », partagent ou commentent mes articles


