Pendant vingt ans, nous avons bâti une économie logicielle sur une équation simple : plus on scale, plus la marge augmente. Le coût marginal tend vers zéro, les revenus s’accumulent, l’effet de levier devient massif. AWS, Salesforce, Shopify — toute la domination du SaaS repose sur cette mécanique. Industrialiser, standardiser, automatiser : le rendement suit automatiquement. On appelait ça le scalable yield, et pendant deux décennies, ça fonctionnait et créait des fortunes.
Cette époque est révolue. Pas parce que le principe est faux. Parce qu’il reposait sur une hypothèse qui l’est devenue.
L’hypothèse, c’était celle-ci : chaque unité produite coûte quasiment rien de plus que la précédente. Une requête API supplémentaire ? Négligeable. Un utilisateur de plus sur la plateforme ? Marginal. C’est sur ce postulat que toute la logique du yield s’est construite. Et c’est précisément ce postulat que l’IA agentique est en train de détruire.
Ce que l’agentique change : le coût marginal est de retour
Appeler un modèle de langage, orchestrer des outils, traiter du contexte, maintenir une mémoire, gérer des exceptions, tout cela consomme, et pas un peu, parfois massivement. Contrairement à une API classique dont le coût est fixe et amorti, chaque exécution agentique a un coût réel, variable, occasionnellement significatif. Le coût marginal ne tend plus vers zéro. Il redevient une variable stratégique.
C’est le premier signal d’alarme que le secteur n’a pas encore intégré dans sa doctrine. On parle d’agents comme s’ils étaient gratuits à l’échelle. Ils ne le sont pas. Les premières entreprises qui ont déployé des agents en production sans cette conscience ont découvert — souvent brutalement — que le yield promis s’était transformé en gouffre opérationnel. Petit clin d’oeil à mes amis qui se sont lancés avec OpenClaw …
Ce qui distingue le diagnostic de la résignation : ce n’est pas un problème de technologie. C’est un problème d’architecture. Il s’agit d’une différence fondamentale.
Le vrai diagnostic : on a confondu le rendement et l’infrastructure
Le scalable yield de l’ère SaaS était une propriété de l’infrastructure. Il était structurel, quasi automatique, inscrit dans la nature même du logiciel à coût marginal nul. L’entreprise n’avait pas à le piloter finement : il se produisait mécaniquement dès que la base utilisateurs croissait.
À l’ère agentique, cette automaticité disparaît. Le yield ne se produit plus par défaut. Il se construit. Et la différence entre une organisation qui en bénéficie et une autre qui le détruit n’est pas dans la puissance des modèles choisis : elle est dans la qualité de l’orchestration.
Prenons un exemple concret. Une capability de pricing dynamique dans le retail. Dans un modèle classique, on calcule un prix et on l’applique. Dans un modèle agentique, on peut intégrer des signaux multiples — météo, stock, comportement client, pression concurrentielle — et recalculer en continu. Mais chaque calcul a un coût. Si l’on mobilise un modèle avancé pour chaque déclenchement, on détruit la marge que l’on cherchait à optimiser. Si en revanche on conçoit des seuils de déclenchement, des heuristiques, des niveaux de traitement différenciés selon la complexité du cas — alors on retrouve du yield. Pas automatique. Conçu.
C’est précisément là que le secteur se trompe. Il pense que plus d’IA produit plus de valeur. L’équation est fausse. Plus d’IA sans architecture produit plus de coût. La performance ne vient pas de la puissance brute. Elle vient du design du système.
La bascule : du yield d’infrastructure au yield de capabilities
Nous vivons une bascule que peu de dirigeants ont encore nommée clairement. Nous passons d’un monde où le rendement d’échelle était une propriété technique — inscrite dans l’infrastructure, automatique, prévisible — à un monde où il est une propriété organisationnelle. C’est-à-dire : dépendante de la clarté avec laquelle une organisation a défini ce qu’elle fait, comment elle le mesure, et à quel niveau de granularité elle sait arbitrer.
Ce n’est plus l’infrastructure qui produit le yield. Ce sont les capabilities. Et une capability mal définie — périmètre flou, responsabilité diluée, résultat non mesurable — sera amplifiée par les agents exactement comme elle est : confuse. Amplifier du vide reste un exercice futile. L’agentique n’échappe pas à cet invariant. Il l’aggrave.
La question que toute direction devrait se poser n’est donc pas « combien d’agents déployons-nous ? » mais « sur quelle granularité de capabilities nos agents opèrent-ils, et savons-nous mesurer le coût et la valeur de chaque exécution ? »
Ce changement de question n’est pas rhétorique. Il est architectural. Il change ce qu’on construit, ce qu’on mesure, ce qu’on gouverne.
Les implications : piloter le yield par capability, pas par infrastructure
Il ne suffit plus de mesurer des coûts globaux ou des marges agrégées. Il faut descendre au niveau de l’exécution métier. Combien coûte une décision ? Combien rapporte-t-elle ? Quel est le coût d’une erreur ? Quel est le prix d’un gain de précision ? Ces questions n’ont rien de nouveau dans un Codir compétent. Ce qui est nouveau, c’est qu’elles s’appliquent désormais à chaque unité d’exécution agentique.
Cela suppose une gouvernance que la plupart des organisations n’ont pas encore construite. Sans observabilité fine, sans capacité à comparer différentes variantes d’exécution, sans traçabilité des décisions prises par les agents — le yield se dégrade mécaniquement. L’agentique laissée seule consomme mais l’agentique gouvernée produit. C’est la différence entre deux modèles d’entreprise, pas entre deux choix technologiques.
Les architectures qui domineront ne seront pas celles qui maximisent l’usage de l’IA. Ce seront celles qui savent arbitrer en permanence entre coût et valeur. Qui savent quand ne pas utiliser un modèle avancé. Qui savent dégrader intelligemment selon le contexte. Qui savent apprendre de leur propre exécution pour recalibrer en continu.
Ce que John Hagel III formulait autrement : la valeur ne vient plus du stock — de la puissance accumulée — mais du flux; de la capacité à ajuster, à apprendre, à orchestrer en temps réel. L’agentique est la démonstration la plus radicale de ce principe. Le yield, dans ce monde agentique, est une fonction de l’orchestration ce n’est pas une propriété de la plateforme.
Ce que vous devriez vous demander dès aujourd’hui
Votre organisation sait-elle lire la stratégie de ses agents dans la structure de ses capabilities ? Peut-elle expliquer, pour chaque exécution agentique en production, ce qu’elle coûte et ce qu’elle produit ? A-t-elle un niveau de gouvernance qui lui permet de modifier un périmètre d’exécution sans tout reconstruire ?
Si la réponse à ces trois questions n’est pas un oui franc, le scalable yield que vous imaginez tirer de l’IA agentique ne se matérialisera pas. Ce n’est pas une limite technologique. C’est une limite architecturale. Et contrairement à la première, la seconde se corrige mais à condition de la nommer honnêtement.
Certaines plateformes ont fait ce choix de nommer les choses avant que le marché ne les y contraigne en posant la capability comme unité d’exécution, la Branch comme contrat de périmètre, la gouvernance comme fondation et non comme contrainte. Stackmint.ai en fait partie, mais ce n’est pas là le sujet de cet article.
Le sujet, c’est la question que votre organisation devrait se poser ce matin, avant même de penser à ses agents: quelles capabilities avec quelle gouvernance?
Le scalable yield n’a pas disparu. Il a changé de nature. À l’ère agentique, il n’est plus une propriété de l’infrastructure — c’est une conséquence de la maîtrise de ses capabilities. Amplifier du vide reste un exercice futile. Construire sur des fondations claires, mesurables et gouvernées — c’est là que le yield réapparaît.
