Deux rapports ébranlent le monde de l’IA — et la plupart des gens ne les ont pas lus
Ce que disent vraiment “Something Big Is Happening” et “The 2028 Global Intelligence Crisis”, pourquoi ils comptent, et comment les lire avec recul
Cet article explique et analyse deux rapports devenus viraux dans la communauté IA (février 2026), qui dressent un tableau de la direction que prend l’IA — l’un depuis la perspective d’un praticien, l’autre depuis celle d’un analyste financier. Je les décortique avec mes propres mots, mets en lumière les arguments centraux, et partage mon point de vue personnel sur ce que cela implique pour les développeurs, les tech leads, et quiconque construit des produits aujourd’hui.
Difficulté : Accessible — pas de code, aucun prérequis. Juste de la pensée critique.
Avant-propos
Il y a quelques semaines, deux articles ont atterri presque simultanément dans mon fil d’actualité. En quelques jours, ils avaient accumulé des dizaines de milliers de partages, déclenché des débats enflammés sur X et Hacker News, et rejoint cette catégorie de textes que les gens envoient à leurs amis et famille qui ne travaillent pas dans la tech.
Le premier, “Something Big Is Happening” de Matt Shumer, est une alarme personnelle tirée par un fondateur de startup IA qui dit ne plus effectuer lui-même le travail technique de son propre poste.
Le second, “The 2028 Global Intelligence Crisis” de Citrini Research (avec Alap Shah), est un mémo macro-économique fictif rédigé depuis la perspective de juin 2028, décrivant un monde où les destructions d’emplois entraînées par l’IA ont déclenché une récession globale.
Les deux sont des lectures longues. Les deux sont délibérément provocatrices. Et les deux contiennent des arguments qui méritent mieux qu’un défilement rapide suivi d’un retweet.
Je les ai lus attentivement, pris des notes, et je veux vous expliquer ce qu’ils disent vraiment, là où je pense qu’ils frappent juste, là où je pense qu’ils vont trop loin — et surtout, ce que vous devriez en retenir.
Note personnelle : Je ne suis ni économiste, ni futurologue. Je suis développeur, et je construis des produits propulsés par l’IA depuis quelques années. J’ai vu de près à quelle vitesse ces outils évoluent. C’est ce prisme pratique que j’apporte à la lecture de ces rapports.
Résumé rapide
Voici ce que vous trouverez dans cet article :
| # | Point abordé |
|---|---|
| 1 | Un résumé clair de “Something Big Is Happening” de Matt Shumer |
| 2 | Un résumé clair de “The 2028 Global Intelligence Crisis” de Citrini Research |
| 3 | Les arguments centraux de chaque rapport (et les hypothèses sous-jacentes) |
| 4 | Là où les deux rapports convergent — et là où ils divergent |
| 5 | Mon analyse personnelle : ce que je trouve convaincant, ce que je trouve exagéré |
| 6 | Des pistes concrètes pour les développeurs, tech leads et bâtisseurs de produits |
Rapport #1 — “Something Big Is Happening” (Matt Shumer)
En bref
Matt Shumer est le fondateur d’une startup IA (OthersideAI / HyperWrite). Il construit dans l’espace IA depuis six ans. Son article est, en substance, une lettre à ses proches et à tous ceux qui lui demandent régulièrement “mais c’est quoi exactement le truc avec l’IA ?” — sauf que cette fois, il abandonne la version polie et dit ce qu’il pense vraiment.
Son message central : l’écart entre ce que l’IA sait faire aujourd’hui et ce que le grand public croit qu’elle sait faire est désormais dangereusement grand. Et cet écart empêche les gens de se préparer à ce qui vient.
Pour plus de détails, l’article original est disponible à l’adresse https://shumer.dev/something-big-is-happening.
Les arguments centraux
1. L’IA a déjà remplacé son propre travail technique.
Shumer décrit son lundi type : il explique à l’IA ce qu’il veut construire, s’absente quatre heures, et revient trouver le travail terminé. Pas une ébauche. La chose finie. L’IA ouvre elle-même l’application, clique sur les boutons, teste les fonctionnalités, itère de son propre chef, et ne revient vers lui que quand elle est satisfaite du résultat.
Ce n’est pas une prédiction. C’est la description de ce qui s’est passé cette semaine dans son entreprise.
2. Les derniers modèles ont franchi un seuil qualitatif.
Il cite en particulier GPT-5.3 Codex et Claude Opus 4.6, tous deux sortis le 5 février 2026. Selon lui, ces modèles ne se contentent pas d’exécuter des instructions — ils font preuve de quelque chose qui ressemble à du jugement et à du goût. Ce type de prise de décision intuitive que les gens ont toujours prétendu que l’IA n’aurait jamais.
3. L’IA participe désormais à sa propre construction.
Il cite la documentation technique officielle d’OpenAI pour GPT-5.3 Codex, qui indique que le modèle a été utilisé pour déboguer son propre entraînement, gérer son propre déploiement et analyser ses propres résultats d’évaluation. Dario Amodei (PDG d’Anthropic) a également déclaré que l’IA écrit désormais une grande partie du code chez son entreprise, et que la boucle de rétroaction entre l’IA actuelle et la prochaine génération s’accélère.
4. La vitesse de progression est exponentielle, pas linéaire.
Il fait référence à METR, une organisation qui mesure la durée des tâches réelles que l’IA peut accomplir de bout en bout sans aide humaine. Il y a un an, la réponse était d’environ 10 minutes. Puis une heure. Puis plusieurs heures. La dernière mesure (Claude Opus 4.5, novembre 2025) montrait l’IA accomplissant des tâches qui prendraient à un expert humain près de cinq heures. Ce chiffre double approximativement tous les sept mois — et pourrait même s’accélérer jusqu’à tous les quatre mois.
5. Les destructions d’emplois massives arrivent — vite.
Shumer rapporte la prédiction de Dario Amodei selon laquelle l’IA supprimera 50 % des emplois de cols blancs débutants d’ici un à cinq ans. Et beaucoup dans l’industrie estiment que c’est une évaluation conservatrice. Sa propre règle empirique : si un modèle montre ne serait-ce qu’une ébauche d’une capacité aujourd’hui, la génération suivante en sera vraiment capable.
6. Que faire face à cela.
Ses conseils sont pratiques et urgents : commencer à utiliser l’IA sérieusement (abonnement payant, meilleur modèle disponible), l’intégrer dans votre travail réel, passer une heure par jour à expérimenter, mettre de l’ordre dans vos finances, et cesser de penser que votre domaine est à l’abri.
Mon analyse de ce rapport
Shumer écrit avec conviction et authenticité. Il ne cherche visiblement pas à vous vendre quelque chose — il écrit parce qu’il ressent une obligation morale de prévenir les gens qui lui sont chers.
Cela dit, quelques points méritent d’être nuancés.
Ce que je trouve convaincant : Son expérience personnelle est difficile à écarter. Quand quelqu’un qui construit des produits IA depuis six ans dit “cette semaine, c’était différent”, ça a du poids. Les données METR qu’il cite sont réelles, mesurables, et suivent une tendance cohérente. Et la documentation officielle d’OpenAI sur la contribution de GPT-5.3 Codex à son propre développement… c’est tout simplement un fait vérifiable.
Là où je nuancerais : L’article de Shumer est délibérément écrit pour secouer les gens. C’est son objectif, et il l’atteint bien. Sa comparaison avec le COVID est intéressante — et je pense souvent mal comprise. Pour moi, il ne dit pas “l’IA va se propager comme un virus.” Il dit : il y aura un avant et un après. Tout comme le COVID a durablement transformé notre façon de travailler, de voyager et d’interagir, l’IA s’apprête à redessiner la carte de ce qui compte pour “normal”. Et tout comme début 2020, la plupart des gens sont aujourd’hui dans la phase où ils minimisent ce qui vient parce que ça n’a pas encore touché leur vie. Cette lecture-là, je trouve difficile d’y objecter.
Cela dit, l’affirmation “rien de ce qui peut se faire sur un ordinateur n’est à l’abri à moyen terme” est une affirmation très forte. Elle pourrait s’avérer juste. Mais il y a une différence entre “l’IA peut accomplir cette tâche” et “l’IA va remplacer tous les humains qui l’accomplissent.” Capacité et déploiement ne sont pas la même chose. Entre les deux s’intercale tout un niveau d’inertie organisationnelle, de régulation, de construction de la confiance et de résistance humaine qui ralentit les choses — parfois considérablement.
Rapport #2 — “The 2028 Global Intelligence Crisis” (Citrini Research)
En bref
Celui-ci est radicalement différent, tant dans le format que dans l’approche. Citrini Research est une publication d’analyse financière. Leur article est rédigé sous la forme d’un mémo macro-économique fictif datant de juin 2028, qui revient sur la façon dont la révolution IA a déclenché une crise économique mondiale.
Le cadrage central, et c’est important : et si l’optimisme autour de l’IA continuait d’avoir raison… et si c’était justement ce qui serait baissier ?
Autrement dit : et si l’IA réussissait si spectaculairement qu’elle brisait le système économique qu’elle était censée améliorer ?
Pour plus de détails, l’article original est disponible à l’adresse https://www.citriniresearch.com/p/2028gic.
Le scénario qu’ils décrivent
Le mémo fictif s’ouvre en juin 2028. Le chômage est à 10,2 %. Le S&P 500 a perdu 38 % par rapport à ses sommets d’octobre 2026. Les auteurs reconstituent la séquence d’événements qui a conduit à cette situation.
Phase 1 : La disruption du SaaS (fin 2025 – mi-2026)
Les outils de codage agentique atteignent un point de bascule. Un développeur compétent avec Claude Code ou Codex peut désormais reproduire les fonctionnalités centrales d’un produit SaaS mid-market en quelques semaines. Les équipes achats des grandes entreprises commencent à se demander : “Et si on construisait ça nous-mêmes ?”
La longue traîne du SaaS encaisse les premiers coups. Puis même les systèmes de référence commencent à subir la pression. Dans le scénario, le rapport du troisième trimestre 2026 de ServiceNow révèle le mécanisme réflexif : quand leurs clients du Fortune 500 réduisent leurs effectifs de 15 % grâce à l’IA, ils annulent également 15 % de leurs licences ServiceNow. Les gains d’efficacité permis par l’IA qui dopent les marges des clients détruisent mécaniquement la base de revenus de ServiceNow.
Phase 2 : Le frottement tombe à zéro (début 2027)
Les agents IA s’intègrent dans les comportements quotidiens des consommateurs. Ils tournent en arrière-plan, optimisent les achats, annulent les abonnements inutilisés, comparent les prix sur toutes les plateformes, renégocient les renouvellements d’assurance. Toute la couche d’intermédiation de l’économie — les entreprises bâties sur la paresse humaine, l’inertie et l’asymétrie d’information — commence à s’effondrer.
Les auteurs introduisent ici un concept brillant : l’intermédiation habituelle. Prenez DoorDash. Son avantage concurrentiel reposait essentiellement sur : “vous avez faim, vous êtes fainéant, c’est l’appli sur votre écran d’accueil.” Mais un agent IA n’a pas d’écran d’accueil. Il vérifie toutes les options et choisit la moins chère, à chaque fois.
Même les rails de paiement sont perturbés. Quand les agents commencent à transiger entre eux, les 2-3 % de frais d’interchange sur les cartes de crédit deviennent une inefficacité évidente. Les agents les contournent en réglant leurs transactions en stablecoins sur Solana ou des L2 Ethereum.
Phase 3 : La spirale de déplacement de l’intelligence (2027)
C’est le mécanisme central que décrit le rapport, et c’est le concept le plus important de l’article.
La boucle : l’IA s’améliore → les entreprises licencient des employés → les économies sont réinvesties dans plus d’IA → l’IA s’améliore → nouvelles suppressions d’emplois → les travailleurs déplacés dépensent moins → les entreprises vendent moins → les entreprises investissent davantage dans l’IA pour protéger leurs marges → l’IA s’améliore.
Les auteurs appellent ça une boucle de rétroaction sans frein naturel.
Et voici l’insight critique : il ne s’agit pas de CapEx traditionnel. Les entreprises ne construisent pas de nouvelles usines qu’elles pourraient arrêter de construire si la demande chute. C’est de la substitution d’OpEx — une entreprise qui dépensait 100 M€ en salariés et 5 M€ en IA en dépense maintenant 70 M€ en salariés et 20 M€ en IA. Les dépenses totales diminuent, mais les dépenses en IA augmentent. Le moteur de la disruption s’alimente lui-même alors même que l’économie globale se contracte.
Phase 4 : Le concept de “PIB fantôme”
C’est peut-être l’idée la plus stimulante de tout le rapport. Dans leur scénario, les chiffres de productivité sont exceptionnels. Le PIB continue de croître. Mais la production est générée par des machines qui n’achètent pas de maisons, ne vont pas au restaurant, ne payent pas de garde d’enfants. La valeur économique apparaît dans les comptes nationaux mais ne circule jamais dans l’économie de consommation qui représente 70 % du PIB.
Les auteurs l’énoncent crûment : “On aurait probablement pu s’en rendre compte plus tôt si on avait simplement demandé combien les machines dépensent en biens de consommation courante. Indice : c’est zéro.”
Mon analyse de ce rapport
Ce que je trouve convaincant : Le cadre intellectuel ici est exceptionnel. Le concept de la “spirale de déplacement de l’intelligence” — une boucle de rétroaction négative où la décision individuellement rationnelle de chaque entreprise de réduire ses coûts grâce à l’IA détruit collectivement la demande — est exactement le type de raisonnement de second ordre qui est largement absent du débat sur l’IA. La plupart des gens débattent encore “est-ce que l’IA va supprimer des emplois ?” pendant que ce rapport demande “que se passe-t-il pour l’économie quand elle le fait ?”
Le concept de “PIB fantôme” est également frappant. On en voit déjà des échos aujourd’hui : les métriques de productivité peuvent sembler excellentes même quand l’économie humaine réelle qui les sous-tend est en difficulté.
La discussion sur l’intermédiation habituelle est particulièrement percutante. Tant d’entreprises sont construites sur le frottement — sur le fait que les humains sont impatients, oublieux, ou n’ont tout simplement pas le temps de comparer les offres. Quand les agents IA suppriment ce frottement, ces modèles économiques ne s’érodent pas. Ils s’évaporent.
Là où je nuancerais : Le rapport est explicitement présenté comme un scénario, pas comme une prédiction. Les auteurs sont clairs là-dessus. Mais la façon dont il est rédigé — sous forme de mémo rétrospectif avec de faux titres Bloomberg et des données économiques inventées — le fait paraître davantage comme une prévision que comme un exercice de pensée. C’est délibéré, c’est efficace, mais les lecteurs doivent garder ce cadrage à l’esprit.
Le scénario suppose également une adoption de l’IA remarquablement fluide et rapide dans tous les secteurs simultanément. En pratique, les obstacles réglementaires, l’inertie organisationnelle, les coûts d’intégration et la résistance humaine pure et simple ont tendance à ralentir considérablement les choses. La santé n’adoptera pas l’IA à la même vitesse que les startups logicielles. Les cabinets d’avocats à Bruxelles n’avanceront pas au même rythme que les entreprises tech à San Francisco.
La chronologie (tout passe de “normal” à “récession” en environ deux ans) est extrêmement agressive. L’histoire montre que même les technologies véritablement disruptives mettent plus de temps à pénétrer l’économie que ne le prévoient leurs créateurs.
Là où les deux rapports convergent
Malgré leurs formats et leurs publics très différents, ces deux textes partagent une thèse centrale commune :
1. La progression des capacités de l’IA est plus rapide que la plupart des gens ne le réalisent. Les deux rapports ancrent leurs arguments sur l’accélération mesurable et observable des modèles tout au long de 2025-2026.
2. L’écart entre ce que l’IA sait faire et ce que la plupart des gens croient qu’elle sait faire est dangereux. Shumer le dit explicitement. Le rapport Citrini l’implique à travers la construction de son scénario — la crise se produit en partie parce que les gens ne la voient pas venir.
3. Le travail de connaissance des cols blancs est la cible principale. Non pas parce que les laboratoires d’IA ciblent spécifiquement les avocats et les analystes, mais parce que le travail cognitif est ce que les modèles IA actuels automatisent le mieux. Le travail physique vient plus tard.
4. Il n’existe pas de “zone refuge” évidente vers laquelle se reconvertir. C’est sans doute le point le plus troublant que soulèvent les deux rapports. Contrairement aux précédentes vagues d’automatisation, où les travailleurs déplacés pouvaient migrer vers un nouveau secteur, l’IA progresse sur tout simultanément. Quelle que soit la compétence vers laquelle vous vous reconvertissez, elle s’améliore aussi dans ce domaine.
5. La fenêtre de préparation est étroite. Les deux auteurs estiment que les personnes qui commencent à s’engager maintenant — pas dans six mois, pas quand ça fera la une des journaux — auront un avantage significatif sur celles qui attendent.
Là où ils divergent
Shumer se concentre sur les individus. Ses conseils sont personnels : utiliser les outils, expérimenter quotidiennement, construire des choses qui vous tiennent à cœur, repenser l’éducation de vos enfants. Son ton est urgent mais fondamentalement responsabilisant.
Citrini se concentre sur les systèmes. Leur analyse porte sur les boucles de rétroaction macro-économiques, les marchés du crédit, les comportements de dépenses des consommateurs, et la fragilité structurelle d’une économie reposant sur les revenus des cols blancs. Leur ton est clinique et, franchement, plus alarmant — parce que les problèmes systémiques n’ont pas de solutions individuelles.
Cette différence est importante. Le conseil de Shumer (“passer une heure par jour avec l’IA”) est actionnable et utile quelle que soit la justesse de son calendrier. Le scénario de Citrini, s’il se réalise même partiellement, décrit des problèmes qu’aucune montée en compétences individuelle ne peut résoudre — il faudrait des réponses politiques au niveau gouvernemental et institutionnel.
Mon point de vue personnel
Je construis des produits propulsés par l’IA depuis un moment maintenant. Je travaille avec ces modèles tous les jours. Je les ai vus passer de “intéressants mais peu fiables” à “indispensables” dans un délai qui m’a sincèrement surpris.
Alors où est-ce que je me situe ?
Je pense que les deux rapports sont globalement dans la bonne direction. Les capacités de l’IA progressent plus vite que la perception publique. Les derniers modèles sont qualitativement différents de ce qui existait il y a un an. Le travail de cols blancs est en train d’être restructuré en temps réel.
Je pense que les calendriers sont probablement trop agressifs. Non pas parce que la technologie n’en sera pas capable — elle le sera probablement — mais parce que l’adoption est toujours plus lente que la capacité. Les organisations bougent lentement. Les réglementations bougent plus lentement encore. Le changement culturel est le plus lent de tous. Le scénario Citrini décrit un effondrement en deux ans qui, en réalité, se déroulerait plus probablement sur cinq à dix ans — ce qui reste rapide par rapport aux standards historiques, mais laisse davantage de marge pour s’adapter.
Je pense que l’argument “pas de zone refuge” est partiellement juste mais exagéré. Oui, l’IA progresse sur tout. Mais “progresse sur” et “remplace totalement les humains dans” sont deux choses différentes. Il y aura des domaines où les humains resteront dans la boucle plus longtemps — non pas parce que l’IA ne peut pas faire le travail, mais parce que la confiance, la responsabilité, la réglementation et l’inertie institutionnelle pure les y maintiennent. La médecine, l’éducation, la responsabilité juridique, l’artisanat physique — ces domaines ne disparaîtront pas du jour au lendemain.
Je pense que la chose la plus utile que vous puissiez faire en ce moment est exactement ce que Shumer suggère : utiliser ces outils tous les jours, les intégrer dans votre travail réel, et développer une intuition de ce qu’ils savent et ne savent pas faire. Non pas parce que cela vous mettra à l’abri de la disruption — rien ne le garantit. Mais parce que comprendre la technologie de première main vous donne la capacité de vous adapter au fil des changements. Et les choses vont changer.
Avertissement : Si vous êtes développeur ou tech lead et que vous n’avez pas sérieusement expérimenté avec les outils de codage agentique (Claude Code, Cursor, Codex), vous avez déjà du retard. Je ne dis pas ça pour être dramatique. Je le dis parce que l’écart entre “les développeurs qui utilisent l’IA intensivement” et “ceux qui ne le font pas” se creuse chaque mois. Dans six mois, c’est peut-être la différence entre être la personne qui tire la productivité de son équipe vers l’avant et être celle qui se demande pourquoi l’équipe est deux fois moins grande qu’avant.
Ce que je recommande
Voici des étapes concrètes, avec mes propres priorités.
Si vous êtes développeur : Commencez à utiliser les outils de codage assistés par IA sur de vrais projets, pas des exemples jouets. Donnez-leur votre véritable base de code. Confiez-leur des tâches complexes impliquant plusieurs fichiers. Apprenez leurs limites en les atteignant. Les modèles d’aujourd’hui ne sont pas les modèles d’il y a six mois, et les modèles de dans six mois ne seront pas ceux d’aujourd’hui.
Si vous êtes tech lead ou product owner : Lisez les deux rapports. Partagez-les avec votre équipe. Commencez à réfléchir aux parties de votre produit ou service qu’un développeur compétent avec un agent de codage IA pourrait reproduire en quelques semaines. C’est votre surface de vulnérabilité. C’est aussi votre opportunité — si vous pouvez utiliser ces outils pour construire plus vite et mieux, vous devriez le faire.
Si vous construisez une entreprise (comme je le fais avec Flutteris ou i-Discover) : Posez-vous la “question Citrini” : une partie de votre modèle économique repose-t-elle sur du frottement ? Sur l’hypothèse que vos utilisateurs ne compareront pas les offres, ne remarqueront pas une meilleure alternative, n’automatiseront pas l’étape manuelle pour laquelle ils vous paient aujourd’hui ? Si oui, c’est là que vous devez innover maintenant, avant qu’un agent IA ne le fasse à la place de vos utilisateurs.
Si vous n’entrez dans aucune de ces catégories, mais que vous êtes curieux : Abonnez-vous à un service IA payant (20 $/mois pour Claude Pro ou ChatGPT Plus). Sélectionnez le meilleur modèle disponible. Ne l’utilisez pas comme Google. Donnez-lui une vraie tâche : un contrat à analyser, un rapport à décortiquer, un business plan à mettre à l’épreuve. Observez ce qui se passe. Recommencez demain. Et le jour d’après.
Conclusion
Ces deux rapports ne sont pas des lectures confortables. L’un est un praticien qui crie “j’ai vu le futur et il est déjà là.” L’autre est un analyste financier qui modélise calmement ce qui se passe si le praticien a raison.
Aucun des deux n’est une boule de cristal. Tous deux contiennent des hypothèses qui pourraient ne pas se vérifier. Les calendriers pourraient être faux d’un facteur deux ou trois. Les effets économiques en chaîne pourraient être amortis par des réponses politiques que nous ne pouvons pas encore prévoir.
Mais la direction du voyage ne fait pas de doute. Les modèles IA deviennent meilleurs, plus rapides et moins chers. Le travail qu’ils peuvent accomplir s’élargit. Les secteurs affectés s’étendent. Que cela prenne deux ans ou dix, la transformation est en cours.
La meilleure chose que vous puissiez faire — celle sur laquelle les deux rapports s’accordent — c’est de cesser d’attendre et de commencer à vous engager. Non pas avec crainte. Avec curiosité, discipline, et une vision lucide de ce qui vient.
Lisez-les vous-même. Formez votre propre opinion. Et mettez-vous au travail.
À bientôt pour de nouveaux articles, et bonne construction.
Références :
- Matt Shumer, “Something Big Is Happening” — https://shumer.dev/something-big-is-happening
- Citrini Research & Alap Shah, “The 2028 Global Intelligence Crisis” — https://www.citriniresearch.com/p/2028gic