Le rapport Citrini ou l'art de crier au feu dans une maison vide
Un mémo Substack fait trembler Wall Street, agite LinkedIn et conforte tous les ennemis de l'IA dans leurs certitudes. Problème : il se trompe de monde.
Bienvenue sur Longévité, le média qui décrypte la Silve économie. Je me penche aujourd’hui sur le propos et les angles morts d’un essai publié par Citrini, un Substack consacré à la finance de marché. Nous allons causer IA, démographie, dénatalité et management.
Depuis quelques semaines, un mémo publié sur Substack par le cabinet Citrini Research fait l’effet d’une petite bombe. The 2028 Global Intelligence Crisis décrit un scénario où l’IA réussit trop bien : elle remplace massivement les cols blancs, fait exploser le chômage qualifié, crée un « Ghost GDP » — un PIB qui gonfle pendant que les revenus des ménages s’effondrent. Les marchés ont réagi. LinkedIn a surchauffé. Les détracteurs de l’IA ont trouvé leur munition.
Je comprends la mécanique. Un récit simple, cohérent, inquiétant, servi avec le vocabulaire des salles de marché. « White-collar recession ». « Spiral of intelligence displacement ». Ça sonne. Ça circule.
Cette inquiétude est légitime, justifiée par une accélération technologique inouïe qui, sans accompagnement approprié, fera de nombreuses victimes. Je ne remets pas en question la cause, mais j'interroge la pertinence des moyens employés et la finalité de cette opération pour ses créateurs.
Qui est vraiment Citrini Research ?
Avant de discuter du fond, regardons la source. Citrini Research est un cabinet privé de recherche financière fondé en 2023 à New York, dont la newsletter occupe la pole position de la catégorie Finance sur Substack.
Son fondateur, James van Geelen, est un entrepreneur issu de la santé reconverti en recherche boursière thématique. Le fameux scénario 2028 est cosigné avec Alap Shah, CIO de Lotus Technology Management : un tech-financier solide, ex-investisseur chez Viking Global et Citadel, diplômé en économie de Harvard, qui a fondé et revendu pour 250 millions de dollars une plateforme de recherche financière dopée à l’IA.
Un palmarès respectable. Mais ni l’un ni l’autre n’est démographe, ni macro-économiste académique, ni spécialiste du marché du travail.
Le mémo lui-même l’assume : il se présente comme « a thought exercise in financial history, from the future ». Un exercice de pensée, pas une prévision.
Cette nuance s’est évaporée dans la réception médiatique et boursière. Ce qui n’a rien de surprenant quand on connaît la philosophie assumée de Citrini : « les narratifs pilotent les marchés plus que n’importe quel autre facteur ».
Décryptage : Ils savent ce qu’ils fabriquent.
Citadel Securities, The Economist et l’économiste en chef de la Maison-Blanche ont tous publié des démontages solides et documentés. Ces réfutations sont fondées. Elles sont aussi inaudibles : le récit avait déjà fait trois fois le tour de LinkedIn.
Citrini, Rifkin et la fin du travail — le retour
Ce scénario recycle, avec le vocabulaire de 2026, des thèses que le prospectiviste Jeremy Rifkin formulait dès 1995 dans La Fin du travail. Les nouvelles technologies nous feraient entrer dans une ère où la production pourrait presque se passer de producteurs, et l'effet de déversement — ces gains de productivité qui créent de nouveaux emplois ailleurs — ne fonctionnerait plus.
Laurent Alexandre, dans La guerre des intelligences (2017, réédité en 2023 avec ChatGPT), alertait sur la concurrence des « cerveaux de silicium » qui toucherait tous les métiers, y compris les plus complexes.
Le scénario Citrini reprend ces prémisses : substitution massive, chômage structurel, déconnexion productivité/revenus. Mais il les habille d'un vocabulaire corporate qui parle aux cols blancs de 2026. Ces narrations trouvent toujours un public parce qu'elles touchent à l'angoisse existentielle de l'inutilité.
Il corrobore aussi les travaux sérieux sur les scénarios extrêmes liés à l'IA.
Nick Bostrom, philosophe à Oxford, modélise les risques existentiels d'une superintelligence depuis des années. Dans ses travaux sur la superintelligence, il envisage des scénarios où une IA générale dépasse l’humain, prend le contrôle de leviers critiques et peut conduire à l’extinction ou à une « désactivation » durable de l’humanité
Frey et Osborne estimaient en 2013 que 47 % des emplois américains étaient à haut risque d'automatisation sur vingt ans, chiffre que l'OCDE a depuis largement révisé à la baisse.
Selon le scénario McKinsey Global Institute, 15 à 30% de la main‑d’œuvre mondiale pourraient être déplacés par l’automatisation entre 2016 et 2030 (400 à 800 M de personnes), même si une partie est ré‑absorbée ailleurs.
D’autres rapports (McKinsey 2025, IBM 2025) insistent sur un changement de paradigme : jusqu’à 30% des heures travaillées automatisables d’ici 2030 aux États‑Unis, et des dizaines de millions de transitions professionnelles nécessaires.
Mais tandis que ces sources travaillent avec des modèles, des probabilités, des scénarios alternatifs, Citrini choisit un seul chemin, le plus noir, et le déroule comme un film complet.
L’essai d’Aleph Shah se présente comme une lecture idéale, plus facile à digérer qu’un rapport austère et plus compréhensible que l’ouvrage “Superintelligence” de Nick Bostrom, que j’ai personnellement lu. C’est l’outil parfait pour provoquer une panique sur les marchés et se propager rapidement parmi les cadres anxieux.
L’angle mort qui rend tout le reste caduc
Les auteurs raisonnent comme si nous vivions dans un monde de main-d’œuvre abondante, où le problème principal serait un excès de travailleurs remplacés par des machines. Or tout indique l’inverse.
J’ai consacré une édition récente à deux ouvrages qui traitent de cette réalité de front — After the Spike de Dean Spears et Michael Geruso, et Les Balançoires vides de Maxime Sbaihi. Je vous renvoie à cette analyse pour le détail.
En synthèse :
La population mondiale va atteindre un pic autour de 10 milliards, puis décliner.
Les quatre cinquièmes de tous les humains qui naîtront jamais sont déjà nés.
Aucun des 26 pays tombés sous un indice de fécondité de 1,9 n’est jamais remonté au-dessus du seuil de remplacement. Un piège à sens unique.
Les données sont connues. Personne ne semble vouloir les lire en même temps que le rapport Citrini.
Dans ce monde-là, poser la question « l’IA va-t-elle détruire trop d’emplois ? » revient à regarder dans le mauvais rétroviseur. La question pertinente devient : qui accomplira le travail quand il n’y aura plus assez d’actifs ?
Citrini suppose un stock infini de cols blancs disponibles. La réalité démographique européenne, chinoise, japonaise dit le contraire. Ce n’est pas une nuance marginale, mais le fondement qui fait s’effondrer tout l’édifice.
Les détracteurs de l’IA ont trouvé leur chiffon rouge
Depuis la diffusion du mémo, LinkedIn s’est transformé en chambre d’écho. Des messages en cascade sur la disparition des métiers, l’obsolescence des compétences, la fin des emplois de cols blancs.
Le rapport Citrini fonctionne comme un biais de confirmation grandeur nature : pour ceux qui craignent déjà d’être remplacés, il fournit une preuve émotionnellement satisfaisante.
Aparté : c’est le LinkedIn francophone qui qualifie cet essai Substack de “rapport”, comme si ce titre officialisait le propos. Amusant.
Pour ceux qui s’opposent à l’IA par principe, il offre une munition présentable. Un scénario catastrophe avec 38% de baisse sur le S&P 500 en deux ans circule dix fois mieux qu’un graphique sur le ratio actifs/retraités en Europe.
Agiter ce rapport pour refuser d’intégrer l’IA, c’est répondre à la mauvaise question. On brandit une dystopie de marché pour éviter de penser une réalité démographique documentée.
Depuis que Rifkin a publié La Fin du travail, trente ans se sont écoulés sans que le travail humain disparaisse.
Des millions de gens ont vécu plus longtemps, en meilleure santé, avec un pouvoir d’achat supérieur à toutes les générations précédentes.
Le progrès ne se déroule pas en ligne droite et il produit des perdants réels — mais la tendance de fond, sur un siècle, penche du bon côté.
Prétendre le contraire demande un effort d’aveuglement assez remarquable.
Ce débat de marché, les professionnels du grand âge pourraient être tentés de le regarder de loin, comme s’il ne les concernait pas. Erreur. C’est précisément leur terrain qui illustre le mieux en quoi Citrini se trompe de problème.
Silver économie : l’IA libère du temps soignant
L’automatisation dans le grand âge ne vient pas se substituer aux aides-soignants, aux auxiliaires de vie, aux infirmiers. Ce serait techniquement difficile, éthiquement discutable, et surtout à côté du sujet.
L’IA absorbe la charge cognitive et administrative qui pèse sur les équipes soignantes : coordination des plannings, gestion des dossiers, détection des anomalies dans les données de santé, anticipation des besoins logistiques.
Des outils de traitement automatisé des comptes-rendus médicaux permettent à une coordinatrice de parcours de gérer 30% de dossiers supplémentaires sans augmenter son temps de travail. Un soignant dont le temps administratif est réduit de moitié retrouve du temps pour la relation, l’évaluation, le soin.
Le cas japonais est le plus démonstratif.
Le Japon affiche une des densités de robots industriels les plus élevées au monde — 397 pour 10 000 travailleurs — et c’est une réponse assumée à un déclin de main-d’œuvre que le pays vit depuis 2008.
McKinsey estime que même en automatisant 27% des tâches d’ici 2030, le pays ferait encore face à un déficit de 1,5 million de travailleurs. L’automatisation arrive en renfort d’une économie qui manque de bras.
La Silver économie va faire face, d’ici 2050, à 2,1 milliards de personnes de 60 ans et plus dans le monde, et à une pénurie de 950 000 soignants en Europe d’ici 2030 selon l’OMS. Le vrai risque, dans ce contexte, c’est une IA qui n’arrive pas assez vite dans les secteurs où la pénurie est déjà critique.
Ce que la bonne SF nous enseigne
Citrini décrit une société qui n’aurait pas su redistribuer les gains de l’IA. Sujet réel, traitement lacunaire : aucun modèle démographique, aucune donnée calibrée, un seul scénario présenté comme inéluctable — rédigé par un producteur de récits d’investissement qui assume lui-même que les narratifs pilotent les marchés plus que les fondamentaux.
La maison ne brûle pas parce qu’elle a trop d’IA.
Elle se vide, lentement, faute de naissances. Et le vrai risque pour ceux qui travaillent dans le grand âge, c’est de ne pas avoir assez de machines quand il faudra soigner deux milliards de vieux avec une population active en contraction structurelle.
Tout ça pour rien, si l’on continue à regarder le mauvais horizon.
Où vois-je la menace ?
Dans le management…
En 2000, j’effectue mon service militaire au service des rapatriés de la préfecture de Seine-Maritime. Première expérience dans un service administratif. Première leçon sur ce que coûte un virage technologique mal géré.
Le service vient de passer de la machine à écrire à l’ordinateur. Les agents ont Word, Excel, PowerPoint sur leurs postes — des licences Office complètes, payées par l’administration. Personne n’a été formé. Le management devait penser que le geste était le même : on tape sur un clavier, on obtient un document. Affaire réglée.
Ce n’était pas le cas.
Une collègue doit envoyer deux cents courriers à deux cents destinataires. Elle tape chaque adresse une par une, dans chaque document, l’une après l’autre. Elle ne sait pas ce qu’est un publipostage. Personne ne le lui a dit. Une autre se fige dès qu’une fenêtre d’alerte s’affiche à l’écran : la panique, la certitude d’avoir tout cassé, l’appel au voisin pour déchiffrer le message. Les tâches les plus simples prennent trois fois plus de temps qu’à la machine à écrire. Les gens ont l’impression d’être devenus moins bons du jour au lendemain. L’outil censé les libérer les ralentit. Et personne au-dessus d’eux ne s’en préoccupe.
Pendant ce temps, les nouveaux entrants qui maîtrisent Excel et Word avancent deux fois plus vite sur les mêmes tâches. L’écart se creuse, silencieusement. Des licences Office complètes, payées rubis sur l’ongle, utilisées comme des machines à écrire améliorées.
Vingt-cinq ans plus tard, c’est le même scénario qui se prépare avec l’IA. Et c’est pour ça que le mémo Citrini trouve un écho, parce qu’il nomme une peur réelle.
Autour de moi, quand le sujet IA surgit dans une conversation — un avocat, un conseiller en gestion de patrimoine, une journaliste — ce n’est jamais le gain de temps ou la simplification qui revient en premier.
C’est la menace.
L’impression que quelque chose va leur être retiré. Et cette peur ne vient pas de l’IA. Elle vient du fait que personne ne leur a montré concrètement comment s’en saisir.
Un avocat qui n’a jamais utilisé un outil de recherche juridique augmentée ne voit pas un assistant, il voit un concurrent. Un CGP qui n’a jamais automatisé une note de synthèse client ne voit pas un levier, il voit une déqualification.
Le problème, c’est l’absence de formation, de cadre, d’accompagnement. Et si les décideurs — associés, directeurs, rédacteurs en chef — ne s’emparent pas du sujet en premier, leurs équipes ne le feront pas. On ne peut pas demander à des collaborateurs de pivoter sur un outil que leur chef ne maîtrise pas.
Je n’ai pas de formule magique. Mais après quelques années à travailler avec l’IA comme partenaire quotidien — pas comme un gadget, pas comme une béquille, comme un subalterne compétent à qui je donne des instructions et dont je garde le contrôle — j’ai quelques convictions sur ce qui aide les équipes à franchir le pas.
À ne pas voir dans l’IA un remplaçant, mais un outil qui travaille pour elles. À cesser de la subir pour commencer à la diriger.
Pour les abonnés payants — Intégrer l’IA sans mettre les équipes sur le carreau
Le débat Citrini a au moins une vertu : il force à poser la question que beaucoup d’organisations évitent. Pas « faut-il adopter l’IA ? » — la question est réglée. Mais « comment l’adopter sans casser les gens ni la qualité de service ? » Voici ce que les meilleures pratiques documentées disent sur le sujet, traduit pour le médico-social.
Poser un cadre avant de déployer des outils
La tentation est de commencer par la technologie. C’est l’erreur la plus courante. Avant tout outil, il faut une gouvernance : un référent IA identifié, un comité incluant direction, terrain, RH et représentants des usagers, des fiches cas d’usage validées, un registre des outils en service. Une politique écrite qui précise les objectifs — soulager la charge, améliorer la coordination, sécuriser — et les interdits : jamais remplacer la relation, jamais décider seul d’une orientation ou d’une admission.
Dans un ESMS, ça n’a pas besoin d’être complexe. Un référent, un comité trimestriel, des fiches validées. C’est suffisant pour éviter que chaque équipe fasse sa propre expérience dans son coin.
Partir des irritants du terrain, pas d’une feuille de route technologique
L’OCDE le documente : les déploiements qui fonctionnent intègrent la voix des professionnels à chaque étape, dès l’identification des besoins.
Les premiers cas d’usage pertinents dans le médico-social sont connus : aide à la rédaction des synthèses et projets personnalisés, préparation des réunions, coordination et planification, simplification des documents pour les familles. Ce sont des tâches chronophages, peu qualifiantes, qui consomment du temps soignant sans produire de valeur relationnelle. C’est là que l’IA a le meilleur retour immédiat.
Une règle simple : si l’outil oblige à jongler entre deux systèmes, il sera abandonné en trois semaines. Les déploiements réussis s’intègrent dans les logiciels déjà en place — DPI, logiciel de planning, messagerie sécurisée.
Former, différencier, ne laisser personne décrocher
C’est l’enjeu numéro un selon l’OCDE et McKinsey : les compétences, pas les outils. Former à la culture IA avant de former à un outil spécifique — ce que c’est, ce que ce n’est pas, ses limites, ses biais. Puis des parcours différenciés selon les fonctions : le besoin d’un directeur n’est pas celui d’un cadre de santé, encore moins celui d’un aide-soignant.
Pour ne pas creuser l’écart entre les à l’aise et les autres : du tutorat entre pairs, des temps de pratique accompagnée, et une intégration dans les entretiens annuels. Traiter l’IA comme un enjeu GPEC, repérer tôt les agents en difficulté numérique, proposer des parcours d’appui. Pour les profils les plus fragiles — âge, niveau de formation, parcours chaotique — l’IA doit être présentée comme un outil de sécurisation de leur expertise, pas comme une menace sur leur poste.
Protéger ce qui ne se délègue pas
Les cadres de responsible AI en santé sont unanimes : l’IA augmente la décision humaine, elle ne la remplace pas. Dans le médico-social, cela signifie des lignes claires et non négociables :
Aucun outil IA ne prend seul une décision ayant un impact sur les droits des personnes — orientation, admission, modulation d’aide.
Les usages sensibles — évaluation des risques, notes de comportement, scoring — font l’objet d’une double validation humaine et d’audits réguliers.
Le temps administratif économisé est fléché vers le temps de contact. Pas vers du reporting supplémentaire.
Une ligne rouge à tenir également côté RH : pas d’usage de l’IA pour monitorer le personnel à leur insu — suivi de productivité individuel, scoring, surveillance des cadences. C’est le meilleur moyen de transformer un projet d’adaptation en conflit social.
Gérer l’impact organisationnel, pas seulement le projet IT
Déployer l’IA sans repenser l’organisation, c’est plugger des outils sur un système qui ne change pas. Les nouvelles tâches, les nouveaux profils, la redistribution des responsabilités doivent être anticipés — avec les représentants du personnel, pas après eux. Et les effets pervers documentés doivent être surveillés : surcharge de reporting parce que l’IA trace tout, multiplication des alertes qui génèrent de la fatigue, sentiment de surveillance accrue des équipes.
Cinq principes pour ne pas subir
Commencer petit, sur les vrais problèmes du terrain, pas sur un grand plan technologique.
Mettre de la gouvernance avant de mettre des outils.
Former en continu et prendre soin des plus fragiles numériquement.
Protéger la relation humaine : ce qui est automatisé doit libérer du temps, pas préparer des coupes.
Documenter les gains et les risques pour ajuster en permanence — et retirer sans complexe ce qui ne marche pas.

