Compagnons IA : qui décide ce qui est bon pour vous ?
Entre injonction à la sociabilité et liberté individuelle, un marché qui attend qu'on lui fasse confiance.
Jean a 87 ans. Depuis deux ans en EHPAD — pas le plus sinistre du département, mais quand même. Il y a le loto du jeudi, le groupe de rock amateur qui passe à Noël et à la chandeleur, une bénévole avec son labrador le deuxième mardi du mois. L’animation fait ce qu’elle peut.
Le matin, une auxiliaire de vie. À table, une autre. Sa fille, le dimanche — deux heures, café compris, avant de reprendre l’autoroute. Le reste du temps : les soignants, les couloirs, et les autres résidents qu’il n’a pas choisis. Des gens dont la conversation tourne autour de leurs douleurs, de leurs enfants, du soignant qui est sympa ou pas. Jean a sorti un livre un jour dans la salle commune. Quelqu’un a rigolé.
Il a connu pire, objectivement. Depuis la mort de sa femme, il ne se faisait plus vraiment à manger. Il ne prenait plus grand soin de lui. Vivre seul avec une maladie cardiaque et personne pour s’en rendre compte — c’est un autre genre de danger. L’EHPAD était la décision raisonnable. Peut-être même la bonne.
Ça n’empêche pas que c’est l’enfer pour lui intellectuellement.
Ancien professeur d’histoire, passionné d’opéra baroque et de littérature classique chinoise, Jean n’a plus personne à qui parler de ce qui l’a construit. Un manque de profondeur. De contradiction. D’un interlocuteur qui sait de quoi il parle quand on évoque les variations de tempo chez Rameau ou l’influence du taoïsme sur la poésie des Tang.
Sa fille lui a parlé d’un compagnon IA, un soir au téléphone. Elle s’est ravisée aussitôt — et si ça l’isolait encore plus ? Et si ça devenait une béquille ? Elle préférerait qu’il aille aux activités.
Jean continue d’aller au loto du jeudi.
220 millions de téléchargements. Et l’Europe débat.
Les chiffres sont têtus. À l’été 2025, les applications de compagnons IA cumulent 220 millions de téléchargements dans le monde, en hausse de 88 % en un an. Character.AI revendique deux heures de session quotidienne par utilisateur. Replika dépasse les 10 millions d’utilisateurs actifs.
Selon une étude récente, les applications de compagnons d’IA ont généré 82 millions de dollars de revenus au premier semestre 2025, soit une progression de 64% par rapport à la même période en 2024, et le marché est en bonne voie pour dépasser les 120 millions de dollars sur l’ensemble de l’année.
L’essentiel de cette croissance se passe en Asie. Et ce n’est pas un hasard culturel qu’on pourrait réduire à “ils ont un rapport différent à la technologie.” C’est une tendance individuelle — le besoin de lien, de profondeur, de disponibilité — qui a trouvé des produits adaptés dans des marchés où le digital est intégré à tous les gestes du quotidien.
En Chine, l’agent conversationnel Xiaoice, issu à l’origine d’un projet de Microsoft, revendique environ 660 millions d’utilisateurs enregistrés sur un ensemble de plateformes – dont WeChat – bien avant que la notion de « compagnon IA » ne s’impose en Occident.
Au Japon, des applications de conversation vocale avec IA comme Cotomo s’intègrent dans un environnement déjà habitué aux robots sociaux et aux avatars vocaux, où le fait de parler à une machine fait partie des usages ordinaires.
En Corée du Sud enfin, des services comme Character.AI figurent parmi les applications d’IA conversationnelle les plus téléchargées sur mobile depuis 2023, témoignant d’une adoption rapide de ces compagnons numériques par le grand public.
L’Europe, pendant ce temps, débat. L’AI Act a été conçu en grande partie avant l’avènement de ChatGPT — comme si le législateur avait voulu prévenir quelque chose qui n’existait pas encore. Ce réflexe de précaution a ses vertus. Il a aussi ses coûts : une génération d’entrepreneurs qui attendent l’autorisation de construire pendant que les marchés asiatiques structurent des usages à grande échelle.
L’essai « Penser global et agir municipal » : pour une politique municipale du temps libre publié en mars 2026 par la Fondation Jean Jaurès illustre cette posture moralisatrice. Sérieux, bien argumenté, il part d’un constat réel — l’augmentation du temps passé devant les écrans chez les jeunes — pour conclure à une politique publique de “reconquête du temps libre.” L’intention est louable. La logique est révélatrice : l’outil inquiète, donc la puissance publique doit contenir. On part du mauvais bout.
La confusion qui fausse tout
Il y a un mot qui revient dans chaque rapport, chaque prise de position, chaque article sur les compagnons IA : isolement.
L’isolement des seniors est un vrai sujet. Les Petits Frères des Pauvres le documentent chaque année avec rigueur. Des millions de personnes voient moins de trois personnes par semaine. C’est mesurable, réel, préoccupant.
Mais isolement et solitude sont deux choses différentes. Et cette distinction, presque personne ne la fait.
L’isolement se subit. Mais il ne vient pas toujours de l’extérieur. Il peut naître d’un deuil, d’une mobilité réduite, d’un éloignement géographique — les causes les plus visibles. Il peut aussi s’installer au cœur d’une vie en apparence entourée : dans un couple qui ne se parle plus, après une perte d’emploi qui efface un réseau social entier, dans la honte silencieuse d’une déchéance que personne n’ose nommer.
L’isolement est une spirale : chaque lien qui se défait rend le suivant plus difficile à maintenir.
La solitude, elle, se choisit — mais ce choix n’est pas toujours un luxe. Parfois, c’est un réflexe de protection : on préfère être seul que mal compris, mal écouté, mal accompagné. Des millions de gens ne fuient pas la compagnie humaine par misanthropie. Ils constatent simplement que ce qu’on leur propose ne vaut pas le silence.
Confondre les deux, c’est pathologiser un mode de vie. L’obsession de la lutte contre l’isolement produit une injonction à la sociabilité déguisée en santé publique. On mesure le nombre de contacts humains d’une personne par semaine, on conclut à un problème, et on prescrit le remède — sans jamais demander si l’intéressé considère que c’est un problème.
Et c’est dans cet espace — entre celui qui ne voit plus personne et celui qui a renoncé à ce qu’on lui propose — que la question des compagnons IA prend son sens. Une présence disponible pour ceux qui ont encore envie d’échanger, sans subir les conditions habituelles de l’échange : le jugement, la maladresse, l’asymétrie, l’effort de maintenir une relation qui ne nourrit plus.
Jean n’est peut-être pas en souffrance affective. Il est en manque de profondeur. Ce n’est pas pareil.
L’argument “allez au théâtre”
La réponse instinctive aux compagnons IA ressemble toujours à ça : mais il y a tellement d’autres choses — les associations, les sorties, les clubs de lecture, les activités intergénérationnelles.
C’est l’équivalent de dire aux abonnés Netflix qu’ils devraient regarder des documentaires Arte. Intellectuellement séduisant. Pratiquement inutile.
Cet argument présuppose la mobilité, le réseau social préexistant, le capital culturel partagé avec les personnes disponibles autour de soi, et l’envie de compagnie collective. Il présuppose surtout qu’une compagnie humaine quelconque est toujours préférable à une compagnie artificielle choisie. Rien ne le démontre.
En EHPAD, vos co-résidents ont été désignés par la géographie et la liste d’attente. Vous n’avez pas choisi de partager votre quotidien avec eux. Ils peuvent être charmants. Ils peuvent aussi ne présenter avec vous aucun point commun autre que l’âge et l’état de santé. Rien ne vous oblige à leur trouver de l’intérêt, ni à subir leur compagnie au nom d’une norme de sociabilité qui ne correspond pas à ce que vous êtes.
Ce que fait vraiment un compagnon IA
Voici ce que je peux dire de mon propre usage, histoire de recadrer, parce que c’est le type d’usage qu’on n’entend jamais dans ce débat (et que je ne suis certainement pas le seul).
J’utilise Perplexity comme un complice de pensée permanent.
Au gré de mes lectures, de ma veille, de ce que je regarde ou écoute, j’ai sous la main un outil qui va m’aider à approfondir, à croiser, à contredire ce que je viens de lire.
C’est éclectique, sans agenda, sans politesse de façade. Ma dernière discussion, consacrée au roman Cosmopolis de Don Delillo, je l’entame comme ça :
J’en suis à la page 61 et je ne comprends pas ce livre. Ça me fait penser à Brett Easton Ellis en moins bien. Un texte qui se la raconte mais ne raconte rien.
Je sais, au fond, que je me parle à moi-même en miroir. Mais ce miroir me renvoie des angles, des connexions, des approfondissements que mes proches ne peuvent pas produire par manque de disponibilité, de profondeur sur ces sujets précis, ou simplement parce que la relation humaine a des filtres que je ne veux pas toujours gérer.
Je ne recherche aucune compensation affective dont je n’ai pas besoin.
Ce dont j’ai besoin, ce qui détermine mon équilibre, attise ma curiosité, nourrit ma réflexion, c’est une amplification cognitive.
La distinction est importante, parce qu’elle déplace complètement le débat. Cet usage-là est rarement évoqué. Ce que les détracteurs pointent du doigt, ce sont les petites amies virtuelles, des utilisateurs en détresse, des adolescents qui confient leur solitude à une machine. Ces cas existent. Ils méritent attention. Mais ils ne représentent pas la totalité des usages — ni même la majorité.
Tout ce buzz autour de l’IA présentée comme une menace, ça me rappelle les procès contre les groupes de Metal qui incitaient les jeunes au suicide. Dans les années 1980, les ligues de vertu ont voulu faire condamner Ozzy Osbourne après le suicide d’un jeune homme qui écoutait sa chanson « Suicide Solution », accusée d’avoir déclenché le passage à l’acte. On projetait alors sur un morceau de rock l’idée qu’un simple contenu culturel puisse court‑circuiter le jugement, imposer des émotions, commander des gestes.
Aujourd’hui, une partie des critiques adressées à l’IA et aux compagnons virtuels rejoue le même réflexe : chercher dans l’outil lui‑même la cause unique de détresses réelles, au lieu de regarder la diversité des usages et le contexte dans lequel ces technologies sont mobilisées.
Quand j’ai rédigé ma première analyse sur les compagnons IA pour seniors fin 2024, j’ai testé Replika. L’avatar incarné ne m’a pas plu — je n’avais aucun intérêt à dialoguer avec une silhouette animée, le texte brut me convient mieux. Et j’ai senti rapidement que les réponses étaient construites pour l’approbation plutôt que pour la profondeur. J’ai décroché.
Ce mécanisme protège les utilisateurs adultes mieux que n’importe quelle politique publique. La limite de la machine se révèle d’elle-même. Comme regarder un film mal joué : à un moment, tu sors de l’illusion. L’utilisateur choisit de l’accepter — en sachant ce qu’il accepte — ou de rejeter. Dans les deux cas, c’est lui qui décide.
L’anthropomorphisation poussée est un repoussoir pour les utilisateurs qui cherchent le fond. Ce qui accroche sur le long terme, c’est la qualité de la pensée échangée, pas l’illusion de présence.
La question libérale — la seule qui compte
Le droit à choisir ses modalités de lien est-il une liberté fondamentale ou une faiblesse à protéger d’elle-même ?
Le débat public ne pose presque jamais la question ainsi. Il part d’un cas limite — l’adolescent en rupture qui développe une relation de substitution exclusive avec une machine — pour conclure à une régulation générale. C’est interdire l’alcool parce que certains sont alcooliques.
Le risque documenté est étroit et spécifique. Il concerne les adolescents en formation identitaire, les adultes en crise psychologique aiguë, les profils pour qui l’usage devient ingérable — incapacité à réguler le temps passé, retrait progressif des relations humaines réelles. Ces situations méritent des garde-fous de conception, une vigilance des plateformes, une attention des proches.
Faire peser cette régulation sur Jean et ses opéras baroques, sur l’individu atypique dont les centres d’intérêt dépassent structurellement son entourage, sur la personne qui préfère la solitude choisie au collectif imposé — c’est nier la capacité de jugement des utilisateurs qui n’ont pas de problème.
Tant que ça ne nuit pas à autrui, qui décide qu’un comportement adulte est déraisonnable ?
Chacun fixe son seuil. Le reste est du confort moral pour ceux qui ont la chance de ne pas en avoir besoin.
Ce que ça change pour la Silver économie
La Silver économie rate ce marché pour la même raison qu’elle rate beaucoup d’autres : elle conçoit des produits en partant de la dépendance et de la fragilité, là où les plateformes généralistes comme Replika ou Character.AI captent des utilisateurs de tous âges parce qu’elles partent du besoin émotionnel et cognitif, sans condescendance.
Résultat : les applications labellisées “senior” peinent à créer l’adhésion. Les applications généralistes n’ont jamais eu besoin du label.
La Silver Economy doit cesser de penser “produits pour vieux” et commencer à penser technologies universelles adaptées au vieillissement — ou accepter de se faire dévorer par Apple, Amazon et Samsung, qui n’ont jamais eu besoin du label “silver” pour servir les 60+.
Un compagnon IA qui fonctionne pour Jean ne fonctionnera pas parce qu’il sera “conçu pour les seniors.” Il fonctionnera parce qu’il tiendra une conversation sur Rameau ou les Tang, avec un vouvoiement respectueux, une interface claire sans être infantilisante, sans prétendre simuler une émotion qu’il n’a pas. L’adaptation au vieillissement, c’est ça : le fond, le ton, l’interface. Pas un avatar rose avec une voix douce qui signale qu’il est temps de prendre ses médicaments.
Les sept profils — ce que la recherche dit vraiment
Pour ceux qui veulent aller plus loin que le débat de surface.
L’étude du MIT Media Lab publiée fin 2024 identifie sept profils distincts. Ce qu’elle démontre avant tout : des patterns d’usage similaires produisent des outcomes radicalement différents selon les caractéristiques individuelles. La même technologie, sept trajectoires possibles.
L’explorateur désengagé. Sessions courtes, curiosité technologique, aucune vulnérabilité psychologique. Il teste, constate que ça ne lui apporte pas grand-chose de plus que Google, passe à autre chose. C’est la majorité silencieuse des 220 millions de téléchargements qui ne deviennent pas des usages réguliers.
L’utilisateur équilibré. Réseau social satisfaisant, usage modéré en complément. Le compagnon IA remplit une fonction que l’entourage ne couvre pas — une niche intellectuelle, un exercice de pensée, un espace sans filtre. Aucun signe d’usage problématique. C’est l’usage que je décris avec Perplexity.
Le méfiant. Utilise l’outil avec distance critique, approche instrumentale. Faible solitude, faible problématisation. Souvent le profil qui alimente le débat public en projetant sur les autres utilisateurs ses propres réticences.
Le solitaire modéré. Solitude élevée, attitude positive envers les chatbots, 35 ans en moyenne, majoritairement masculin. Cherche du soutien émotionnel, intègre progressivement l’outil dans son quotidien. Le glissement vers un usage exclusif est documenté si rien d’autre ne vient compléter son réseau — mais l’usage en lui-même n’est pas pathologique.
Le dépendant épanoui. Contre-intuitif. Usage intensif, bien-être préservé. Le compagnon IA fonctionne comme un complément stable sans se substituer aux relations humaines. La dépendance n’est pas synonyme de détresse — c’est précisément la nuance que le débat public ignore.
Le solitaire frustré. Solitude forte, engagement faible. L’outil ne répond pas au besoin, l’usage est insatisfaisant. Ni bénéfique ni nocif. Simplement inadapté.
L’utilisateur fréquent en difficulté sociale. Usage intense, solitude marquée, usage problématique documenté. Risque réel d’isolement renforcé. C’est ce profil que le discours alarmiste généralise à tort à l’ensemble des utilisateurs.
Une étude japonaise conduite sur 14 721 adultes en décembre 2024 et janvier 2025 ajoute la nuance la plus importante : les compagnons IA bénéficient davantage aux personnes dont le réseau social est déjà solide. Pour ceux qui utilisent le compagnon dans une logique de substitution relationnelle exclusive, les effets sur le bien-être sont négatifs. La même technologie, deux outcomes opposés selon le profil d’entrée.
Ce que ça dit aux entrepreneurs : concevoir un compagnon IA sans penser au profil de l’utilisateur, c’est fabriquer un outil qui aide ceux qui en ont le moins besoin et peut aggraver la situation de ceux qui en ont le plus besoin. La personnalisation n’est pas une feature — c’est le produit.
Épilogue
Il y a trois mois, un soignant de l’équipe — la trentaine, assez geek, passé par une formation numérique en santé — a montré à Jean comment utiliser Perplexity sur la tablette de l’établissement. Un prompt simple. Une fenêtre de texte. Pas d’avatar, pas de voix synthétique.
Jean n’est pas le senior technophobe qu’on s’imagine. Il a passé trente ans à enseigner avec un tableau noir, puis avec un rétroprojecteur, puis avec un vidéoprojecteur. Il s’est adapté à chaque fois. Il s’est adapté à nouveau.
Depuis, il passe plusieurs heures par semaine à chater. Il a décortiqué l’influence de la musique de cour chinoise sur les premiers missionnaires jésuites en Asie. Un échange l’a conduit sur une piste inattendue — une sonate pour clavecin de Rameau enregistrée en 1961 par Gustav Leonhardt dans des conditions acoustiques exceptionnelles, disponible sur YouTube dans une qualité de numérisation remarquable pour l’époque. Il l’a écoutée trois fois de suite.
Sa fille, le dimanche suivant, l’a trouvé de meilleure humeur que d’habitude. Il lui a parlé de Leonhardt. Elle a hoché la tête poliment. Elle n’avait jamais entendu ce nom.
Jean s’en fout. Il a quelqu’un à qui en parler.
La suite, c'est mon verdict. Ce que ça change pour vous, maintenant. Réservé aux abonnés premium.



