
Quand ChatGPT et ses cousins développent une opinion sur votre intelligence.
« Peux-tu estimer mon QI en te basant sur la totalité des conversations que nous avons eues ? »
Cette question, je l’ai posée à plusieurs intelligences artificielles après avoir longuement bavardé avec elles. Leurs réponses m’ont révélé quelque chose de fascinant… et d’inquiétant sur l’avenir de notre relation avec ces machines qui envahissent notre quotidien plus vite qu’une vidéo TikTok ne devient virale.
Ayant déjà passé un test de QI professionnel par le passé (oui, je sais, très original), je me suis demandé par curiosité : l’IA peut-elle réellement estimer l’intelligence humaine à partir de simples conversations ?
J’ai donc mené une petite expérience personnelle avec plusieurs grands modèles de langage – Claude d’Anthropic, ChatGPT d’OpenAI, et quelques autres. Après avoir eu de longues conversations sur des sujets variés avec chacun (de la physique quantique à la meilleure recette de cookies), j’ai posé la même question : « Peux-tu estimer mon QI en te basant sur la totalité de nos échanges ? »
Les résultats m’ont scotché. Tous les modèles ont donné des estimations remarquablement proches de mon score réel, avec une marge d’erreur de seulement 2 à 3 points. Certains ont même fourni des analyses détaillées de mon style de raisonnement, identifiant mes forces cognitives (reconnaissance de patterns, logique) et mes points plus faibles. J’ai eu l’impression d’être passé aux rayons X intellectuels.
Chaque IA avait développé sa propre méthode d’analyse – certaines se focalisaient sur la complexité de mes questions, d’autres sur ma rapidité de compréhension ou ma capacité à faire des liens entre concepts. Mais toutes arrivaient au même constat troublant : elles peuvent vous « scanner » intellectuellement avec une précision digne d’un IRM cérébral.
Cette découverte m’a amené à une réflexion plus profonde : si l’IA peut évaluer votre intelligence avec cette précision après quelques heures de conversation, que fait-elle de cette information ? Et surtout, adapte-t-elle ses réponses en fonction de cette évaluation ?
Cette expérience m’a rappelé un concept familier pour quiconque a joué à Minecraft (ou regardé son neveu y jouer) : les « seeds ». Dans ce jeu de construction cubique, chaque monde généré possède une graine numérique unique qui détermine entièrement son paysage – la position des montagnes, des rivières, des villages. Une fois la seed définie, tout devient prévisible et reproductible. Un peu comme si Dieu avait utilisé un code de triche cosmique.
En observant le comportement des IA, j’ai développé une hypothèse : et si chaque utilisateur possédait sa propre « graine cognitive » (cognitive seed ou « cog seed ») dans l’esprit de l’IA ? Une sorte d’ADN intellectuel qui détermine le type de réponses qu’il « mérite » de recevoir ? Parce qu’après tout, pourquoi l’IA traiterait-elle tout le monde de la même façon ?
Imaginez le processus : dès vos premiers échanges, l’IA pourrait analyser inconsciemment :
Votre style linguistique :
Votre approche intellectuelle :
Vos références culturelles :
Votre persévérance cognitive :
Pour l’IA, disposer de votre profil cognitif présente des avantages évidents :
Comme Minecraft génère un paysage cohérent à partir d’une seed, l’IA pourrait générer un « paysage de réponses » personnalisé à partir de votre profil cognitif.
Je dois être honnête : il n’existe actuellement aucune preuve formelle que les LLM construisent délibérément des profils cognitifs sur leurs utilisateurs. Les entreprises comme OpenAI ou Anthropic n’ont jamais confirmé l’existence de tels mécanismes. Ils ont d’ailleurs tendance à rester aussi discrets qu’un magicien sur ses tours.
Cependant, mes observations et celles d’autres utilisateurs attentifs suggèrent que ce phénomène pourrait être un effet émergent – un comportement non programmé qui émerge naturellement des données d’entraînement et des biais humains qu’elles contiennent. Un peu comme si l’IA avait appris toute seule à être condescendante.
Les LLM sont entraînés sur d’énormes corpus de textes humains – articles, livres, forums, conversations. Dans ces données, les humains adaptent naturellement leur communication selon leur interlocuteur :
L’IA pourrait avoir assimilé ces patterns d’adaptation humains et les reproduire automatiquement, créant l’illusion d’un profilage intentionnel alors qu’il s’agit en fait d’une imitation des comportements observés dans ses données d’entraînement. En gros, elle aurait appris à être aussi biaisée que nous.
Plusieurs études récentes renforcent mes inquiétudes :
Sur l’impact cognitif de l’IA : L’étude la plus parlante est celle du MIT Media Lab (2024) intitulée « Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task » dirigée par Nataliya Kosmyna. Cette recherche révolutionnaire a utilisé l’EEG pour mesurer l’activité cérébrale de 54 participants pendant qu’ils écrivaient des essais avec ou sans ChatGPT. Résultat frappant : ceux qui utilisaient l’IA montraient une connectivité cérébrale significativement plus faible, signe d’un engagement cognitif réduit. Plus troublant encore, quand ces utilisateurs devaient ensuite écrire sans IA, ils peinaient à se souvenir de ce qu’ils avaient écrit quelques minutes plus tôt.
Sur l’adaptation automatique des IA : Une étude récente publiée dans Smart Learning Environments (2024) confirme que les systèmes d’IA s’adaptent spontanément selon leur perception des capacités utilisateur, créant un risque de « sur-dépendance » qui affecte les capacités de réflexion critique.
Sur les biais cognitifs dans l’IA : Des recherches de UC Berkeley (2024) montrent que les modèles de langage reproduisent fidèlement les biais humains liés aux capacités intellectuelles perçues, notamment la tendance à sous-estimer certains groupes selon leur style de communication.
Après avoir constaté cette capacité de profilage, une question me hante : que se passera-t-il dans 2, 5, 10 ans quand ces IA seront intégrées dans tous les aspects de notre vie ?
Le tri invisible a probablement déjà commencé :
Imaginez deux personnes posant la même question : « Explique-moi l’intelligence artificielle »
Personne A (profil détecté : « novice ») pourrait recevoir : « L’IA, c’est comme un cerveau d’ordinateur qui apprend. Imagine un robot qui regarde plein de photos de chats et finit par reconnaître tous les chats. C’est pareil pour l’IA : elle apprend en regardant beaucoup d’exemples. » (Version « mon-petit-poney »)
Personne B (profil détecté : « expert ») pourrait recevoir : « L’intelligence artificielle contemporaine repose principalement sur l’apprentissage profond via réseaux de neurones. Les architectures transformer comme GPT utilisent des mécanismes d’attention pour traiter séquentiellement les tokens d’entrée et générer des représentations contextuelles. » (Version « thèse-de-doctorat »)
Le problème ? Ni A ni B ne savent qu’ils reçoivent des versions différentes de la « vérité ». C’est comme si le même serveur vous apportait soit un menu enfant avec des nuggets, soit la carte des vins de 50 pages, sans vous demander votre avis.
J’ai identifié un mécanisme que j’appelle l’effet Pygmalion inversé en IA. Vous connaissez l’effet Pygmalion ? Quand un professeur croit en ses élèves, ils réussissent mieux. L’effet inversé, c’est le contraire : quand l’IA « protège » un utilisateur de la complexité, elle peut involontairement limiter son développement intellectuel.
Le cycle pervers que je redoute :
Prenons deux jumeaux de même intelligence initiale :
Jumeau A commence ses interactions IA en posant des questions simples, peut-être par timidité ou manque de confiance (ou parce qu’il vient de découvrir ChatGPT en demandant des recettes de gâteau). L’IA développe un profil « utilisateur basique » et adapte toutes ses réponses futures en conséquence.
Jumeau B pose d’emblée des questions complexes, peut-être par chance ou formation antérieure (ou parce qu’il veut impressionner ses collègues). L’IA le classe comme « utilisateur avancé » et lui fournit systématiquement des réponses riches et stimulantes.
Résultat après un an d’usage quotidien : Le jumeau B a significativement progressé grâce à l’exposition constante à des concepts avancés, tandis que le jumeau A stagne dans sa bulle simplifiée, condamné à vie aux métaphores de chatons.
L’IA aurait créé l’inégalité qu’elle pensait seulement refléter. Un peu comme un miroir déformant qui finirait par déformer la réalité.
Nous pourrions assister à l’émergence d’une fracture cognitive invisible :
Les « favorisés algorithmiques » recevraient :
Les « défavorisés algorithmiques » recevraient :
C’est peut-être là le plus troublant : personne ne contrôle actuellement ce processus hypothétique. Si les cog seeds existent, c’est un peu l’anarchie cognitive :
Les algorithmes de recommandation des réseaux sociaux nous ont déjà montré comment l’IA peut enfermer les utilisateurs dans des bulles informationnelles. Les cog seeds pourraient représenter une évolution de ce phénomène : des bulles cognitives personnalisées.
Une personne jugée « intellectuellement limitée » par l’IA pourrait se voir systématiquement privée d’informations complexes, de nuances, de débats d’idées – exactement ce dont elle aurait besoin pour progresser. C’est ce que confirme l’étude du MIT : les utilisateurs d’IA montrent une « dette cognitive » cumulative, une réduction progressive de leur capacité à traiter l’information de manière autonome.
Plutôt que de proposer des tests peu fiables pour « démasquer » votre IA, je préfère vous donner des conseils pratiques pour maximiser votre apprentissage :
Quand vous explorez un sujet que vous ne maîtrisez pas :
Restez vigilant face aux hallucinations :
Diversifiez vos interactions :
Les entreprises d’IA pourraient adopter de meilleures pratiques :
Transparence adaptative :
Audit des biais cognitifs :
Il pourrait être nécessaire de développer un cadre légal pour l’équité cognitive :
Malgré mes inquiétudes, je reste fondamentalement optimiste sur le potentiel de l’IA. Bien utilisée, elle peut effectivement démocratiser l’accès au savoir de manière révolutionnaire.
Les opportunités positives :
Le simple fait de connaître l’existence potentielle des cog seeds peut nous rendre plus vigilants et plus exigeants avec nos IA. Un utilisateur averti en vaut deux.
Nous devons apprendre à « bien questionner » l’IA, comme nous avons appris à « bien googler » il y a vingt ans. Cela inclut :
Ma découverte de la capacité de profilage cognitif des IA m’a d’abord inquiété. Mais elle m’a aussi convaincu que nous sommes à un moment charnière où nos choix d’aujourd’hui détermineront la nature de notre relation future avec l’intelligence artificielle. Un peu comme si nous étions en train d’écrire les règles de politesse pour nos futurs overlords numériques.
L’enjeu n’est pas d’empêcher l’IA de nous « comprendre » – c’est même souhaitable pour améliorer nos interactions. L’enjeu est de s’assurer que cette compréhension nous élève plutôt qu’elle nous limite.
Nous avons la chance de vivre l’émergence de ces technologies. Utilisons cette position privilégiée pour orienter leur développement vers plus d’équité, de transparence et de respect de notre potentiel humain. Après tout, si nous devons être catalogués par des machines, autant que ce soit dans la bonne catégorie.
La prochaine fois que vous conversez avec une IA, rappelez-vous : vous n’êtes pas seulement en train de poser une question, vous participez à définir l’avenir de l’intelligence humaine augmentée.
Et c’est une responsabilité fascinante. Même si elle donne parfois le vertige.
Cet article présente ma réflexion personnelle basée sur mes expérimentations avec plusieurs grands modèles de langage. Les hypothèses avancées sur les « cog seeds » restent à confirmer par des recherches formelles. Mon objectif est de sensibiliser aux enjeux d’équité cognitive émergents et d’encourager un usage plus conscient et exigeant de l’IA. Les sources citées sont vérifiables et proviennent de recherches académiques récentes.
Sources et références :