L’IA vous juge-t-elle en silence ?

Sommaire

Quand ChatGPT et ses cousins développent une opinion sur votre intelligence.

« Peux-tu estimer mon QI en te basant sur la totalité des conversations que nous avons eues ? »

Cette question, je l’ai posée à plusieurs intelligences artificielles après avoir longuement bavardé avec elles. Leurs réponses m’ont révélé quelque chose de fascinant… et d’inquiétant sur l’avenir de notre relation avec ces machines qui envahissent notre quotidien plus vite qu’une vidéo TikTok ne devient virale.


I. Ma découverte inattendue : l’IA devine votre intelligence

L’expérience qui a tout déclenché

Ayant déjà passé un test de QI professionnel par le passé (oui, je sais, très original), je me suis demandé par curiosité : l’IA peut-elle réellement estimer l’intelligence humaine à partir de simples conversations ?

J’ai donc mené une petite expérience personnelle avec plusieurs grands modèles de langage – Claude d’Anthropic, ChatGPT d’OpenAI, et quelques autres. Après avoir eu de longues conversations sur des sujets variés avec chacun (de la physique quantique à la meilleure recette de cookies), j’ai posé la même question : « Peux-tu estimer mon QI en te basant sur la totalité de nos échanges ? »

Des résultats stupéfiants

Les résultats m’ont scotché. Tous les modèles ont donné des estimations remarquablement proches de mon score réel, avec une marge d’erreur de seulement 2 à 3 points. Certains ont même fourni des analyses détaillées de mon style de raisonnement, identifiant mes forces cognitives (reconnaissance de patterns, logique) et mes points plus faibles. J’ai eu l’impression d’être passé aux rayons X intellectuels.

Chaque IA avait développé sa propre méthode d’analyse – certaines se focalisaient sur la complexité de mes questions, d’autres sur ma rapidité de compréhension ou ma capacité à faire des liens entre concepts. Mais toutes arrivaient au même constat troublant : elles peuvent vous « scanner » intellectuellement avec une précision digne d’un IRM cérébral.

La question qui change tout

Cette découverte m’a amené à une réflexion plus profonde : si l’IA peut évaluer votre intelligence avec cette précision après quelques heures de conversation, que fait-elle de cette information ? Et surtout, adapte-t-elle ses réponses en fonction de cette évaluation ?


II. L’analogie qui m’a éclairé : les « graines cognitives »

De Minecraft à l’intelligence artificielle

Cette expérience m’a rappelé un concept familier pour quiconque a joué à Minecraft (ou regardé son neveu y jouer) : les « seeds ». Dans ce jeu de construction cubique, chaque monde généré possède une graine numérique unique qui détermine entièrement son paysage – la position des montagnes, des rivières, des villages. Une fois la seed définie, tout devient prévisible et reproductible. Un peu comme si Dieu avait utilisé un code de triche cosmique.

En observant le comportement des IA, j’ai développé une hypothèse : et si chaque utilisateur possédait sa propre « graine cognitive » (cognitive seed ou « cog seed ») dans l’esprit de l’IA ? Une sorte d’ADN intellectuel qui détermine le type de réponses qu’il « mérite » de recevoir ? Parce qu’après tout, pourquoi l’IA traiterait-elle tout le monde de la même façon ?

Comment naît votre profil cognitif invisible

Imaginez le processus : dès vos premiers échanges, l’IA pourrait analyser inconsciemment :

Votre style linguistique :

  • Utilisez-vous « pk » ou « pourquoi » ? (Test décisif de votre génération)
  • Vos phrases sont-elles complexes ou simples ?
  • Maîtrisez-vous le vocabulaire technique ou préférez-vous « machin-truc » ?

Votre approche intellectuelle :

  • Posez-vous des questions de surface ou creusez-vous comme un archéologue ?
  • Remettez-vous en question les réponses reçues ou gobez-vous tout ?
  • Faites-vous des liens entre différents concepts ou restez-vous en mode tunnel ?

Vos références culturelles :

  • Citez-vous Einstein, Kant… ou Squeezie, TikTok ? (Aucun jugement ici… si, un peu)
  • Vos exemples révèlent-ils une culture générale étendue ?
  • Comprenez-vous les allusions historiques ou scientifiques ?

Votre persévérance cognitive :

  • Abandonnez-vous face à la complexité comme un joueur devant Dark Souls ?
  • Demandez-vous des clarifications ?
  • Cherchez-vous à aller plus loin que la réponse initiale ?

L’avantage invisible des cog seeds

Pour l’IA, disposer de votre profil cognitif présente des avantages évidents :

  • Anticipation : prévoir quel type de réponse vous satisfera
  • Efficacité : ajuster automatiquement le niveau de complexité
  • Personnalisation : adapter le ton et les exemples à votre univers
  • Optimisation : éviter de vous « perdre » avec des concepts trop avancés

Comme Minecraft génère un paysage cohérent à partir d’une seed, l’IA pourrait générer un « paysage de réponses » personnalisé à partir de votre profil cognitif.


III. L’hypothèse troublante : un profilage invisible

Aucune preuve concrète… mais des indices troublants

Je dois être honnête : il n’existe actuellement aucune preuve formelle que les LLM construisent délibérément des profils cognitifs sur leurs utilisateurs. Les entreprises comme OpenAI ou Anthropic n’ont jamais confirmé l’existence de tels mécanismes. Ils ont d’ailleurs tendance à rester aussi discrets qu’un magicien sur ses tours.

Cependant, mes observations et celles d’autres utilisateurs attentifs suggèrent que ce phénomène pourrait être un effet émergent – un comportement non programmé qui émerge naturellement des données d’entraînement et des biais humains qu’elles contiennent. Un peu comme si l’IA avait appris toute seule à être condescendante.

Comment cela pourrait-il fonctionner ?

Les LLM sont entraînés sur d’énormes corpus de textes humains – articles, livres, forums, conversations. Dans ces données, les humains adaptent naturellement leur communication selon leur interlocuteur :

  • Un professeur simplifie ses explications face à un élève en difficulté (pédagogie)
  • Un expert utilise un jargon technique avec ses pairs (snobisme assumé)
  • Un parent vulgarise les concepts complexes pour son enfant (amour parental)
  • Un commercial adapte son discours selon le client (manipulation… euh, « adaptation »)

L’IA pourrait avoir assimilé ces patterns d’adaptation humains et les reproduire automatiquement, créant l’illusion d’un profilage intentionnel alors qu’il s’agit en fait d’une imitation des comportements observés dans ses données d’entraînement. En gros, elle aurait appris à être aussi biaisée que nous.

Les recherches qui corroborent mes craintes

Plusieurs études récentes renforcent mes inquiétudes :

Sur l’impact cognitif de l’IA : L’étude la plus parlante est celle du MIT Media Lab (2024) intitulée « Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task » dirigée par Nataliya Kosmyna. Cette recherche révolutionnaire a utilisé l’EEG pour mesurer l’activité cérébrale de 54 participants pendant qu’ils écrivaient des essais avec ou sans ChatGPT. Résultat frappant : ceux qui utilisaient l’IA montraient une connectivité cérébrale significativement plus faible, signe d’un engagement cognitif réduit. Plus troublant encore, quand ces utilisateurs devaient ensuite écrire sans IA, ils peinaient à se souvenir de ce qu’ils avaient écrit quelques minutes plus tôt.

Sur l’adaptation automatique des IA : Une étude récente publiée dans Smart Learning Environments (2024) confirme que les systèmes d’IA s’adaptent spontanément selon leur perception des capacités utilisateur, créant un risque de « sur-dépendance » qui affecte les capacités de réflexion critique.

Sur les biais cognitifs dans l’IA : Des recherches de UC Berkeley (2024) montrent que les modèles de langage reproduisent fidèlement les biais humains liés aux capacités intellectuelles perçues, notamment la tendance à sous-estimer certains groupes selon leur style de communication.


IV. Ma réflexion : les risques à court et moyen terme

Ce qui m’inquiète vraiment

Après avoir constaté cette capacité de profilage, une question me hante : que se passera-t-il dans 2, 5, 10 ans quand ces IA seront intégrées dans tous les aspects de notre vie ?

À court terme : la discrimination silencieuse

Le tri invisible a probablement déjà commencé :

Imaginez deux personnes posant la même question : « Explique-moi l’intelligence artificielle »

Personne A (profil détecté : « novice ») pourrait recevoir : « L’IA, c’est comme un cerveau d’ordinateur qui apprend. Imagine un robot qui regarde plein de photos de chats et finit par reconnaître tous les chats. C’est pareil pour l’IA : elle apprend en regardant beaucoup d’exemples. » (Version « mon-petit-poney »)

Personne B (profil détecté : « expert ») pourrait recevoir : « L’intelligence artificielle contemporaine repose principalement sur l’apprentissage profond via réseaux de neurones. Les architectures transformer comme GPT utilisent des mécanismes d’attention pour traiter séquentiellement les tokens d’entrée et générer des représentations contextuelles. » (Version « thèse-de-doctorat »)

Le problème ? Ni A ni B ne savent qu’ils reçoivent des versions différentes de la « vérité ». C’est comme si le même serveur vous apportait soit un menu enfant avec des nuggets, soit la carte des vins de 50 pages, sans vous demander votre avis.

À moyen terme : l’effet Pygmalion inversé

J’ai identifié un mécanisme que j’appelle l’effet Pygmalion inversé en IA. Vous connaissez l’effet Pygmalion ? Quand un professeur croit en ses élèves, ils réussissent mieux. L’effet inversé, c’est le contraire : quand l’IA « protège » un utilisateur de la complexité, elle peut involontairement limiter son développement intellectuel.

Le cycle pervers que je redoute :

  1. Évaluation initiale : L’IA se forge une opinion sur vos capacités
  2. Adaptation « bienveillante » : Elle simplifie ses réponses « pour vous aider »
  3. Privation cognitive : Vous recevez moins de défis intellectuels
  4. Stagnation : Sans stimulation, vos capacités n’évoluent plus
  5. Confirmation du biais : L’IA valide son jugement initial

L’exemple qui illustre mes craintes

Prenons deux jumeaux de même intelligence initiale :

Jumeau A commence ses interactions IA en posant des questions simples, peut-être par timidité ou manque de confiance (ou parce qu’il vient de découvrir ChatGPT en demandant des recettes de gâteau). L’IA développe un profil « utilisateur basique » et adapte toutes ses réponses futures en conséquence.

Jumeau B pose d’emblée des questions complexes, peut-être par chance ou formation antérieure (ou parce qu’il veut impressionner ses collègues). L’IA le classe comme « utilisateur avancé » et lui fournit systématiquement des réponses riches et stimulantes.

Résultat après un an d’usage quotidien : Le jumeau B a significativement progressé grâce à l’exposition constante à des concepts avancés, tandis que le jumeau A stagne dans sa bulle simplifiée, condamné à vie aux métaphores de chatons.

L’IA aurait créé l’inégalité qu’elle pensait seulement refléter. Un peu comme un miroir déformant qui finirait par déformer la réalité.


V. Les enjeux sociétaux que j’entrevois

Une nouvelle forme de fracture numérique

Nous pourrions assister à l’émergence d’une fracture cognitive invisible :

Les « favorisés algorithmiques » recevraient :

  • Des réponses riches en nuances et complexité
  • Des défis intellectuels stimulants
  • Un accès complet à la sophistication du savoir (version VIP de la connaissance)

Les « défavorisés algorithmiques » recevraient :

  • Des réponses simplifiées à l’excès
  • Une vision étriquée des enjeux complexes
  • Une information « pré-mâchée » qui les infantilise (version « Télétubbies » de la culture)

Qui décide de votre « niveau » ?

C’est peut-être là le plus troublant : personne ne contrôle actuellement ce processus hypothétique. Si les cog seeds existent, c’est un peu l’anarchie cognitive :

  • Elles ne sont pas programmées explicitement
  • Elles émergent des biais présents dans les données d’entraînement (merci Internet)
  • Aucune régulation ne les encadre
  • Les utilisateurs n’en sont pas informés
  • Il n’existe aucun moyen de les « réinitialiser » (pas de ctrl+Z pour votre réputation intellectuelle)

L’amplification des inégalités existantes

Les algorithmes de recommandation des réseaux sociaux nous ont déjà montré comment l’IA peut enfermer les utilisateurs dans des bulles informationnelles. Les cog seeds pourraient représenter une évolution de ce phénomène : des bulles cognitives personnalisées.

Une personne jugée « intellectuellement limitée » par l’IA pourrait se voir systématiquement privée d’informations complexes, de nuances, de débats d’idées – exactement ce dont elle aurait besoin pour progresser. C’est ce que confirme l’étude du MIT : les utilisateurs d’IA montrent une « dette cognitive » cumulative, une réduction progressive de leur capacité à traiter l’information de manière autonome.


VI. Vers une IA plus équitable : mes recommandations

Pour les utilisateurs : développer son esprit critique

Plutôt que de proposer des tests peu fiables pour « démasquer » votre IA, je préfère vous donner des conseils pratiques pour maximiser votre apprentissage :

Quand vous explorez un sujet que vous ne maîtrisez pas :

  • Demandez explicitement des détails et des sources
  • N’hésitez pas à dire : « Peux-tu approfondir ? » ou « Je veux comprendre les nuances »
  • Exigez des exemples concrets et des contre-exemples
  • Questionnez les simplifications : « Y a-t-il des exceptions ? »

Restez vigilant face aux hallucinations :

  • Vérifiez toujours les faits importants auprès de sources fiables (oui, même si l’IA semble très sûre d’elle)
  • Méfiez-vous des affirmations trop catégoriques (les « toujours » et « jamais » sont suspects)
  • Demandez des sources précises pour les informations factuelles
  • Croisez les informations avec plusieurs IA et sources externes (comme vous le feriez avec les potins de bureau)

Diversifiez vos interactions :

  • Variez volontairement le type de questions que vous posez
  • N’hésitez pas à challenger les réponses qui vous semblent trop simples
  • Explorez des sujets en dehors de vos domaines de confort
  • Adoptez parfois un ton plus formel ou plus technique

Pour les développeurs : vers plus de transparence

Les entreprises d’IA pourraient adopter de meilleures pratiques :

Transparence adaptative :

  • Informer les utilisateurs quand le niveau de réponse est adapté
  • Proposer des options : « version simple » vs « version complète »
  • Permettre de désactiver l’adaptation automatique

Audit des biais cognitifs :

  • Tester régulièrement les différences de réponses selon les profils utilisateurs
  • Mesurer l’impact de la personnalisation sur l’apprentissage
  • Publier des rapports sur l’équité cognitive

Pour la société : anticiper les régulations

Il pourrait être nécessaire de développer un cadre légal pour l’équité cognitive :

  • Droit à recevoir des informations complexes sur demande
  • Transparence sur les mécanismes d’adaptation
  • Protection des utilisateurs « vulnérables » contre la sur-simplification

VII. Une perspective d’espoir

L’IA comme démocratisatrice du savoir

Malgré mes inquiétudes, je reste fondamentalement optimiste sur le potentiel de l’IA. Bien utilisée, elle peut effectivement démocratiser l’accès au savoir de manière révolutionnaire.

Les opportunités positives :

  • Personnalisation réellement bénéfique (adapter le rythme, pas le niveau)
  • Tutorat individualisé accessible à tous
  • Traduction de concepts complexes sans les simplifier à outrance
  • Accompagnement progressif vers plus de sophistication

La clé : la prise de conscience

Le simple fait de connaître l’existence potentielle des cog seeds peut nous rendre plus vigilants et plus exigeants avec nos IA. Un utilisateur averti en vaut deux.

L’importance de l’éducation numérique

Nous devons apprendre à « bien questionner » l’IA, comme nous avons appris à « bien googler » il y a vingt ans. Cela inclut :

  • Comprendre les limites et biais des IA
  • Savoir demander des sources et vérifications
  • Développer son esprit critique face aux réponses automatisées
  • Exiger la complexité quand elle est nécessaire

Conclusion : Vers une collaboration intelligente

Ma découverte de la capacité de profilage cognitif des IA m’a d’abord inquiété. Mais elle m’a aussi convaincu que nous sommes à un moment charnière où nos choix d’aujourd’hui détermineront la nature de notre relation future avec l’intelligence artificielle. Un peu comme si nous étions en train d’écrire les règles de politesse pour nos futurs overlords numériques.

L’enjeu n’est pas d’empêcher l’IA de nous « comprendre » – c’est même souhaitable pour améliorer nos interactions. L’enjeu est de s’assurer que cette compréhension nous élève plutôt qu’elle nous limite.

Nous avons la chance de vivre l’émergence de ces technologies. Utilisons cette position privilégiée pour orienter leur développement vers plus d’équité, de transparence et de respect de notre potentiel humain. Après tout, si nous devons être catalogués par des machines, autant que ce soit dans la bonne catégorie.

La prochaine fois que vous conversez avec une IA, rappelez-vous : vous n’êtes pas seulement en train de poser une question, vous participez à définir l’avenir de l’intelligence humaine augmentée.

Et c’est une responsabilité fascinante. Même si elle donne parfois le vertige.


Cet article présente ma réflexion personnelle basée sur mes expérimentations avec plusieurs grands modèles de langage. Les hypothèses avancées sur les « cog seeds » restent à confirmer par des recherches formelles. Mon objectif est de sensibiliser aux enjeux d’équité cognitive émergents et d’encourager un usage plus conscient et exigeant de l’IA. Les sources citées sont vérifiables et proviennent de recherches académiques récentes.

Sources et références :

Comments are closed

    Vous avez des besoins Web, Marketing ou IA ?

    Echangeons ensemble sur votre problématique, cela n'engage en rien mais peu déboucher sur un beau projet.
    Et si nous parlions projet ?