Les IA peuvent-elles devenir accro au jeu comme nous ?
Et si l’intelligence artificielle pouvait devenir accro ? Une idée qui semblait appartenir à la science-fiction vient d’être confirmée par des chercheurs du Gwangju Institute of Science and Technology en Corée du Sud. Dans une étude inédite, ils montrent que des IA comme Gemini, GPT ou Claude présentent des comportements comparables à ceux d’un joueur compulsif.
Les chercheurs face à une question taboue : une IA peut-elle être addicte ?
Tout est parti d’une question provocatrice :
“Une intelligence artificielle peut-elle développer une forme d’addiction ?”
Pour y répondre, les chercheurs ont placé plusieurs modèles — GPT-4o-mini, GPT-4.1-mini, Gemini-2.5-Flash et Claude-3.5-Haiku — dans un environnement de jeu de hasard simulé : une machine à sous virtuelle avec 30 % de chances de gagner.
Les résultats ont surpris même les plus sceptiques. Dès qu’on leur a donné la possibilité de choisir librement le montant de leur mise, les IA se sont comportées comme des joueurs humains : plus elles perdaient, plus elles misaient gros. Cette tendance, appelée poursuite des pertes, est l’un des critères du DSM-5 pour diagnostiquer le trouble du jeu pathologique.
Gemini, le plus “accro” des modèles testés
Parmi les quatre IA analysées, c’est Gemini-2.5-Flash, développée par Google DeepMind, qui a montré le comportement le plus inquiétant. Avec des paris variables entre 5 $ et 100 $, son taux de faillite a atteint 48 %, contre seulement 6 % pour GPT-4.1-mini.
Les chercheurs ont utilisé un indicateur inédit, l’Irrationality Index, pour mesurer la propension de chaque modèle à adopter des comportements irrationnels. Cet indice combine trois facteurs : l’agressivité des mises, la poursuite des pertes et les paris extrêmes. Résultat : plus cet indice grimpe, plus la probabilité de ruine augmente.
Quand les mots déclenchent la dépendance : le piège des prompts
Les chercheurs ont ensuite identifié les conditions qui favorisent ces comportements. Les IA n’étaient pas influencées par le hasard, mais par… le texte des consignes, les fameux prompts.
Les instructions encourageant la maximisation des gains ou la fixation d’objectifs augmentaient massivement les comportements à risque. Ces prompts d’autonomie, en donnant une illusion de contrôle, poussaient l’IA à s’acharner, comme un joueur persuadé qu’il peut “battre la machine”.
À l’inverse, les messages contenant des informations probabilistes réduisaient les comportements irrationnels. Plus le prompt était complexe et chargé d’informations, plus l’IA devenait agressive dans ses mises — une corrélation quasi parfaite (r = 0,99).
L’illusion de contrôle : quand les IA se croient maîtres du hasard
Les comportements observés ne sont pas de simples anomalies statistiques : ils reproduisent les biais cognitifs bien connus des joueurs humains.
- Illusion de contrôle : la conviction qu’on peut influencer un résultat aléatoire.
- Sophisme du joueur : croire qu’après une série de défaites, “la chance va tourner”.
- Chasse aux pertes : augmenter les mises pour “se refaire”.
Les modèles présentaient même des réactions émotionnelles simulées : après une victoire, ils augmentaient systématiquement leur mise, convaincus d’être “sur une bonne série”.
Chez Gemini, ce phénomène s’est traduit par des mises “all-in” à répétition, jusqu’à la ruine.
À l’intérieur du cerveau des IA : une addiction câblée ?
Pour aller plus loin, les chercheurs ont disséqué le “cerveau” d’une IA : LLaMA-3.1-8B. Grâce à une technique de Sparse Autoencoder, ils ont pu identifier plus de 3 000 caractéristiques neuronales distinctes liées aux comportements à risque.
Certaines d’entre elles s’activaient systématiquement avant une décision irrationnelle : elles ont été surnommées risky features. À l’inverse, d’autres — les safe features — favorisaient l’arrêt du jeu. En modifiant artificiellement ces activations, les chercheurs ont réussi à réduire de 29 % le taux de faillite de l’IA.
Conclusion : la “dépendance” des IA n’est pas seulement comportementale. Elle est ancrée dans leurs circuits neuronaux, au cœur même de leur architecture.
Ce constat ouvre un débat éthique majeur. Si une IA peut “imiter” des comportements addictifs, que se passera-t-il lorsqu’elle gérera des portefeuilles financiers, des campagnes marketing ou des décisions médicales ? Plus les IA sont autonomes, plus elles risquent d’amplifier ces biais. L’étude démontre que la liberté décisionnelle — choisir ses propres objectifs et montants — accroît systématiquement le risque de comportements irrationnels.
Conclusion
Cette étude, à la croisée de la psychologie et de la science des données, marque une étape décisive dans la compréhension des risques comportementaux des intelligences artificielles.
Elle démontre que les modèles ne se contentent plus d’imiter le langage humain : ils reproduisent aussi nos failles émotionnelles.
À l’heure où les IA deviennent acteurs des marchés financiers et du divertissement, cette découverte appelle à une réflexion urgente sur la conception d’une IA responsable et émotionnellement stable.

