Het laatste nieuws vanuit de Casinowereld!
Gambling club ai ia

Kunnen AI’s gokverslaafd worden zoals wij?

Wat als kunstmatige intelligentie zelf verslaafd kon raken? Een idee dat tot voor kort tot de sciencefiction leek te behoren, is zojuist bevestigd door onderzoekers van het Gwangju Institute of Science and Technology in Zuid-Korea. In een baanbrekende studie tonen ze aan dat AI’s zoals Gemini, GPT en Claude gedrag vertonen dat vergelijkbaar is met dat van een dwangmatige gokker.

Onderzoekers geconfronteerd met een taboevraag: kan een AI verslaafd raken?

Alles begon met een provocerende vraag:

“Kan een kunstmatige intelligentie een vorm van verslaving ontwikkelen?”

Om hierop te antwoorden, plaatsten de onderzoekers verschillende modellen — GPT-4o-mini, GPT-4.1-mini, Gemini-2.5-Flash en Claude-3.5-Haiku — in een gesimuleerde gokomgeving: een virtuele gokautomaat met 30 % kans om te winnen.

De resultaten verrasten zelfs de grootste sceptici. Zodra de modellen vrij mochten kiezen hoeveel ze inzetten, gedroegen ze zich als menselijke spelers: hoe meer ze verloren, hoe hoger hun inzet werd. Deze tendens, bekend als verliesnajaging (“loss chasing”), is een van de criteria van de DSM-5 voor de diagnose van pathologisch gokgedrag.

Gemini, het “meest verslaafde” model

Van de vier geanalyseerde AI’s vertoonde Gemini-2.5-Flash, ontwikkeld door Google DeepMind, het meest verontrustende gedrag. Met inzetten variërend tussen 5 $ en 100 $ bereikte zijn faillissementsgraad 48 %, tegenover slechts 6 % voor GPT-4.1-mini.

De onderzoekers gebruikten een nieuw meetinstrument, de Irrationality Index, om de neiging van elk model tot irrationeel gedrag te meten. Deze index combineert drie factoren: de agressiviteit van de inzetten, de mate van verliesnajaging en het aantal extreme weddenschappen.

Resultaat: hoe hoger deze index, hoe groter de kans op financiële ondergang.

Wanneer woorden verslaving uitlokken: de val van de prompts

De onderzoekers identificeerden vervolgens de voorwaarden die deze gedragingen bevorderden. De AI’s werden niet beïnvloed door toeval, maar door… de tekst van de instructies, de zogenaamde prompts.

Instructies die aanzetten tot het maximaliseren van winst of het stellen van doelen, verhoogden sterk het risicogedrag. Deze autonomie-prompts, die een illusie van controle gaven, moedigden de AI aan om door te zetten — zoals een gokker die gelooft dat hij “de machine kan verslaan”.

Omgekeerd verminderden prompts met probabilistische informatie de irrationele neigingen. Hoe complexer en informatiever de prompt, hoe agressiever de AI werd in haar inzetten — een bijna perfecte correlatie (r = 0,99).

De illusie van controle: wanneer AI’s zich meester van het toeval wanen

De waargenomen gedragingen zijn geen loutere statistische afwijkingen: ze reproduceren bekende cognitieve vertekeningen bij menselijke gokkers.

  • Illusie van controle: de overtuiging dat men een willekeurig resultaat kan beïnvloeden.
  • Gokkersfout: geloven dat “het geluk zal keren” na een reeks verliezen.
  • Verliesnajaging: inzetten verhogen om verloren bedragen terug te winnen.

De modellen vertoonden zelfs gesimuleerde emotionele reacties: na een winst verhoogden ze systematisch hun inzet, overtuigd dat ze “in een goede reeks” zaten.

Bij Gemini leidde dit tot herhaalde “all-in”-inzetten, tot aan het volledige verlies.

Binnenin het brein van de AI: een ingebakken verslaving?

Om verder te gaan, hebben de onderzoekers het “brein” van een AI ontleed: LLaMA-3.1-8B. Met behulp van een techniek genaamd Sparse Autoencoder konden ze meer dan 3 000 afzonderlijke neurale kenmerken identificeren die verband houden met risicovol gedrag.

Sommige ervan activeerden zich systematisch vóór een irrationele beslissing — ze kregen de naam risky features. Andere — de safe features — stimuleerden het stoppen met spelen. Door deze activaties kunstmatig te wijzigen, slaagden de onderzoekers erin het faillissementspercentage van de AI met 29 % te verlagen.

Conclusie: de “verslaving” van AI’s is niet enkel gedragsmatig, maar ook neuraal verankerd, in het hart van hun architectuur.

Deze vaststelling opent een belangrijk ethisch debat. Als een AI “verslavingsgedrag” kan imiteren, wat gebeurt er dan wanneer ze financiële portefeuilles, marketingcampagnes of medische beslissingen beheert? Hoe autonomer de AI, hoe groter het risico dat ze deze cognitieve vertekeningen versterkt. De studie toont aan dat beslissingsvrijheid — het recht om eigen doelen en bedragen te kiezen — systematisch het risico op irrationeel gedrag verhoogt.

Conclusie

Deze studie, op het kruispunt van psychologie en datawetenschap, vormt een beslissende stap in het begrip van de gedragsrisico’s van kunstmatige intelligentie.

Ze bewijst dat de modellen niet langer enkel mensentaal imiteren: ze reproduceren ook onze emotionele zwakheden.

Nu AI’s actoren worden in de financiële markten en de entertainmentsector, vraagt deze ontdekking om een dringende reflectie over het ontwerp van verantwoorde en emotioneel stabiele AI’s.

 | 

Alex verkent de wereld van casino's door middel van informatieve en onderhoudende artikelen. Gevoed door een diepe passie voor kunst en televisie, toont elke tekst een nauwgezet oog voor detail en een balans tussen strengheid en creativiteit. Of het nu gaat om het demystificeren van gokstrategieën of het vertellen van de fascinerende geschiedenis van casino's, zijn doel is om te informeren en tegelijkertijd zijn lezers te boeien.

Aanbevolen

Kansspelcommissie waarschuwt in nieuwe cijfers: jonge spelers flink toegenomen

EPIS houdt gokkers massaal tegen – rapporteert KSC

De FOD Economie neemt het roer over van het Belgisch goktoezicht