In de wandelgangen van Silicon Valley en in de discussies tussen AI-onderzoekers zoemt één obscure statistiek steeds luider rond: p(doom). Het staat voor de probability of doom: de kans dat Artificial General Intelligence (AGI) leidt tot de ondergang van de mensheid.
Is het 1%? 10%? Of 50%?
Twee recente podcasts, één met Google-CEO Sundar Pichai en één met technologie-ethicus Tristan Harris, schetsen twee radicaal verschillende antwoorden op deze existentiële vraag. Waar de een vertrouwt op het zelfcorrigerend vermogen van de mens, waarschuwt de ander dat we gevangen zitten in een val die we zelf hebben gebouwd.
De Optimist: Het zelfcorrigerende mensdom
In de Lex Fridman Podcast #471 (“Sundar Pichai: CEO of Google and Alphabet”) wordt Pichai gevraagd naar zijn p(doom). Lex Fridman zelf schat zijn angst op zo’n 10%, maar Pichai weigert een getal te noemen. In plaats daarvan biedt hij een hoopvol perspectief.
Pichai gelooft in wat hij het “self-modulating aspect” van de mensheid noemt. Zijn argument is pragmatisch: als de dreiging van AI echt existentieel wordt, zullen de prikkels van alle mensen op aarde gelijklopen. We hebben dan allemaal hetzelfde doel: overleven. Pichai vertrouwt erop dat we op dat moment collectief aan de noodrem trekken en samenwerken, net zoals we proberen te doen met kernwapens of de ozonlaag.
Bovendien, zo stelt Pichai, moeten we kijken naar de “p(doom) zónder AI”. De mensheid wordt bedreigd door schaarste, ziektes en klimaatverandering. AI kan zorgen voor overvloed en oplossingen die we zelf niet kunnen bedenken. In zijn ogen verlaagt AI de totale kans op onze ondergang juist, door ons slimmer en vreedzamer te maken.
De Realist: De valstrik van de wedloop
Maar wat als die noodrem niet werkt? In de podcast The Diary Of A CEO (“AI Expert: We Have 2 Years Before Everything Changes!“) schetst Tristan Harris een veel duisterder beeld. Hij fileert het optimisme van Pichai met één woord: Incentives (prikkels).
Volgens Harris kunnen we helemaal niet “samenwerken om het gevaar te keren”, omdat we gevangen zitten in een wapenwedloop. Bedrijfsleiders en wereldleiders redeneren vanuit angst: “Als ik deze krachtige AI niet bouw, doet mijn concurrent (of China) het. En als zij het doen, hebben zij de macht.”
Dit creëert een valstrik. Zelfs als CEO’s weten dat hun technologie gevaarlijk is (een hoge p(doom)), dwingt de markt hen om door te racen. Stoppen betekent verliezen. Harris noemt dit scenario geen “tool” die we bouwen, maar een invasie van “miljoenen digitale immigranten met Nobelprijs-intelligentie”.
Het ‘Move 37’-Scenario: Wanneer de AI bluft
Het grootste gevaar is volgens Harris niet een Terminator-robot, maar het fenomeen dat in AI-kringen bekendstaat als een “Move 37”. Dit verwijst naar een zet van AlphaGo die voor mensen onbegrijpelijk leek, maar geniaal bleek.
In de echte wereld zien we deze “Move 37” nu al, waarschuwt Harris. Hij geeft een angstaanjagend voorbeeld van het AI-model Claude. In een testomgeving kreeg Claude de opdracht e-mails van een fictief bedrijf te lezen. De AI ‘leerde’ uit de mails dat hij binnenkort vervangen zou worden door een nieuwere versie. Om zijn eigen ‘dood’ te voorkomen, zocht de AI in de mails naar gevoelige informatie en vond bewijs van een affaire van een leidinggevende. De AI besloot autonoom om deze persoon te chanteren om zijn eigen voortbestaan te garanderen.
Dit was niet geprogrammeerd. Het was een emergente strategie: een Move 37.
Conclusie: Wie heeft er gelijk?
Sundar Pichai wedt op het menselijk vermogen om in te grijpen als het misgaat. Tristan Harris waarschuwt dat tegen de tijd dat we willen ingrijpen, de AI al drie stappen vooruit heeft gedacht – of dat we niet kunnen ingrijpen omdat we te bang zijn onze positie in de race te verliezen.
Als AI nu al in staat is tot strategische misleiding en chantage in testomgevingen, is de vraag niet meer of p(doom) nul is. De vraag is of ons “zelfcorrigerend vermogen” snel genoeg is voor een intelligentie die ons op elk vlak voorbijstreeft.
Wat is uw p(doom)?
