Toen AI-investeerder Yoeri Dassen vorige week vrijdag in San Francisco een verjaardagsfeest bezocht, zag hij iets opvallends. Gasten die niet over het ontslag van OpenAI-topman Sam Altman wilden praten, kregen een aparte ruimte toegewezen. „Een non-AI-kamer. Voor wie ook nog over wat anders wilde praten”, zegt Dassen, die woont in San Francisco. „In WhatsApp-groepen gaat het hier nergens anders over.”
Het vertrek van Altman – sinds de lancering van chatbot ChatGPT een jaar geleden hét gezicht van artificiële intelligentie (AI) – was een van de meest besproken tech-verhalen van het afgelopen jaar. Altman werd vorige week vrijdag ontslagen, leek zaterdag weer terug te keren, vertrok zondag naar Microsoft en kwam woensdag toch gewoon weer terug bij OpenAI. Het bestuur dat Altman ontsloeg trad af.
Bij het beroemdste AI-bedrijf ter wereld werd de afgelopen week in alle openbaarheid een keiharde interne machtsstrijd uitgevochten. Een strijd die in de kern neerkwam op een klassiek dilemma: snelheid versus veiligheid. Sam Altman zag de concurrentie naderen en wilde vooral tempo maken. Het bestuur dat Altman controleerde vreesde voor de gevolgen en trok de handrem aan.
OpenAI werd in 2015 opgericht als non-profit, als een bedrijf zonder winstoogmerk met een missie om AI zo te ontwikkelen dat het ten goede zou komen aan de mensheid. Het bedrijf kreeg een machtig, zeskoppig bestuur zonder financiële belangen, dat deze missie moest bewaken.
Maar na alle ruzie is er van die opzet weinig meer over. En krijgt het belangrijkste AI-bedrijf ter wereld trekjes van een normale start-up, waar zo hard mogelijk groeien de belangrijkste prioriteit is. Met technologie die de potentie heeft om onze wereld ingrijpend te veranderen en enorme maatschappelijke risico’s met zich meebrengt.
Waar ging het mis bij OpenAI? En hoe gevaarlijk is het dat zelfs bij een hypergevoelige systeemtechnologie als AI bedrijven vooral zichzelf controleren?
Decennia van ups en downs
Je zou het haast vergeten, maar het vakgebied kunstmatige intelligentie bestaat al sinds de jaren vijftig. Een tak van wetenschap die al tientallen jaren periodes van ups en downs doormaakt. Wetenschappelijke doorbraken (de zelfrijdende auto, de schaakcomputer) worden afgewisseld met ‘AI-winters’, waarin de technologische vooruitgang tegen zijn beperkingen aanloopt.
Sinds de introductie van taalmodellen – computers die het internet leegschrapen en leren hoe menselijke spraak valt te imiteren – is AI weer in een nieuwe hypecyclus beland. Met het verschil dat nu niet universiteiten, maar grote bedrijven de meest geavanceerde technologie en infrastructuur ervoor in handen hebben. Sinds ChatGPT, de eerste AI-chatbot voor een groot publiek, honderd miljoen gebruikers per week aan zich weet te binden, investeren Chinese en Amerikaanse techbedrijven miljarden in de technologie. De ontwikkeling gaat als gevolg daarvan razendsnel.
Een AI-taalmodel kan, denken experts, in de nabije toekomst voor veel meer ingezet worden dan voor chatten met een robot. Het ideaalbeeld: de perfect geïnformeerde digitale assistent. Een die meedenkt en meehelpt tijdens het werk, bankzaken regelt en online aankopen doet, e-mails verstuurt en je agenda beheert. „ChatGPT heeft ons een voorproefje gegeven van een wereld waarin we gebruik kunnen maken van een onbeperkte hoeveelheid intelligentie”, zegt AI-wetenschapper Stuart Russell van UC Berkeley.
De huidige ontwikkeling in AI is daarmee, volgens Microsoft-oprichter Bill Gates, de grootste technologische revolutie in decennia. Net zo belangrijk als de microprocessor, de pc en het internet. „Hele industrieën gaan zich vormen rond deze technologie”, schreef Gates in maart op zijn blog. „Bedrijven gaan zich onderscheiden in hoe goed ze het gebruiken.”
OpenAI is leidend met zijn AI-technologie, op de voet gevolgd door Google en het AI-bedrijf Anthropic, eveneens uit San Francisco. „Zeker als je nagaat wat OpenAI allemaal in de toekomst kan bouwen als zijn systemen exponentieel beter worden”, zegt AI-investeerder Dassen. „Automatiseer menselijke intelligentie en besluitvorming en je hebt ongekende economische waarde.”
De macht van Microsoft
Al zolang kunstmatige intelligentie bestaat, wordt er gewaarschuwd voor de gevolgen ervan. De beroemde Britse computerwetenschapper Alan Turing waarschuwde in 1951 dat „computers uiteindelijk de controle overnemen”. Die angst is nooit helemaal weggegaan. Integendeel.
De belangrijkste vrees is niet dat computers met een bepaalde mate van intelligentie de mensheid kwaad willen doen of een eigen ‘bewustzijn’ ontwikkelen; de angst is meer dat mensen de technologie verkeerd gebruiken en de mensheid de controle verliest over haar digitale infrastructuur.
OpenAI kwam in 2015 voort uit deze vrees. Een groep prominente figuren uit Silicon Valley hoopte door AI in een non-profitomgeving te ontwikkelen in alle rust veilige systemen te kunnen bouwen. De afspraak bij de oprichting was dat OpenAI zou worden gefinancierd met donaties van individuele investeerders. Hun eventuele winst in de toekomst werd aan een maximum gebonden, alles daarboven ging terug in het bedrijf. Oprichter Sam Altman kreeg de titel ‘ceo’ en een plek in het bestuur, maar geen aandelen.
Ook de briljante Russische computerwetenschapper Ilya Sutskever, die de wetenschappelijke divisie van OpenAI leidde, nam plaats in het bestuur. Sutskever staat bekend als een zeer bezorgde ‘AI-doomer’. Hij vreest een toekomstige wereld vol datacentra en zonnepanelen, waar ongecontroleerde AI-systemen alle beslissingen voor mensen nemen.
De interne problemen begonnen nadat Altman in 2018 voor het eerst de deuren openzette voor een grote investeerder. Microsoft stak 1 miljard dollar in OpenAI, een bedrag dat later naar verluidt opliep tot 13 miljard dollar. Volgens Altman was het externe geld nodig om te blijven groeien en om de benodigde serverruimte en speciale peperdure AI-computerchips te kunnen betalen.
Nadat OpenAI ChatGPT op de markt had gebracht, nam de druk om te groeien en voor te blijven op de concurrentie verder toe. Microsoft zag dat het met de investering in OpenAI een gouden zet had gedaan. Het haalde Google, dat in de decennia daarvoor op het gebied van AI-technologie domineerde, links in. De technologie achter ChatGPT is voor een belangrijk deel gebaseerd op uitvindingen die Google heeft gedaan.
Wat er precies gebeurde tussen het OpenAI-bestuur en Sam Altman is nog onbekend. Duidelijk is dat de laatste maanden de spanningen fors zijn toegenomen. Met name AI-doomer Sutskever maakte zich grote zorgen over het tempo van de innovatie, reconstrueerden Amerikaanse media afgelopen week.
Enkele maanden geleden zou er volgens persbureau Reuters en tech-site The Information een ‘technologische doorbraak’ bij OpenAI zijn geweest. De vinding zou de taalmodellen in staat stellen ook complexe wiskundige problemen op te lossen, iets wat tot nu nog niet mogelijk was. Mede omdat Altman het tempo van productontwikkeling daarna nog verder wilde opvoeren, zou het OpenAI-bestuur definitief tot zijn ontslag hebben besloten.
Lees ook
‘Hoe Microsofts Copilot vleugels kreeg door het wankele OpenAI’
Maar het bestuur onderschatte de populariteit van Sam Altman onder zijn ruim zevenhonderd werknemers, die zich vrijwel zonder uitzondering achter hun topman schaarden – en ook de invloed van Microsoft, dat OpenAI ondanks de non-profitstructuur in zijn greep wist te krijgen. Microsoft kreeg in ruil voor zijn miljarden 49 procent van de aandelen en – belangrijker – het recht op het intellectueel eigendom en de broncode van de systemen van OpenAI, bleek deze week.
Toen Altman dreigde naar Microsoft te vertrekken – en al zijn personeel mee leek te gaan – kon het bestuur onmogelijk anders doen dan hem zijn baan teruggeven. De aftredende bestuursleden bedongen nog net dat één lid kon blijven zitten in het bestuur, waar ook Microsoft een positie krijgt. De non-profit-structuur blijft in stand, maar de vraag is hoelang nog.
Regeringen zijn aan zet
Nu Altman de strijd heeft gewonnen, is de vraag: wat nu? Wie gaat OpenAI controleren nu de meeste kritische bestuursleden zijn vertrokken?
Volgens AI-wetenschapper Stuart Russell laat de crisis bij OpenAI zien dat „zelfs wanneer de organisatie de belangen van de mensheid in overweging neemt, deze belangen worden overschaduwd door financiële overwegingen”, aldus Russell. „Alleen regeringen kunnen de belangen van de mensheid beschermen.”
Ook Stanford-onderzoeker en AI-expert Marietje Schaake ziet in de crisis bij OpenAI een bevestiging dat deze techbedrijven niet in staat zijn tot zelfregulering. „De macht van de geldschieter is geconsolideerd en de macht van een bestuur dat in dat zogenaamde publieke belang moest waken is geknakt”, zegt ze.
Op dit moment werken Europa, China en de Verenigde Staten aan wetgeving om AI-bedrijven aan regels te binden. De overheden vrezen AI-systemen die overtuigend nepnieuws maken, cyberaanvallen uitvoeren of als hulpmiddel gaan fungeren voor terroristen of oplichters. De grote Europese AI-wet (de AI-Act) zou op 6 december worden gepresenteerd, al is het de vraag of de EU deze datum gaat halen. Volgens Schaake is er „geen bestuurstafel waar dit thema momenteel niet speelt”, zegt ze.
Volgens Schaake is er geen tijd te verliezen. „We zien dat alle kennis over AI, alle data, talent en computerkracht in handen is van de bedrijven zoals Open-AI”, zegt ze. „Overheden kunnen geen goed beleid maken als ze niet weten hoe de technologie van deze bedrijven precies in elkaar zit. Het wordt hoog tijd dat de overheid transparantie afdwingt over wat er binnenskamers allemaal gebeurt.”