Waarschuwing voor doorbraak AI met de potentie ‘de mensheid te beschadigen’ leidde ontslag Altman in

Vlak voor het ontslag van OpenAI-topman Sam Altman waarschuwden wetenschappers van het techbedrijf het bestuur per brief over een nieuwe ingrijpende ontdekking die het bedrijf had gedaan. Een technologische doorbraak met de potentie om „de mensheid te beschadigen” en miljoenen banen overbodig te maken. Dat meldden persbureau Reuters en tech-website The Information donderdag.

De ontdekking – codenaam: Q-Star – zou AI-taalmodellen in staat stellen om complexe wiskundige en wetenschappelijke problemen op te lossen, iets wat tot nu nog niet mogelijk was. De ontdekking leidde tot grote spanningen tussen het bestuur van OpenAI en topman Altman, die de afgelopen maanden werkte aan plannen om de technologie in de verschillende producten van OpenAI te verwerken.

Altman werd vorige week vrijdag door het bestuur ontslagen vanwege „inconsistente communicatie”. Na grote druk van investeerders en het personeel, dat massaal dreigde ontslag te nemen, kreeg Altman woensdag zijn baan weer terug. OpenAI maakte bekend een nieuw bestuur te benoemen en een intern onderzoek in te stellen naar wat er precies is gebeurd. Van de vier bestuursleden die voor het ontslag van Altman stemden, keert er vooralsnog slechts één in het nieuwe bestuur terug.

OpenAI werd in 2015 opgericht als bedrijf zonder winstoogmerk, waarbij niet aandeelhouders maar bestuursleden (veelal AI-experts) alle macht kregen toebedeeld. Van die constructie is na afgelopen week weinig meer over. Ook investeerder Microsoft, die in 2018 instapte en miljarden stak in OpenAI, krijgt in het nieuwe bestuur een positie.

Kansen en gevaren

De vraag is in hoeverre de nieuwe ontdekking van OpenAI van invloed is op de ontwikkeling van kunstmatige intelligentie, dat sinds OpenAI een jaar geleden chatbot ChatGPT lanceerde aan een opmars bezig is. Sindsdien steken alle grote Amerikaanse en Chinese techbedrijven miljarden in de technologie, die snel in kracht toeneemt. De bedrijven zien kansen voor innovatie in de medische sector, dienstverlening of het onderwijs, waar slimme digitale assistenten straks de dokter, onderwijzer of klantenservice zou kunnen assisteren of vervangen.

Tegelijkertijd dreigen grote maatschappelijke gevaren. Experts waarschuwen voor door AI gegenereerd nepnieuws, computersystemen die cyberaanvallen uitvoeren of massa-ontslagen onder beroepsgroepen die werk doen dat straks door computers kan worden gedaan.

Het taalmodel dat nu aan de basis ligt van ChatGPT is nog relatief simpel. Het leert feitelijk, door grote hoeveelheden data, wat het meest waarschijnlijke volgende woord in een zin is. De gebruiker stelt een vraag, de chatbot geeft antwoord. Hoe meer data en computerkracht erin gaat, hoe beter de antwoorden worden.

Met de nieuwe technische vinding van OpenAI zou het taalmodel wellicht nog een stap verder kunnen gaan, legt technisch directeur Casper Rutjes van AI-consultancybedrijf ADC uit. Hij voorziet een AI-systeem dat niet alleen antwoord geeft op vragen, maar ook doelen kan bereiken. „Een systeem dat je een doel meegeeft en dat vervolgens zelfstandig allerlei stappen probeert tot het zijn doel heeft bereikt”, zegt Rutjes. Dat brengt allerlei risico’s met zich mee, zoals systemen die worden ingezet om digitale beveiliging te omzeilen of personen te beschadigen.

Dat het bestuur van OpenAI op de rem trapte, is daarmee logisch te verklaren, volgens Rutjes. „Als je een taalmodel bijvoorbeeld de taak geeft zichzelf te verbeteren, wordt het heel risicovol”, zegt hij. „Een model gaat dan aan zichzelf sleutelen. Het gaat zijn eigen ontwikkeling in gang zetten of misschien wel zichzelf kopiëren. Voor je het weet heb je het niet meer onder controle.”


Lees ook
Sam Altman werd ontslagen en keerde weer terug. Het chaotische kaartspel rond OpenAI

Sam Altman werd ontslagen en keerde weer terug. Het chaotische kaartspel rond OpenAI