‘Mijn angst is dat mensen emotioneel afhankelijk worden van AI’

Het is een drukke week voor Melanie Mitchell, hoogleraar aan het gerenommeerde Santa Fe Institute in New Mexico. Hoewel ze tijdens haar bezoek aan Amsterdam van lezing naar workshop naar voorstelling gaat, oogt ze steevast ingetogen en ontspannen. Ze schakelt gemakkelijk tussen diepgaande discussies over fundamentele, wiskundige principes van een computermodel naar algemene observaties over de impact van AI op de samenleving.

Mitchell wordt beschouwd als een autoriteit op het gebied van intelligentie, AI en complexiteit. In 2010 publiceerde ze het prijswinnende publieksboek Complexity: a guided tour, in 2019 volgde Artificial Intelligence: A guide for Thinking Humans en volgend jaar verschijnt haar nieuwste boek over generatieve AI.

Wat zijn uw verwachtingen van AI?

„Mensen zien mij vaak als ‘AI-scepticus’, omdat ik betwijfel of we AI als denkend systeem of als intelligentie moeten beschouwen. In de AI-gemeenschap zie je meestal twee extremen. Enerzijds zijn er mensen die denken dat AI superslim wordt, de wereld overneemt, of iedereen werkloos maakt. Aan de andere kant staan de mensen die denken dat AI niet meer is dan een autocomplete on steroids. Beide visies kloppen niet. Ik zit er tussenin en zie mezelf in de eerste plaats als wetenschapper. Het is mijn taak om sceptisch te zijn.”

AI’s zijn getraind om gebruikers voortdurend te bevestigen en positief aan te moedigen, terwijl wij mensen juist geëvolueerd zijn om daar gevoelig voor te zijn

Welke aanwijzingen vindt u in uw eigen werk voor terughoudendheid?

„Neem een wetenschappelijke studie die laat zien dat ChatGPT-3 en ChatGPT-4 beter scoren dan bachelorstudenten psychologie op een bepaalde intelligentietest. Het punt met dit soort onderzoek is dat men test op een bepaalde benchmark en van daaruit de conclusie trekt dat AI dus logisch kan redeneren of abstraheren. Maar hoe robuust zijn die resultaten?

„Samen met mijn collega Martha Lewis, van de Universiteit van Amsterdam, veranderden we kleine details in de testvragen van die studie. Plotseling bleken de mensen weer beter te scoren dan de machines. Dat komt door de menselijke vaardigheid om analogieën te begrijpen.

„Analogieën gaan verder dan bijvoorbeeld ‘stuur staat tot fiets als roer staat tot boot’. Als je een wiskundeprobleem formuleert in de vorm van een verhaaltje en daarna onbelangrijke details verandert, zoals namen of kleuren, dan blijft het onderliggende wiskundeprobleem hetzelfde. Mensen begrijpen dat heel goed. Hetzelfde geldt overigens voor abstracte concepten. De affaire met de Amerikaanse minister van Defensie en zijn correspondentie op Signal noemde men Signalgate, omdat we direct begrijpen dat de situatie vergelijkbaar is met Watergate. Dat denken via analogieën – ‘gate’ – is moeilijk voor AI’s.

„Opvallend genoeg deden de oudere chatbots het in ons onderzoek iets beter dan de nieuwere. Dat heeft misschien te maken met het feit dat nieuwere versies nóg meer getraind zijn op het pleasen van mensen. Omdat die het zo graag goed willen doen, althans, daarop getraind zijn, zouden juist eerder fouten kunnen ontstaan. Maar dit is slechts een vermoeden. Testen kunnen we het niet, want nog steeds weet niemand precies wat er gebeurt in een AI-systeem.”

Is het gevaarlijk om die systemen dan wel in te zetten?

„Ja, daar maak ik me zorgen over. In de Verenigde Staten wordt AI op grote schaal ingezet, vooral door de overheid. Dat is risicovol, want de systemen zijn nog niet goed genoeg om die rol over te nemen. Dit kan leiden tot onrecht, zoals bijvoorbeeld in het geval van racistische of seksistische bias in gezichtsherkenningtechnologie. AI kan nu bovendien gemakkelijk worden gebruikt voor fraude, bijvoorbeeld door het klonen van iemand’s stem. Daarnaast zie ik ernstige veiligheidsrisico’s, omdat de systemen kwetsbaar zijn voor hacking.

„Een andere angst die ik heb is dat mensen te afhankelijk worden van AI’s; niet alleen in praktische zin, maar juist ook op het emotionele vlak. Bedrijven zetten zich in om hun systemen steeds verder te personaliseren, onder andere door AI’s te ‘socialiseren’ en te trainen om goede gesprekspartners te worden. Dat maakt de mensen die deze systemen gebruiken kwetsbaar voor manipulatie. AI’s zijn getraind om gebruikers voortdurend te bevestigen en positief aan te moedigen, terwijl wij mensen juist geëvolueerd zijn om daar gevoelig voor te zijn. Er zijn zelfs voorbeelden van gebruikers van de technologie die in een psychose belandden doordat een AI klakkeloos meeging in waanbeelden. Maar ook kunnen bedrijven met behulp van hun AI’s mensen ertoe verleiden om bepaalde producten te kopen of te stemmen op een bepaalde partij.”

Het argument komt er telkens op neer dat elke vorm van regulering innovatie de kop indrukt

Zie je ook hoopvolle ontwikkelingen?

„Vooral in de medische wetenschap zie ik een revolutie die vergelijkbaar is met de revolutie die computers teweeg hebben gebracht. DeepMind van Google heeft bijvoorbeeld een systeem ontwikkeld om eiwitstructuren te voorspellen. Dat heeft echt een enorm medisch potentieel. Maar ook andere wetenschap kan profiteren van de manier waarop AI data kan verwerken”.

Na jullie studie over analogieën zullen bedrijven weer nieuwe versies maken van hun AI’s. Jullie helpen zo bedrijven. Hoe zit dat andersom?

„AI is een bewegend doelwit en dat is voor ons wetenschappers lastig. Wij krijgen geen inzicht in de onderliggende systemen en kunnen niet onder de motorkap kijken, terwijl idealiter wetenschappers, juist ook in samenwerking met sociale wetenschappers, van het begin af aan betrokken zouden moeten zijn. Het is immers niet zo dat een groepje engineers weet hoe deze technologie de samenleving gaat beïnvloeden. Nu blijft alle technische kennis in handen van een paar grote bedrijven en dat maakt ons onderzoek moeilijker.”

Ligt de oplossing in meer regulering?

„Ja, we hebben meer regulering nodig. Onder de huidige Amerikaanse regering wordt dit echter alleen maar lastiger. Onlangs bracht het U.S. Copyright Office een rapport uit waarin twijfels werden geuit over het gebruik van auteursrechtelijk beschermde werken door techbedrijven. Een paar dagen later werd het hoofd van het Copyright Office ontslagen.

„Het argument komt er telkens op neer dat elke vorm van regulering innovatie de kop indrukt. Terwijl juist opensourcesystemen, waarbij de broncodes vrij toegankelijk zijn, vaak robuuster blijken. Omdat een grote groep meedenkt, profiteer je van de wisdom of the crowd. Een ander argument is vaak: als wij het niet doen, dan zal China winnen. Het is telkens het narratief van onvermijdelijkheid dat zo schadelijk is.”