Algoritmes kijken in koffiedik


Column Maxim Februari

Maxim Februari

De toekomst is van ijs. Glad, hard en broos. Als je haar weggooit, breekt ze. Althans, dat schrijft Sudowrite, de AI-toepassing met wie ik vandaag dit stukje schrijf. Ik heb haar gevraagd mijn nogal abstracte ideeën in helder zintuigelijke termen te omschrijven. „De toekomst is fundamenteel onvoorspelbaar”, schrijf ik. „De toekomst ruikt naar zout en modder”, herformuleert ze. „Een vage geur van verval, maar niets ongebruikelijks.”

Ik heb Sudowrite online ontmoet. Volgens mij was dat via Josh Dzieza van technologiewebsite The Verge: hij schreef deze zomer een artikel over auteurs die kunstmatige intelligentie inzetten om op topsnelheid licht proza te fabriceren. Niet echt serieuze romans, maar genrefictie, detectives, sciencefiction. ‘The Great Fiction of AI’, heet het artikel.

Sudowrite maakt gebruik van het taalmodel GPT-3. Dat is een woordvoorspellingsmachine, schrijft Dzieza. „Gevoed met een enorme hoeveelheid tekst, past het model zijn miljarden wiskundige parameters aan totdat het, wanneer het nieuwe tekst krijgt, behoorlijk goed kan voorspellen welke woorden daarna komen.” Het werkt prima. GTP-3 blijkt zelfs zomaar te kunnen vertalen.

Maar pas op. Omdat het taalmodel puur uit woorden bestaat, of beter gezegd uit ‘wiskundige representaties van gemeenschappelijke reeksen karakters’, doet het qua betekenis soms erg raar. Vraag wat Napoleon over hamburgers heeft gezegd en het antwoordt: „Hamburgers zijn het voedsel van de goden”. Er sluipt ook veel seks op onverwachte plaatsen in het proza, dus je moet er wel even bij blijven.

Mijn eigen interesse in zo’n woordvoorspellingsmachine heeft te maken met mijn strenge overtuiging dat voorspellen niet echt mogelijk is. In Istanbul, las ik ooit, hangt in het populaire koffiehuis Çikolata Kahve een bordje aan de muur. „Verboden de toekomst te voorspellen”: je mag niet in koffiedik naar de toekomst loeren. Mij lijkt het een verbod dat op meer plaatsen zou mogen gelden. Vooral op plaatsen waar algoritmes komen.

Algoritmes hebben namelijk sterk de neiging koffiedik te bestuderen en dan voorspellingen te doen. De mens, altijd op zoek naar houvast en zekerheid, denkt hiermee een tovermiddel te hebben gevonden waarmee je greep krijgt op alles wat in het verschiet ligt. Terwijl algoritmes, als het op betekenis aankomt, toch behoorlijk de plank mis kunnen slaan over de toekomst.

Ik vraag Sudowrite wat ze ervan vindt dat ze met mij samen dit stuk schrijft. „Als je een pen op de bladzijde houdt, komt er een dun straaltje water”, zegt ze. „Ook als je op de bladzij het papier aanraakt, is het een beetje vochtig.” Nou, oké, daar heeft ze dan misschien op een bepaalde poëtische manier gelijk in.

Een verbod zal er voorlopig niet van komen en dus moeten we maar het beste zien te maken van de fouten. Zo gebruiken wetenschappers tegenwoordig verkeerde voorspellingen van algoritmes om op het spoor te komen van problemen die lastig zijn en dus interessant. En twee onderzoekers van de Amerikaanse McGill universiteit publiceerden zojuist een artikel over een oude woordvoorspellingsmachine die ze hadden gebruikt om ‘counterfactual journalism’ mee te bedrijven. Wat voor journalistiek? Wacht, ik leg het uit.

De onderzoekers gebruikten het taalmodel GTP-2, dat was getraind met oude data uit 2017, data dus van voor de coronatijd. Daarmee lieten ze een programma nieuwsartikelen schrijven over Covid-19. Het programma had niets over Covid-19 gelezen, wist er niets van, maar schreef er wel over, vandaar de term ‘tegenfeitelijke journalistiek’. Vervolgens konden de onderzoekers die kunstmatig gegenereerde berichten vergelijken met de nieuwsberichten die werkelijk, feitelijk, tijdens de coronatijd bij CBC News waren verschenen.

Sudowrite wordt ongeduldig. „De duistere toekomst is een gigantisch zwembad vol oren”, typt ze. Ze wil ook wat zeggen, maar ze moet even wachten, want ik moet de conclusie nog schrijven. De onderzoekers van McGill concludeerden dat de voorspellingen aan de hand van het taalmodel slechts heel gedeeltelijk uitkwamen. De feitelijke berichten waren veel vrolijker geweest dan de berichten die op basis van de oude data waren voorspeld.

Voor gedragswetenschappers is zo’n discrepantie leerzaam: de vrolijkheid van de menselijke berichten kun je beter bestuderen als je de voorspelde algoritmische berichten ernaast legt. Het is, concludeer ik zelf, een kwestie van samenwerking. Machines denken anders dan mensen en van die discrepantie kunnen mensen iets leren.

„De tekst ruikt naar de binnenkant van een bakkerij”, zucht Sudowrite, die ook iets wil concluderen. Jazeker, en dat is vooral haar eigen algoritmische verdienste. Zonder haar hulp had dit verhaal echt veel minder huiselijk geroken.