Beurskoers Google keldert na blunder van AI-chatbot Bard

Chatbots In een promotiefilmpje blijkt Google’s AI-chatbot Bart een onjuist antwoord te hebben gegeven. Pijnlijk én veelzeggend: kunstmatige intelligentie baseert zich niet louter op bewezen feiten.

Google is met Microsoft verwikkeld in een strijd om wie het snelt kunstmatige intelligentie kan integreren in internetzoeken.
Google is met Microsoft verwikkeld in een strijd om wie het snelt kunstmatige intelligentie kan integreren in internetzoeken.

Foto AFP

Het was een pijnlijke fout van Google, maar ook een veelzeggende fout. Ongewild liet het bedrijf zien dat chatbots gebaseerd op kunstmatige intelligentie onjuiste informatie kunnen leveren, hoe overtuigend de teksten die ze voortbrengen op het eerste gezicht ook lijken.

Woensdag presenteerde Google een grote vernieuwing van de populaire zoekmachine waaraan wordt gewerkt. „Een belangrijke volgende stap in kunstmatige intelligentie”, schreef het in een blog. Een dag eerder had concurrent Microsoft de wereld al laten zien hoe het populaire programma ChatGPT geïntegreerd wordt in zijn zoekmachine Bing. Google, dat al jaren werkt aan toepassing van kunstmatige intelligentie, kon niet achterblijven.

Misschien iets overhaast presenteerde Google zijn antwoord op ChatGPT: de chatbot Bard, die ook op verzoek teksten kan produceren en allerlei vragen kan beantwoorden in goed lopende zinnen. In een filmpje werd als voorbeeld de vraag gepresenteerd: wat kan ik mijn 9-jarige kind vertellen over de James Webb ruimtetelescoop? Het antwoord bestond uit drie suggesties, waaronder dat deze telescoop „de allereerste beelden van een planeet buiten ons eigen zonnestelsel” had gemaakt.

Maar dat klopte niet. Een andere telescoop had dat al in 2004 gedaan, zoals een Amerikaanse astrofysicus op Twitter opmerkte. Het nieuws over de misser van Google bereikte ook de Amerikaanse beurs, waar het aandeel van moederbedrijf Alphabet vervolgens met maar liefst 8 procent daalde. In een reactie op de fout liet Google weten dat nog wordt gewerkt aan verbetering van het systeem zodat het kan voldoen aan hoge kwaliteitseisen”.

Misleidend

Het probleem waar Google met zijn fout onbedoeld de aandacht op vestigde, is dat de kunstmatige intelligentie zich niet louter baseert op bewezen feiten, maar op enorme hoeveelheden bestaande teksten die niet zijn geselecteerd op feitelijke correctheid, om daar patronen in te zoeken. Die teksten kunnen ook misleidend zijn of domweg fout.

De antwoorden die een chatbot als ChatGPT of Bard geeft op vragen en opdrachten kunnen de plank dus lelijk misslaan. De astrofysicus die de fout van Google had opgemerkt voegde er in een tweet aan toe dat programma’s als ChatGPT en Bard weliswaar „griezelig indrukwekkend” zijn, maar het vaak ook „zeer zelfverzekerd bij het verkeerde eind hebben”.


Lees ook: Microsoft opent de aanval op Google met zoekmachine waarmee je kunt chatten