AI hallucinaties zullen nooit weg gaan, levensvatbaarheid van de technologie in het geding

Martin Scholten

De technologie die we doorgaans kunstmatige intelligentie noemen, of kortweg “AI”, draait ondertussen al even mee. Volgens de hype men uit Silicon Valley zou het ‘the next big thing’ zijn. Maar des te nauwkeuriger er gekeken wordt, des te duidelijker de tekortkomingen. De touwtjes, de ducttape en de trucjes die het geheel bij elkaar houden zijn inmiddels voor iedereen zichtbaar. Is het gewoon een typisch geval van ‘move fast and break things’? Is “AI” gewoon te vroeg de spotlight in gedrukt, of zal deze technologie nooit de beloofde hoogtes bereiken? Het lijkt er op dat het dat laatste zal zijn.

AI liegt

En niet zo’n beetje ook. Over of een film al is uitgekomen, over welke dag het vandaag is. Of de rechtszaken, literatuur of quotes die het citeert daadwerkelijk bestaan. En dat is helemaal zonder menselijk aansturen. Uiteraard kan een “AI” desgevraagd een poging doen desinformatie te genereren. Het is een probleem op zich, maar onverantwoord gebruik van een technologie, hoe zorgelijk ook, is niet per definitie een veroordeling van de technologie zelf. Dit lijkt zelfs een probleem te zijn dat aan de grondvesten staat van hoe “AI” werkt.

“AI” verzint namelijk niet soms wat, maar altijd. Het is hoe het systeem werkt. Op basis van informatie die het systeem gevoed wordt, doet het voorspellingen over de meest waarschijnlijke volgende pixel, het meest waarschijnlijke volgende woord. Dit doet het zonder besef van de overkoepelende gedachte van het eindproduct. En dus zal het onjuiste voorspellingen blijven doen. Dat is niet de conclusie van deze auteur, maar bijvoorbeeld van Daniela Amodei, mede-oprichter en president van Anthropic, de maker van AI chatbot Claude2.

“Ze (AI) zijn gewoon soort van ontworpen om het volgende woord te voorspellen. Dus zullen er gevallen blijven wanneer het model dat inaccuraat doet.”

Inherent aan hoe AI werkt

“Dit is niet te fixen.” Zegt Emily Bender, professor taalkunde. “Het is inherent aan de mismatch tussen deze technologie en de beoogde toepassingen.” Hiermee doelt Bender op de tech bedrijven die “AI” in elke sector van onze samenleving willen toepassen. Een model dat snel lappen tekst of afbeeldingen kan genereren, is gewoon niet in staat om bijvoorbeeld consistent accuraat medische beoordelingen te doen.

Volgens Bender is een taalmodel (een soort generatieve “AI”) niet meer dan “een systeem dat de waarschijnlijkheid van verschillende strengen aan woorden modelleert.” Zo’n model doet dat op basis van de ‘trainingsdata’ die het gevoerd wordt. De recente ontwikkelingen maken generatieve “AI” steeds indrukwekkender, maar uiteindelijk blijft “AI” gewoon het meest waarschijnlijke volgende woord of pixel selecteren.

Alles wat een “AI” genereert is dus gewoon een gokje. Succes is wanneer het proces, puur toevallig, een resultaat genereert waar we mee kunnen leven. Door deze feedback te geven aan het systeem wordt het systeem wel iets beter in het genereren van dergelijke resultaten. Maar dat lost het inherente probleem niet op dat een “AI” gewoon aan het gokken is, en dus fouten zal blijven maken. Hoe een “AI” tot een resultaat komt weten we overigens steeds minder goed te duiden.

Wat nu?

Dat “AI” geen ‘besef’ heeft van wat het doet wordt pijnlijk duidelijk wanneer je “AI” met “AI” data traint. Dan stort het hele kaartenhuis namelijk vrij rap in. Maar dat betekent niet dat “AI” helemaal geen nut heeft. “AI” kan bijvoorbeeld prima gebruikt worden in de film- en game-industrie om snel een basis te maken voor verdere bewerkingen door mensen. Niet voor niets zijn acteurs en schrijvers het felst over de toepassingen van de nieuwe ontwikkelingen.

Maar “AI” zoals we het nu kennen gaat nooit in staat zijn om consistent en autonoom kwalitatief hoogwaardige producten te leveren. De hallucinaties die inherent zijn aan de manier waarop deze technologie werkt zullen dat, vrees ik, blijven verhinderen. Dat verhindert het gebruik van “AI” in de huidige staat, in bijvoorbeeld zoekmachines als Google en Bing. Wanneer je zonder checken niet kan weten of Google een resultaat verzonnen of ergens gevonden heeft kan je het systeem niet vertrouwen.

Dat vindt Sam Altman ook. De CEO van OpenAI heeft herhaaldelijk aangegeven dat hij de antwoorden van zijn ChatGPT compleet niet vertrouwt. “AI” zal beslist nuttige toepassingen kennen. Complexe rekenmodellen hebben dat vrijwel altijd. Maar de opsmuk rondom de technologie verhindert dat het bredere publiek “AI” goed op waarde kan schatten. Over een jaar of tien zullen generatieve modellen in een verscheidenheid aan velden gebruikt worden, daar twijfel ik niet aan. Maar laten we het houden bij toepassingen waar menselijke breinen het gegenereerde materiaal bewerken voor het het daglicht ziet. Misschien moeten we alvast maar beginnen met het verzinnen van een nieuwe naam. Want kunstmatig is “AI” zeker, maar intelligent allerminst.

Tags

Tags:

Martin Scholten

Martin Scholten

Martin werkt sinds 2023 bij Apparata en is gespecialiseerd in series, gaming, artificial intelligence en social media. Voordat hij deel uitmaakte van het team van Apparata, was hij tekstschrijver bij 42bis. Hij studeerde Arts, Media en Society aan de Universiteit Leiden. In zijn vrije tijd is Martin een fervent darter en oefent hij wekelijks in zijn favoriete stamcafé.

Alle artikelen door Martin Scholten
Populaire artikelen
Populaire categorieën