AI en de ongemakkelijke waarheid

Disclaimer. Deze tekst is niet gegenereerd door AI.

Geschreven door Michel van Melis

Generatieve AI, ook wel GAI genoemd, is de laatste jaren veelbesproken en wordt vaak gezien als wondermiddel of als (acute) bedreiging. Er zijn grofweg twee kampen waarbij het ene kamp vooral kansen ziet en terminologie gebruikt als “efficiënter werken”, “betere analyses”, “snellere besluitvorming” en het andere kamp vooral aangeeft dat AI ons gaat beroven van onze privacy en gebruikt vaak terminologie als; “rogue”, “autonoom” en “vervanger van de mensheid”. En daarbij is het goed dat we beide belichten, maar wie serieus met AI werkt, loopt tegen een veel fundamentelere kwestie aan die we maar al te vaak als ongemakkelijke waarheid zien, en in veel gevallen zelfs, tegen beter weten in, willen negeren.

Ik refereer hier niet naar kansen en/of bedreigingen, maar naar beperkingen. De beperkingen die vaak niet populair zijn in talkshows vanwege hun voorzichtige karakter. Immers; we willen liever een AI-revolutionair zien die ons van alles belooft of een doemdenker die middels een verhaal over killerbots ons wil vertellen dat we ons eigen graf aan het graven zijn. En begrijp me niet verkeerd; er is van elk argument iets te zeggen, maar als we kijken naar vandaag de dag moeten we vooral AI kritisch onder de loep nemen als we het goed willen begrijpen, of willen gebruiken.

AI als voorspeller

Generatieve AI, hier in gemak AI genoemd, kennen we vooral vandaag de dag van modellen zoals ChatGPT, Gemini of Deepseek. AI staat voor Artificial Intelligence en hier gaan we eigenlijk al de fout in. Want Artificial is het zeker, echter intelligent allesbehalve. Een betere naam was wellicht APP, wat staat voor Artificial Pattern Predictor. De modellen zoals ChatGPT voorspellen tekst namelijk op basis van kans; wat is hoogstwaarschijnlijk het volgende woord in deze reeks. Hierbij is het ook het probleem van originaliteit pijnlijk duidelijk; In theorie kun je je afvragen of AI wel echt nieuwe informatie genereert.

Hallucinaties als grootste obstakel

Een van de grootste problemen van AI is het hallucinatieprobleem. Hierbij genereert AI vaak informatie die plausibel klinkt, maar feitelijk onjuist is. Dit betekent dat je AI niet zomaar kunt geloven. Goed, dat doen we ook niet bij onze buurman. Maar het zou toch wel fijn zijn om te weten welke informatie dan niet juist is, en daar ligt het probleem. Dat weten we dus niet. Dat is ook een van de redenen dat veel van onze AI-toepassingen niet (goed) werken. Daarnaast wordt het voor ontwikkelaars zelf ook steeds lastiger om de datatrace terug te halen om te kunnen beoordelen waarom het systeem een bepaalde output genereert.

De gebruiker is de sleutel

Middelmatige kwaliteit genereert meer middelmatige kwaliteit. Hierbij is prompt- en contextengineering cruciaal. Het blijft hier van groot belang dat de eindgebruiker goed weet wat zijn/haar doel is, om zo de output te kunnen genereren die men nodig heeft. Dit vraagt om softskills (analyseren, reflecteren, interpreteren) die de basis vormen voor de kwaliteit. Microsoft heeft wat dat betreft voor zijn systeem de beste naam gekozen; Copilot. Je zit zelf aan het stuur.

Conclusies en impact

  • AI kent cruciale beperkingen die leidend zijn voor het slagen van de inzet van AI;
  • Begrip van de werking kan helpen AI beter te begrijpen en dus ook te benaderen;
  • De eindgebruiker moet soms een stap terug doen om twee stappen vooruit te kunnen;

Dotforma is een bureau gespecialiseerd in AI en digitalisering voor het onderwijs. Meer weten? Stuur ons een bericht!

Laat een reactie achter

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *