Is generatieve AI de digitale toren van Babel? Hoogmoed komt voor de val
Stel je voor: een mysterieuze ziekte teistert een afgelegen stam in Papoea-Nieuw-Guinea. De hersenen van de getroffenen degenereren razendsnel, en al snel ontdekken wetenschappers de oorzaak - een ritueel waarbij de overledenen worden geconsumeerd. Deze ziekte, later bekend als Kuru, verspreidde zich doordat de stam zichzelf letterlijk opat.
Nu, decennia later, zien we een vergelijkbaar fenomeen in de wereld van artificiële intelligentie (AI). Nee, onze computers zijn niet begonnen elkaar op te eten (gelukkig maar!), maar er gebeurt wel iets verontrustends: generatieve AI-systemen (hierna gewoonweg AI voor de leesbaarheid) 'consumeren' steeds vaker hun eigen output, met potentieel desastreuze gevolgen.
Welkom in de wereld van 'model collapse' en 'shitification' - two-dollar woorden voor een miljardenprobleem.
De Digitale Toren van Babel
Laten we even teruggaan naar het Bijbelverhaal van de Toren van Babel. De mensheid, overmoedig en ambitieus, besloot een toren te bouwen die tot in de hemel zou reiken. Het resultaat? Een goddelijke interventie die leidde tot een kakofonie van talen en de verspreiding van de mensheid.
Fast forward naar vandaag, en we zien een soortgelijke overmoed in de AI-wereld. We bouwen steeds grotere, krachtigere modellen, gevoed door een schijnbaar oneindige stroom aan data. Maar wat als die datastroom opraakt en steeds meer vervuild raakt met AI-gegenereerde onzin?
Model Collapse: Als AI zichzelf opeet
Laten we even duiken in het fascinerende, zij het zorgwekkende, fenomeen van 'model collapse', bedacht door Shumailov et al.1. Stelt u zich voor: een AI die steeds meer op zichzelf gaat lijken, als een digitale narcissus die verliefd wordt op zijn eigen spiegelbeeld. Klinkt als sciencefiction? Helaas niet.
Vroege Model Collapse: De eerste scheurtjes
In de beginfase van model collapse begint het AI-systeem subtiel informatie te verliezen, vooral over zeldzame gebeurtenissen. Het is als een schilder die steeds zijn eigen schilderijen kopieert - bij elke kopie gaan er net wat details verloren.
Concreet betekent dit dat een generatief AI-model, getraind op zijn eigen output, steeds minder variatie produceert. Stel, we hebben een AI die nieuwsartikelen schrijft. Na verloop van tijd zouden alle artikelen over zeldzame gebeurtenissen, zoals een maansverduistering of een politieke aardverschuiving, steeds generieker worden. De nuances en unieke details verdwijnen langzaam maar zeker.
Voor generatieve AI-systemen betekent dit een geleidelijke afname in creativiteit en diversiteit. De 'long tail' van mogelijkheden wordt steeds korter, waardoor de output voorspelbaarder en minder interessant wordt. En juist doordat kleine datasets uit het AI-systeem gefilterd worden kan dat leiden tot discriminatie van minderheden.
Late Model Collapse: De digitale implosie
Als we dit proces doorzetten, komen we in de fase van late model collapse. Hier gaat het echt mis. Het AI-systeem verliest het vermogen om verschillende soorten informatie van elkaar te onderscheiden. Het is alsof onze schilder nu alle kleuren door elkaar heeft gemengd tot een ondefinieerbare bruine massa.
In deze fase produceert een generatief AI-systeem output die nauwelijks nog verschilt, ongeacht de input. Onze nieuwsschrijvende AI zou nu artikelen produceren die allemaal op elkaar lijken, of het nu gaat over sport, politiek of het weer.
De implicaties hiervan zijn verstrekkend. Een chatbot zou bijvoorbeeld dezelfde antwoorden geven op totaal verschillende vragen. Een AI die codeert, zou steeds dezelfde structuren genereren, ongeacht de specificaties van het project. De output wordt een soort digitale eenheidsworst - voorspelbaar, saai en vaak gewoonweg incorrect.
De vicieuze cirkel van zelfversterking
Het verraderlijke aan model collapse is dat het een zelfversterkend effect heeft. Naarmate de output van het AI-systeem homogener wordt, wordt de data waarop het systeem traint ook homogener. Dit versnelt het proces van model collapse, wat leidt tot een neerwaartse spiraal van kwaliteitsverlies.
Voor generatieve AI betekent dit dat we, zonder ingrijpen, kunnen eindigen met systemen die alleen nog maar 'ruis' produceren - output die statistisch plausibel lijkt, maar inhoudelijk betekenisloos is.
Shitification: De neerwaartse spiraal van digitale content
In de wandelgangen van Silicon Valley en daarbuiten wordt dit proces ook wel 'shitification' genoemd. Een weinig elegante term, maar wel een die de essentie perfect vangt: de gestage verslechtering van de kwaliteit van digitale content.
Stel je voor: een AI schrijft een artikel, een andere AI leest en 'leert' daarvan, om vervolgens zelf weer een artikel te produceren. Herhaal dit proces een aantal keren, en voor je het weet, heb je een digitaal equivalent van het fluisterspel - maar dan zonder de humor.
De publieke sector: Tussen hoop en vrees
Nu hoor ik u denken: "Leuk en aardig, maar wat heeft dit met de publieke sector te maken?" Meer dan u denkt! Hoewel de Nederlandse overheid nog niet massaal AI inzet is vooruitkijken toch belangrijk.
Stel je voor: een gemeente die AI gebruikt om beleidsvoorstellen te genereren, gebaseerd op eerdere voorstellen... die ook door AI zijn gegenereerd. Of een uitkeringsinstantie die beslissingen neemt op basis van door AI geanalyseerde data... die zelf ook weer door AI is gegenereerd.
De risico's zijn legio:
- Verminderde kwaliteit van besluitvorming: Als de input rommel is, is de output dat ook.
- Onbedoelde discriminatie: Als AI-modellen bepaalde groepen over het hoofd zien, kan dit leiden tot systematische uitsluiting.
- Erosie van publiek vertrouwen: Burgers verwachten (terecht) dat overheidsbesluiten gebaseerd zijn op solide, feitelijke informatie.
Licht aan het einde van de tunnel
Maar niet getreurd! Er is hoop. Door bewust en kritisch om te gaan met AI-technologie, kunnen we de voordelen ervan benutten zonder in de valkuilen te trappen. Hier zijn enkele strategieën:
- Houd de mens in the loop: AI is een geweldige assistent, maar een verschrikkelijke baas. Zorg voor menselijke supervisie en eindverantwoordelijkheid.
- Wees kritisch: Gebruik AI als een oplossing voor specifieke problemen, niet als een magische oplossing voor alles.
- Evalueer regelmatig: Herijk AI-systemen vaak met verse, door mensen geverifieerde data. Denk aan een digitale APK.
- Diversiteit is key: Zorg voor diverse en representatieve datasets. Een AI getraind op alleen mannen van middelbare leeftijd zal de wereld ook zo zien.
- Transparantie boven alles: Maak duidelijk wanneer en hoe AI wordt gebruikt. Publiceer AI-impactanalyses, ontwikkel visualisatietools, en schrijf heldere documentatie.
- Breng de experts samen: Stimuleer samenwerking tussen AI-nerds, beleidsmakers, ethici en domeinexperts. Diversiteit in denken leidt tot betere oplossingen.
Een oproep tot actie
De uitdagingen zijn groot, maar niet onoverkomelijk. Als Highberg zijn we gepassioneerd over het verantwoord inzetten van AI in de publieke sector. We bieden:
- Expert advies over AI-implementatie (zonder de hype)
- Begeleiding bij de ontwikkeling en toepassing van robuuste, 'shitification-resistente' AI-systemen
- Trainingen over AI-ethiek (nee, niet saai!)
- Advies over de inzet van transparante AI-systemen
Bent u een beleidsmaker, CIO of CDO in de publieke sector? Laten we samen bouwen aan een toekomst waarin AI een betrouwbare partner is, geen digitale Frankenstein. De toekomst van AI in de publieke sector schrijven we samen. Niet met een AI-gegenereerd script, maar met menselijke creativiteit, kritisch denken en een flinke dosis nuchterheid. Neem vandaag nog contact met ons op. Laten we samen voorkomen dat de digitale toren van Babel instort voordat hij af is.