Laten we even teruggaan naar het Bijbelverhaal van de Toren van Babel. De mensheid, overmoedig en ambitieus, besloot een toren te bouwen die tot in de hemel zou reiken. Het resultaat? Een goddelijke interventie die leidde tot een kakofonie van talen en de verspreiding van de mensheid.
Fast forward naar vandaag, en we zien een soortgelijke overmoed in de AI-wereld. We bouwen steeds grotere, krachtigere modellen, gevoed door een schijnbaar oneindige stroom aan data. Maar wat als die datastroom opraakt en steeds meer vervuild raakt met AI-gegenereerde onzin?
Laten we even duiken in het fascinerende, zij het zorgwekkende, fenomeen van ‘model collapse’, bedacht door Shumailov et al.1. Stelt u zich voor: een AI die steeds meer op zichzelf gaat lijken, als een digitale narcissus die verliefd wordt op zijn eigen spiegelbeeld. Klinkt als sciencefiction? Helaas niet.
In de beginfase van model collapse begint het AI-systeem subtiel informatie te verliezen, vooral over zeldzame gebeurtenissen. Het is als een schilder die steeds zijn eigen schilderijen kopieert – bij elke kopie gaan er net wat details verloren.
Concreet betekent dit dat een generatief AI-model, getraind op zijn eigen output, steeds minder variatie produceert. Stel, we hebben een AI die nieuwsartikelen schrijft. Na verloop van tijd zouden alle artikelen over zeldzame gebeurtenissen, zoals een maansverduistering of een politieke aardverschuiving, steeds generieker worden. De nuances en unieke details verdwijnen langzaam maar zeker.
Voor generatieve AI-systemen betekent dit een geleidelijke afname in creativiteit en diversiteit. De ‘long tail’ van mogelijkheden wordt steeds korter, waardoor de output voorspelbaarder en minder interessant wordt. En juist doordat kleine datasets uit het AI-systeem gefilterd worden kan dat leiden tot discriminatie van minderheden.
Als we dit proces doorzetten, komen we in de fase van late model collapse. Hier gaat het echt mis. Het AI-systeem verliest het vermogen om verschillende soorten informatie van elkaar te onderscheiden. Het is alsof onze schilder nu alle kleuren door elkaar heeft gemengd tot een ondefinieerbare bruine massa.
In deze fase produceert een generatief AI-systeem output die nauwelijks nog verschilt, ongeacht de input. Onze nieuwsschrijvende AI zou nu artikelen produceren die allemaal op elkaar lijken, of het nu gaat over sport, politiek of het weer.
De implicaties hiervan zijn verstrekkend. Een chatbot zou bijvoorbeeld dezelfde antwoorden geven op totaal verschillende vragen. Een AI die codeert, zou steeds dezelfde structuren genereren, ongeacht de specificaties van het project. De output wordt een soort digitale eenheidsworst – voorspelbaar, saai en vaak gewoonweg incorrect.
Het verraderlijke aan model collapse is dat het een zelfversterkend effect heeft. Naarmate de output van het AI-systeem homogener wordt, wordt de data waarop het systeem traint ook homogener. Dit versnelt het proces van model collapse, wat leidt tot een neerwaartse spiraal van kwaliteitsverlies.
Voor generatieve AI betekent dit dat we, zonder ingrijpen, kunnen eindigen met systemen die alleen nog maar ‘ruis’ produceren – output die statistisch plausibel lijkt, maar inhoudelijk betekenisloos is.
In de wandelgangen van Silicon Valley en daarbuiten wordt dit proces ook wel ‘shitification’ genoemd. Een weinig elegante term, maar wel een die de essentie perfect vangt: de gestage verslechtering van de kwaliteit van digitale content.
Stel je voor: een AI schrijft een artikel, een andere AI leest en ‘leert’ daarvan, om vervolgens zelf weer een artikel te produceren. Herhaal dit proces een aantal keren, en voor je het weet, heb je een digitaal equivalent van het fluisterspel – maar dan zonder de humor.
Nu hoor ik u denken: “Leuk en aardig, maar wat heeft dit met de publieke sector te maken?” Meer dan u denkt! Hoewel de Nederlandse overheid nog niet massaal AI inzet is vooruitkijken toch belangrijk.
Stel je voor: een gemeente die AI gebruikt om beleidsvoorstellen te genereren, gebaseerd op eerdere voorstellen… die ook door AI zijn gegenereerd. Of een uitkeringsinstantie die beslissingen neemt op basis van door AI geanalyseerde data… die zelf ook weer door AI is gegenereerd.
De risico’s zijn legio:
Maar niet getreurd! Er is hoop. Door bewust en kritisch om te gaan met AI-technologie, kunnen we de voordelen ervan benutten zonder in de valkuilen te trappen. Hier zijn enkele strategieën:
De uitdagingen zijn groot, maar niet onoverkomelijk. Als Highberg zijn we gepassioneerd over het verantwoord inzetten van AI in de publieke sector. We bieden:
Bent u een beleidsmaker, CIO of CDO in de publieke sector? Laten we samen bouwen aan een toekomst waarin AI een betrouwbare partner is, geen digitale Frankenstein. De toekomst van AI in de publieke sector schrijven we samen. Niet met een AI-gegenereerd script, maar met menselijke creativiteit, kritisch denken en een flinke dosis nuchterheid. Neem vandaag nog contact met ons op. Laten we samen voorkomen dat de digitale toren van Babel instort voordat hij af is.
Consultant Data & AI