Ook zonder plan vindt GenAI zich een weg in jouw organisatie
‘Onze medewerkers kennen de risico’s van ChatGPT’ is een uitspraak die wij voorbij horen komen in ons dagelijkse werk, maar is dit wel zo? Er bestaan zat voorbeelden van generatieve AI (kortweg genAI) die op minder dan optimale wijze zijn ingezet. Daarom lijkt het soms beter om het maar helemaal niet te gebruiken. Adviseurs en gebruikers denken dat de inzet van genAI kosten bespaart en dat je ontkomt aan alle risico's waarover iedereen op LinkedIn oreert. In deze blog bieden we praktische handvatten om aan de slag te gaan met een genAI-strategie.
Wij komen in toenemende mate het gebruik van genAI tegen binnen organisaties, zelfs wanneer de organisatie het gebruik van deze technologie niet faciliteert, ontmoedigt of zelfs verbiedt. Ondanks de inherente risico's van zakelijk gebruik van genAI, zien medewerkers eerder de voordelen dan de risico's. Een organisatie waarin medewerkers werken met genAI, maar waar in de hogere echelons het beeld leeft dat dit niet gebeurt, is daarmee de regie kwijt. Daarmee is de vraag gerechtvaardigd: hoe zet je genAI verstandig in, te midden van die vele voor- en nadelen?
Strategie uitvoering
Bij het uitvoerbaar maken van een strategie, zeker op het gebied van genAI, spelen zowel beleid als een bijbehorend uitvoerbaar plan een essentiële rol. Wij adviseren om in dit plan, aan de hand van de strategie, te beschrijven óf medewerkers binnen de organisatie gebruik mogen maken van genAI, en zo ja, bij welke werkzaamheden en met welke beperkingen. In hoeverre de inzet van genAI gewenst is verschilt per branche en per organisatie en tussen publieke en private ondernemingen. Geen enkele organisatie ontkomt aan de afweging over genAI. Zelfs als de conclusie is dat genAI wegens zwaarwegende redenen helemaal niet gebruikt mag worden, dan nog moet de organisatie die afweging eerst maken. Het is aan de organisatie om een afweging te maken welke aspecten het zwaarste wegen. Zo zal bij de ene organisatie het zwaartepunt bij de vertrouwelijkheid van data liggen, waar bij een andere organisatie het duurzaamheidsaspect heel belangrijk is.
Maar hoe stel je nou een genAI beleid op? Een beleid dat correct en compleet is? En ook nog eens uitvoerbaar? Een simpele eerste stap is het lezen van onze eerdere blog, waarin we aangeven hoe je genAI redelijk veilig kan gebruiken.
Voor de concrete uitwerking van het beleid is een interdisciplinair team nodig, omdat AI enerzijds een specialistisch domein is, maar anderzijds veel domeinen raakt. Zo heb je vermoedelijk de hulp nodig van een security expert, een technisch onderlegd jurist en een (digitaal) ethicus. Ook is de kans groot dat er een regievoerder moet worden aangesteld om al deze disciplines samen te brengen.
Uiteindelijk moet je als organisatie het management en de medewerkers op de hoogte stellen van het nieuwe beleid en wat dit voor hen inhoudt. Hiervoor kan een onderwijskundig specialist uitkomst bieden. Deze specialist kan ondersteunen bij het maken van aansprekende webinars en e-learnings, die de medewerkers helpen bij het internaliseren van het vastgestelde beleid, maar ook bij het opleiden van medewerkers in het gebruik van genAI. Het werk van verschillende medewerkers zal namelijk veranderen – of is al veranderd - door het gebruik van genAI. Bij een veranderende rol horen ook veranderende taken en verantwoordelijkheden. Hierbij moet de organisatie werknemers begeleiden om die nieuwe verantwoordelijkheden te kunnen omarmen met behulp van strategische communicatie. De precieze vorm waarin deze bewustwordingsslag wordt ingeregeld is aan jou, maar deze stap mag niet worden overgeslagen.
Concluderend
Om jouw organisatie genAI-proof, of zelfs genAI-powered, te maken dien je de volgende essentiële stappen te volgen: Stel een genAI-strategie op die richting geeft aan wat de organisatie met genAI wil bereiken. Schrijf vervolgens een beleid dat interdisciplinair uitvoerbaar is. Dit betekent dat het beleid op aspecten is beschreven zoals juridisch, veilig, procesmatig, maatschappelijk, sociaal, organisatorisch en ethisch. Zorg dat het goed technisch werkt én transparant uitlegbaar is. Zorg er tot slot voor dat dit beleid uitvoerbaar wordt met een plan met de betrokkenheid van een regievoerder en onderwijskundigen.
Geprikkeld, geïnteresseerd of het ergens mee oneens?
Neem dan contact op met Jules van den Berg en/of Daan Smits. Jules en Daan zijn consultants bij Highberg en adviseren op het gebied van AI architectuur en digitale strategie.