AI veilig, verantwoord en duurzaam inzetten: daar gaat Kiem voor
Binnen Kiem gaan de meningen over AI van: “Ik weet niet of we hier iets mee moeten.” Tot: “Dit verandert alles, we lopen achter.” Wim van der Veen, bij Kiem verantwoordelijk voor ICT, informatiebeveiliging en privacy, reageert nuchter: “AI verandert zeker het onderwijs, maar het onderwijs verandert continu. Laten we goed blijven nadenken hoe wij ons tot AI verhouden.” Daarom heeft Kiem een AI-kader opgesteld.
Onderzoeksgroep AI
Het onderwerp AI kwam binnen Kiem steeds nadrukkelijker op tafel. Daarom werd besloten om een onderzoeksgroep AI samen te stellen en goed te onderzoeken wat AI betekent voor ons onderwijs en onze opvang. Wim werd gevraagd daarbij aan te sluiten.
Het AI-kader van Kiem
Hoe Kiem zich wil verhouden tot AI, is een vraag die Wim aan het hart gaat. “Niemand, zelfs de knapste koppen niet, kan AI volledig doorgronden. Maar dat ontslaat ons niet van de verantwoordelijkheid om er bewust mee om te gaan. AI moet veilig, verantwoord en duurzaam worden ingezet.”
Samen met de onderzoeksgroep dook Wim in de literatuur, ging hij in gesprek met experts en vertaalde hij die inzichten naar een AI-kader voor Kiem. Binnen Kiem werken we volgens de drie-eenheid: wat moet, wat hoort, wat kan. Het AI-kader sluit daarop aan. Het geeft ruimte, maar stelt ook duidelijke grenzen.
“De spelregels van het AI-kader zijn direct verbonden aan de zes leidende principes uit de Kiem-koers”, vertelt Wim. “Bij ieder principe stelden we de vraag: hoe verhoudt AI zich hiertoe? Neem bijvoorbeeld Aanbod volgt het leven. In het kader staat daarover: je geeft vorm aan de ontwikkeling van AI, terwijl je midden in die ontwikkeling zit. Dat betekent dat we erkennen dat AI zelf continu verandert en dat wij dus ook lerend onderweg zijn. We mogen ontdekken wat werkt en wat niet, maar doen dat samen. Niet ieder voor zich experimenteren, maar ervaringen delen, elkaar scherp houden en gezamenlijk verantwoordelijkheid nemen voor hoe AI binnen Kiem wordt ingezet.”
De grootste kans: leren ‘verstoord’ door AI
Als Wim kijkt naar kansen, ziet hij iets interessants. Niet alleen leren mét AI, maar vooral leren dat wordt ‘verstoord’ door AI. “Vroeger maakte een leerling een werkstuk over Napoleon. Nu kan ChatGPT dat in tien seconden doen. Dan moet een leerkracht opnieuw nadenken: wat is eigenlijk het doel dat ik wil bereiken? Dat vraagt meer denkkracht van ons als professional. Maar het biedt ook kansen. Je kunt bijvoorbeeld een AI-gegenereerd werkstuk laten vergelijken met een zelfgelezen boek. Je kunt kinderen leren kritisch kijken: welk perspectief zie je? Welke keuzes zijn gemaakt? Wat ontbreekt? AI kan zo een aanleiding zijn om dieper te leren denken.”
Het grootste risico: privacy en bewustzijn
Naast zijn rol in innovatie is Wim ook verantwoordelijk voor informatiebeveiliging en privacy. En daar zit een duidelijke zorg. “Een portfolio of een diagnose van een kind uploaden in een AI-tool om het te laten samenvatten? Dat kan niet. Dan deel je persoonsgegevens van een kind met een chatbot en dat is een no-go.” Daarom zijn er duidelijke afspraken gemaakt. AI mag nooit ten koste gaan van de veiligheid van kinderen, ouders of collega’s. Bewustwording staat centraal.
Wat AI nooit mag vervangen
Op één punt is Wim glashelder: “Wat AI nooit mag en kan vervangen, is de verbinding.” De relatie tussen leerkracht en leerling. Tussen pedagogisch medewerker en kind. Tussen collega’s onderling. Wim: “Het draait zowel in onderwijs als opvang om menselijke verbinding die niet door een computer te vervangen is.” Hij illustreert dat met een voorbeeld: “Als een kind valt op het plein, plakt een chatbot geen pleister. En als een kind gepest wordt, biedt AI geen hulp. Het draait in het onderwijs niet alleen om kwalificatie, maar ook om socialisatie en subjectivering. De balans tussen deze drie onderdelen moet er zijn.”
Training en gesprek op de werkvloer
In oktober, november en maart zijn er trainingen georganiseerd voor iCoaches, directeuren en betrokkenen. De iCoaches zijn vervolgens aan de slag gegaan in hun eigen kindcentrum. Ze trainen hun collega’s in de tools die we gebruiken en de afspraken die we maken. Daarnaast ontvingen alle Kiem-collega’s filmpjes van Wim over wet- en regelgeving. Het onderzoeksteam stelt daarmee duidelijke kaders, maar faciliteert ook het gesprek over AI.
Sommige collega’s gebruiken AI al regelmatig, anderen nog helemaal niet. Beide is oké, zolang het binnen de afgesproken kaders gebeurt en met bewustzijn van kansen én risico’s.
#ai #onderzoeksteam #icoaches #privacy #bewustzijn #informatiebeveiliging #digitalewereld