Direct contact?
Stephan ter Horst - de Rolf groep
Neem contact op Stephan ter Horst Modern Workplace Specialist
Neem contact op
Gepubliceerd op 16 januari 2025
Leestijd 8 min

Privacy in het primair onderwijs staat steeds meer onder druk, vooral door de groeiende integratie van AI-tools zoals Microsoft 365 CoPilot in systemen zoals Windows, Microsoft Office en Microsoft Edge. Een recent uitgevoerd Data Protection Impact Assessment (DPIA) door SURF heeft de mogelijke risico’s van dergelijke tools onderzocht. De bevindingen zijn van groot belang voor ICT-coördinatoren in het onderwijs. 

Wat zegt het DPIA over Microsoft 365 CoPilot?

Het DPIA identificeert vier hoog risico-items en zeven laag risico-items die verband houden met het gebruik van Microsoft 365 CoPilot. Voor de vier hoog risico-items zijn er op dit moment geen afdoende maatregelen beschikbaar. Hierdoor wordt het gebruik van deze tool voorlopig afgeraden binnen het onderwijs. Het is belangrijk dat scholen maatregelen nemen om de privacy van leerlingen en medewerkers te beschermen, bijvoorbeeld door ongewenste AI-tools op Windows-apparaten te blokkeren. Het volledige DPIA-rapport biedt meer gedetailleerde informatie.

Brede verspreiding van AI in toepassingen

AI-tools zijn niet beperkt tot specifieke software, maar zijn inmiddels diep verweven in veelgebruikte toepassingen zoals:

  • Browsers: AI-integraties in bijvoorbeeld Edge en Chrome.
  • Chatbots: Tools zoals ChatGPT en Bing Chat.
  • Tekstverwerkers en presentatietools: Functionaliteiten zoals CoPilot in Word, Excel en PowerPoint.
  • Spraakassistenten: Siri, Google Assistant en Alexa.
  • Sociale media en videoplatforms: AI-gestuurde aanbevelingssystemen.

Veel van deze toepassingen zijn beschikbaar op privéapparaten, zoals smartphones en tablets, die buiten de controle van de school vallen. Dit maakt het voor ICT-coördinatoren lastig om volledig overzicht en controle te houden.

Gratis betekent betalen met data

Veel AI-tools worden gratis aangeboden, maar de echte prijs is vaak minder zichtbaar. Gebruikers betalen indirect met de data die zij invoeren. Deze gegevens kunnen worden opgeslagen, gebruikt om AI-modellen te verbeteren, en zelfs gedeeld met andere gebruikers die vergelijkbare vragen stellen. Dit vergroot het risico op datalekken en onbedoeld delen van gevoelige informatie.

Het is belangrijk om te begrijpen dat gratis gebruik meestal betekent dat jouw data het product is. Door data te delen met AI-tools kan onbewust privacygevoelige informatie worden verspreid. Dit benadrukt de noodzaak voor scholen om bewustwording te creëren rondom de impact van dergelijke toepassingen.

De implicaties voor ICT-coördinatoren

ICT-coördinatoren moeten rekening houden met de volgende aandachtspunten:

  • Risicoanalyse: Breng in kaart welke AI-tools binnen de schoolomgeving worden gebruikt en welke risico’s hieraan verbonden zijn.
  • Blokkeren van tools: Zorg voor het blokkeren van AI-tools op beheerde apparaten om ongewenst gebruik te voorkomen.
  • Bewustwording: Informeer leerkrachten, leerlingen en eventueel ouders over de risico’s van AI-tools en het belang van dataprivacy.
  • Beleid en richtlijnen: Stel duidelijke richtlijnen op voor het gebruik van AI-tools binnen en buiten school.
  • Samenwerking met partners: Werk samen met leveranciers en ICT-dienstverleners om privacyvriendelijke oplossingen te implementeren.

Wat betekent dit voor de toekomst?

De integratie van AI in software en apparaten zal alleen maar toenemen. Dit vraagt om een voortdurende evaluatie van de risico’s en het aanpassen van maatregelen. ICT-coördinatoren spelen een cruciale rol in het waarborgen van een veilige digitale leeromgeving door zowel technische oplossingen als bewustwording en beleid centraal te stellen.

Het beschermen van privacy is een gezamenlijke verantwoordelijkheid. Door goed op de hoogte te blijven van trends en ontwikkelingen kunnen scholen effectief anticiperen op nieuwe uitdagingen in een steeds digitaler onderwijslandschap.