SURF waarschuwt voor blijvende privacyrisico's bij Microsoft Copilot in onderwijs
21 nov

Op 12 september 2025 maakte SURF bekend dat Microsoft 365 Copilot for Education nog steeds twee belangrijke privacyrisico's met zich meebrengt — ondanks aanzienlijke verbeteringen van Microsoft. De geüpdatete Data Protection Impact Assessment (DPIA), uitgevoerd door Privacy Company, toont aan dat de tool nog niet veilig genoeg is voor onbeperkt gebruik in scholen en universiteiten. Het is een keerpunt in de discussie over kunstmatige intelligentie in het onderwijs: het advies is niet langer ‘niet gebruiken’, maar ‘gebruik met ogen open’.

Van rood naar oranje — maar nog steeds gevaarlijk

Toen SURF in december 2024 de eerste DPIA publiceerde, stond er vier ‘hoge’ of ‘rode’ risico’s op de lijst. De grootste zorg: Microsoft verwerkte persoonsgegevens van leerlingen en docenten zonder duidelijke transparantie. Gebruikers konden niet inzien welke data werd opgeslagen, en verzoeken om inzage waren volgens SURF ‘onvolledig en onbegrijpelijk’. Nu, negen maanden later, zijn die vier rode risico’s gereduceerd tot twee ‘medium’-risico’s. Dat klinkt als vooruitgang — en dat is het ook. Maar het is geen groen licht.

De eerste blijvende zorg: Copilot genereert onnauwkeurige of onvolledige persoonsgegevens. Denk aan een docent die wordt genoemd in een samenvatting, maar met een verkeerde functie, of een student wiens geboortedatum wordt verzonnen. Het risico? Leerkrachten en bestuurders vertrouwen te veel op de AI. ‘Je denkt: dat komt van Microsoft, dat moet kloppen,’ zegt een onderwijsadviseur uit Utrecht. ‘Maar als de AI een fout maakt, en die wordt gebruikt in een rapport of communicatie, dan is de reputatieschade enorm.’

Het tweede medium-risico is nog subtieler — en misschien nog gevaarlijker: de 18-maandse bewaartermijn van telemetriegegevens. Microsoft bewaart ‘Required Service Data’ en ‘Telemetry Data’ voor 18 maanden, ook al zijn deze ‘gepseudonimiseerd’. Maar de experts van Privacy Company concluderen: heridentificatie van individuele gebruikers is technisch mogelijk. Dat is een schending van de AVG-principe van ‘data minimization’. Als je data 18 maanden bewaart, en het kan worden teruggekoppeld aan een specifieke leerling, dan is het geen pseudonimisatie — het is een gouden sleutel voor privacyschendingen.

Wat Microsoft wel heeft verbeterd — en wat niet

Microsoft heeft wel degelijk actie ondernomen. Sinds december 2024 werkte het bedrijf nauw samen met SURF en het Strategisch Leveranciersmanagement Microsoft (SLM) van de Rijksoverheid. De resultaten: meer transparantie over welke gegevens worden verwerkt, een verbeterde gebruikersinterface voor inzage, en een toezegging om data-gebruik beter te kunnen controleren. Jet de Ranitz, Public Sector Lead bij Microsoft Nederland, noemde dit ‘significante verbeteringen’. ‘De belangrijkste bezwaren zijn uit de weg geruimd,’ zei ze op 25 januari 2025.

Maar SURF ziet het anders. ‘Niet alle risico’s zijn overtuigend geadresseerd,’ staat in hun officiële mededeling. En dat is het kernpunt. Microsoft heeft de meeste schokken weggenomen — maar de langdurige, subtiele bedreigingen blijven. De 18 maanden bewaren? Dat is geen technisch probleem. Het is een beleidskeuze. En die keuze is nog steeds in strijd met de geest van de AVG.

Wat scholen en universiteiten nu moeten doen

Wat scholen en universiteiten nu moeten doen

SURF adviseert geen verbod — maar wel: terughoudend gebruik. Het is geen ‘nee’, maar een ‘niet zonder voorwaarden’. En daarom geeft SURF drie concrete aanbevelingen:

  • Stel duidelijke gebruiksrichtlijnen voor generatieve AI op — voor docenten, studenten en bestuurders.
  • Blokkeer toegang tot Bing via Copilot. Bing verwerkt zoekopdrachten in de cloud — en dat brengt extra data-risico’s met zich mee.
  • Monitoreer de output. Geen AI-output mag zonder menselijke controle worden gebruikt in administratie, rapporten of communicatie.

Bovendien: als een school merkt dat Copilot foutieve gegevens genereert — bijvoorbeeld een verkeerde naam of een fictief examenresultaat — moet dat worden gemeld aan SURF. Dat is geen formaliteit. Dat is cruciaal voor het verzamelen van bewijs: hoe vaak gebeurt dit? Waarom? En hoe kan Microsoft het oplossen?

Kennisnet, het nationale expertisecentrum voor ICT in het onderwijs, steunt dit advies volledig. Zij verwijzen scholen naar de ‘toolkit schoolafspraken generatieve AI’ — een praktische handleiding voor het opstellen van beleid. ‘In het primair en voortgezet onderwijs is het risico op misverstand en onterechte invloed het grootst,’ zegt een woordvoerder van Kennisnet. ‘Daarom: geen automatisch gebruik. Alleen met bewuste keuze.’

Wat er nog komt — en waarom het belangrijk is

SURF heeft een vinger aan de pols. Over zes maanden, verwacht rond maart 2026, komt er een nieuwe beoordeling. Dan kijken ze: heeft Microsoft de resterende risico’s daadwerkelijk aangepakt? Of zijn de toezeggingen gewoon woorden? De komende maanden zijn cruciaal. Als Microsoft geen concrete stappen zet om de 18-maandse bewaartermijn aan te passen — of om heridentificatie volledig uit te sluiten — dan kan SURF terugkomen met een scherpere waarschuwing. Misschien zelfs met een nieuw verbod.

En dan zijn er nog de negen ‘lage’ risico’s. Die lijken onschuldig: beperkte aanpasbaarheid van instellingen, ondoorzichtige filters, gebrek aan controle. Maar SURF benadrukt: ‘Die worden pas laag als de scholen de aanbevelingen opvolgen.’ Zonder beleid, zonder training, zonder monitoring — dan worden die ‘lage’ risico’s snel ‘middelgrote’ of zelfs ‘hoge’ risico’s.

De bredere boodschap: AI is geen wondermiddel

De bredere boodschap: AI is geen wondermiddel

Deze DPIA is geen technisch document. Het is een morele waarschuwing. We willen AI in het onderwijs — voor meer tijd, meer personalisatie, meer efficiëntie. Maar we willen geen AI die fouten maakt over kinderen. Die gegevens bewaart die niet moeten worden bewaard. Die vertrouwen wekt waar geen vertrouwen mag zijn.

Het is niet Microsoft’s schuld. Het is ons verhaal. We hebben gekozen voor een tool die op de achtergrond werkt — en nu moeten we leren hoe we die tool beheersen. Niet andersom.

Frequently Asked Questions

Waarom blijft SURF waarschuwen als Microsoft verbeteringen heeft gedaan?

Omdat Microsoft de grootste risico’s heeft verminderd, maar niet opgelost. De 18-maandse bewaartermijn en het risico op foutieve persoonsgegevens blijven bestaan — en beide kunnen in strijd zijn met de AVG. Verbeteringen zijn goed, maar niet voldoende voor een veilig gebruik in het onderwijs.

Mag een school Copilot nu wel of niet gebruiken?

SURF raadt geen volledig verbod aan, maar wel ‘terughoudend gebruik’. Scholen mogen het alleen gebruiken als ze duidelijke richtlijnen hebben, Bing blokkeren, en de AI-output handmatig controleren. Zonder deze maatregelen is het te riskant.

Wat is het risico van de 18-maandse bewaartermijn?

Microsoft bewaart telemetriegegevens 18 maanden, ook al zijn ze ‘gepseudonimiseerd’. Maar experts kunnen deze data mogelijk weer koppelen aan individuele gebruikers — bijvoorbeeld door combinaties van tijdstippen, zoekopdrachten en app-gebruik. Dat schendt het AVG-principe dat persoonsgegevens niet langer mogen worden bewaard dan nodig.

Wat moet een docent doen als Copilot een foutieve naam genereert?

De docent moet de fout melden aan de schoolbeheerder, en die moet het rapporteren aan SURF. SURF verzamelt deze meldingen om patronen te herkennen — bijvoorbeeld of bepaalde namen vaak foutief worden gegenereerd. Dat helpt Microsoft om de AI te verbeteren, en geeft SURF bewijs voor een mogelijke nieuwe waarschuwing.

Waarom is Bing blokkeren zo belangrijk?

Bing verwerkt zoekopdrachten in de cloud en koppelt ze aan gebruikersprofielen. Als Copilot Bing gebruikt om informatie op te zoeken, worden leerling- of docentenzoekopdrachten mogelijk opgeslagen en gebruikt voor training van de AI. Blokkeren voorkomt dat privé-informatie uit het onderwijs in Microsoft’s AI-model terechtkomt.

Wanneer komt er een nieuwe beoordeling van SURF?

SURF gaat over zes maanden, rond maart 2026, een nieuwe DPIA publiceren. Dan beoordelen ze of Microsoft de resterende risico’s daadwerkelijk heeft aangepakt — vooral de 18-maandse bewaartermijn en de mogelijkheid tot heridentificatie. Als er geen vooruitgang is, kan het advies terugkeren naar ‘niet gebruiken’.

Maurits Veenstra

Maurits Veenstra

Mijn naam is Maurits Veenstra en ik ben een gepassioneerde kok en receptontwikkelaar. Ik heb jarenlange ervaring in diverse keukens en ben altijd op zoek naar nieuwe smaakcombinaties en culinaire technieken. In mijn vrije tijd schrijf ik graag over mijn favoriete recepten en deel ik mijn kennis en ervaring met anderen. Mijn doel is om mensen te inspireren en te helpen bij het ontdekken van nieuwe ingrediënten, smaken en kooktechnieken. Samen met mijn vrouw, Lisanne de Vries, run ik een succesvolle foodblog en geef ik kookworkshops in onze lokale gemeenschap. We hebben twee kinderen, Jurjen en Evelien, en een labrador genaamd Bruno. In mijn vrije tijd geniet ik van tuinieren, lezen en reizen.