Op 12 september 2025 maakte SURF bekend dat Microsoft 365 Copilot for Education nog steeds twee belangrijke privacyrisico's met zich meebrengt — ondanks aanzienlijke verbeteringen van Microsoft. De geüpdatete Data Protection Impact Assessment (DPIA), uitgevoerd door Privacy Company, toont aan dat de tool nog niet veilig genoeg is voor onbeperkt gebruik in scholen en universiteiten. Het is een keerpunt in de discussie over kunstmatige intelligentie in het onderwijs: het advies is niet langer ‘niet gebruiken’, maar ‘gebruik met ogen open’.
De eerste blijvende zorg: Copilot genereert onnauwkeurige of onvolledige persoonsgegevens. Denk aan een docent die wordt genoemd in een samenvatting, maar met een verkeerde functie, of een student wiens geboortedatum wordt verzonnen. Het risico? Leerkrachten en bestuurders vertrouwen te veel op de AI. ‘Je denkt: dat komt van Microsoft, dat moet kloppen,’ zegt een onderwijsadviseur uit Utrecht. ‘Maar als de AI een fout maakt, en die wordt gebruikt in een rapport of communicatie, dan is de reputatieschade enorm.’
Het tweede medium-risico is nog subtieler — en misschien nog gevaarlijker: de 18-maandse bewaartermijn van telemetriegegevens. Microsoft bewaart ‘Required Service Data’ en ‘Telemetry Data’ voor 18 maanden, ook al zijn deze ‘gepseudonimiseerd’. Maar de experts van Privacy Company concluderen: heridentificatie van individuele gebruikers is technisch mogelijk. Dat is een schending van de AVG-principe van ‘data minimization’. Als je data 18 maanden bewaart, en het kan worden teruggekoppeld aan een specifieke leerling, dan is het geen pseudonimisatie — het is een gouden sleutel voor privacyschendingen.
Maar SURF ziet het anders. ‘Niet alle risico’s zijn overtuigend geadresseerd,’ staat in hun officiële mededeling. En dat is het kernpunt. Microsoft heeft de meeste schokken weggenomen — maar de langdurige, subtiele bedreigingen blijven. De 18 maanden bewaren? Dat is geen technisch probleem. Het is een beleidskeuze. En die keuze is nog steeds in strijd met de geest van de AVG.
Bovendien: als een school merkt dat Copilot foutieve gegevens genereert — bijvoorbeeld een verkeerde naam of een fictief examenresultaat — moet dat worden gemeld aan SURF. Dat is geen formaliteit. Dat is cruciaal voor het verzamelen van bewijs: hoe vaak gebeurt dit? Waarom? En hoe kan Microsoft het oplossen?
Kennisnet, het nationale expertisecentrum voor ICT in het onderwijs, steunt dit advies volledig. Zij verwijzen scholen naar de ‘toolkit schoolafspraken generatieve AI’ — een praktische handleiding voor het opstellen van beleid. ‘In het primair en voortgezet onderwijs is het risico op misverstand en onterechte invloed het grootst,’ zegt een woordvoerder van Kennisnet. ‘Daarom: geen automatisch gebruik. Alleen met bewuste keuze.’
En dan zijn er nog de negen ‘lage’ risico’s. Die lijken onschuldig: beperkte aanpasbaarheid van instellingen, ondoorzichtige filters, gebrek aan controle. Maar SURF benadrukt: ‘Die worden pas laag als de scholen de aanbevelingen opvolgen.’ Zonder beleid, zonder training, zonder monitoring — dan worden die ‘lage’ risico’s snel ‘middelgrote’ of zelfs ‘hoge’ risico’s.
Het is niet Microsoft’s schuld. Het is ons verhaal. We hebben gekozen voor een tool die op de achtergrond werkt — en nu moeten we leren hoe we die tool beheersen. Niet andersom.
Omdat Microsoft de grootste risico’s heeft verminderd, maar niet opgelost. De 18-maandse bewaartermijn en het risico op foutieve persoonsgegevens blijven bestaan — en beide kunnen in strijd zijn met de AVG. Verbeteringen zijn goed, maar niet voldoende voor een veilig gebruik in het onderwijs.
SURF raadt geen volledig verbod aan, maar wel ‘terughoudend gebruik’. Scholen mogen het alleen gebruiken als ze duidelijke richtlijnen hebben, Bing blokkeren, en de AI-output handmatig controleren. Zonder deze maatregelen is het te riskant.
Microsoft bewaart telemetriegegevens 18 maanden, ook al zijn ze ‘gepseudonimiseerd’. Maar experts kunnen deze data mogelijk weer koppelen aan individuele gebruikers — bijvoorbeeld door combinaties van tijdstippen, zoekopdrachten en app-gebruik. Dat schendt het AVG-principe dat persoonsgegevens niet langer mogen worden bewaard dan nodig.
De docent moet de fout melden aan de schoolbeheerder, en die moet het rapporteren aan SURF. SURF verzamelt deze meldingen om patronen te herkennen — bijvoorbeeld of bepaalde namen vaak foutief worden gegenereerd. Dat helpt Microsoft om de AI te verbeteren, en geeft SURF bewijs voor een mogelijke nieuwe waarschuwing.
Bing verwerkt zoekopdrachten in de cloud en koppelt ze aan gebruikersprofielen. Als Copilot Bing gebruikt om informatie op te zoeken, worden leerling- of docentenzoekopdrachten mogelijk opgeslagen en gebruikt voor training van de AI. Blokkeren voorkomt dat privé-informatie uit het onderwijs in Microsoft’s AI-model terechtkomt.
SURF gaat over zes maanden, rond maart 2026, een nieuwe DPIA publiceren. Dan beoordelen ze of Microsoft de resterende risico’s daadwerkelijk heeft aangepakt — vooral de 18-maandse bewaartermijn en de mogelijkheid tot heridentificatie. Als er geen vooruitgang is, kan het advies terugkeren naar ‘niet gebruiken’.