Op 12 september 2025 verhoogde SURF de waarschuwing voor Microsoft 365 Copilot van ‘rood’ naar ‘oranje’ — een subtiele, maar cruciale verschuiving. Waar de Nederlandse ondersteuningsorganisatie voor onderwijs en wetenschap vorig jaar nog volledig afriep van het gebruik van de AI-assistent, zegt ze nu: ‘Gebruik het met voorzichtigheid.’ De reden? Microsoft heeft iets verbeterd, maar nog lang niet genoeg. Het risico blijft concreet, tastbaar en onopgelost — vooral voor scholen, universiteiten en onderzoeksinstellingen die met gevoelige gegevens werken.
Hoe kwam het tot deze waarschuwing?
De nieuwe aanbeveling is het resultaat van een grondige Data Protection Impact Assessment (DPIA), uitgevoerd door SURF Vendor Compliance in samenwerking met Privacy Company, een Utrechtse privacyadviseur. Het onderzoek, dat in 2024 al een schokgolf veroorzaakte, is nu bijgewerkt. En hoewel Microsoft enkele maatregelen heeft genomen — zoals betere integratie met Microsoft Purview en geavanceerde gegevensbeveiligingscontroles — blijft de kern van het probleem bestaan: geen duidelijkheid over wat er met jouw gegevens gebeurt.‘Het is niet duidelijk welke persoonsgegevens Microsoft verzamelt over het gebruik van Copilot,’ stond al in het oorspronkelijke rapport van 2024. En dat geldt nog steeds. Gebruikers krijgen geen begrijpelijke uitleg als ze hun eigen gegevens willen inzien. De interface is vaag, de antwoorden technisch en onbegrijpelijk. Het is alsof je een sleutel krijgt, maar geen deur weet waar je mee kunt openen.
Wat is het echte gevaar?
Het grootste risico ligt niet in het hacken van systemen, maar in het vertrouwen. Leerkrachten, onderzoekers en studenten beginnen Copilot te zien als een betrouwbare bron — terwijl het vaak onjuiste, verzonnen of incompleet informatie genereert. Denk aan een docent die een studentenrapport opstelt met Copilot, en per ongeluk fictieve cijfers of verkeerde namen invoegt. Of een onderzoeker die een literatuuronderzoek laat doen, en de AI fictieve bronnen bedenkt die er echt uitzien. Dat is geen fout — dat is een systemisch risico.En dan is er nog de data-lekkage. Onderzoekers van Concentric.ai vonden in 2025 een kwetsbaarheid (CVE-2024-38206) in Copilot Studio die via een server-side request forgery (SSRF) externe verbindingen kon forceren. Dat betekent: als iemand binnen een universiteit Copilot gebruikt met toegang tot gevoelige SharePoint-bestanden, kan de AI — door een fout in de code — onbedoeld gegevens naar buiten sturen. Microsoft noemt dit ‘niet standaard’, maar SURF zegt: ‘Waarom zou je een systeem gebruiken dat potentiële deuren openlaat?’
Wat doet Microsoft?
Microsoft wijst erop dat Copilot werkt binnen de bestaande beveiligingskaders van Microsoft 365: gegevensverliespreventie (DLP), gevoeligheidstags, voorwaardelijke toegang en informatiebarrières. Het is technisch correct — maar SURF ziet het anders. ‘Je kunt geen privacy garanderen door je te verbergen achter een laagje beveiliging dat al oud is,’ zegt een bron binnen SURF. ‘Als je een huis bouwt op een zandbodem, maakt het niet uit hoeveel sloten je erin zet.’Microsoft heeft in juli 2025 updates uitgebracht om Copilot beter te laten samenwerken met documenten en data-analyse. Maar deze updates richten zich op productiviteit — niet op transparantie. De vraag blijft: wie heeft toegang tot wat? En waarom wordt dat niet duidelijk gemaakt?
Wat betekent dit voor scholen en universiteiten?
Alle SURF-leden — dat zijn alle universiteiten, hogescholen en onderzoeksinstellingen in Nederland — moeten dit opnieuw beoordelen. SURF adviseert scholierenbesturen om de risico’s te communiceren via SIVON, het ICT-samenwerkingsplatform voor het voortgezet onderwijs. Het is geen kwestie van ‘niet gebruiken’, maar van ‘gebruiken met ogen open’.Er is geen ban op Copilot meer. Maar er is wel een waarschuwing die hard moet klinken: geen automatisch vertrouwen. Geen gebruik in klassen waar kinderen aanwezig zijn — omdat Microsoft geen licentie biedt voor minderjarigen. Geen gebruik voor persoonlijke studentendata, onderzoeksresultaten of HR-informatie, tenzij er een volledige risicoanalyse is gedaan en beveiligingsmaatregelen zijn opgelegd.
Wat komt er aan?
SURF blijft in gesprek met Microsoft. ‘We hopen op concrete verbeteringen, niet op woorden,’ zegt een medewerker van SURF Vendor Compliance. De volgende update van de DPIA is verwacht voor maart 2026. Tot dan blijft de status ‘oranje’ — een waarschuwing die zegt: ‘We zijn niet meer bang, maar we zijn niet gerust.’Deze situatie is geen uitzondering. Het is een voorbeeld van hoe snel AI-tools in de onderwijswereld worden ingevoerd — terwijl de juridische en ethische kaders nog niet meedoen. Nederland is een van de weinige landen dat dit systematisch volgt. De rest van Europa kijkt toe. En misschien, in de komende maanden, zal SURF’s aanpak de standaard worden.
Veelgestelde vragen
Waarom is Microsoft 365 Copilot nog steeds riskant voor scholen?
Ondanks verbeteringen blijft Microsoft onduidelijk over welke persoonsgegevens worden verzameld en hoe ze worden gebruikt. Bovendien genereert Copilot vaak onjuiste informatie die gebruikers als waar aannemen, wat leidt tot fouten in rapporten en onderzoeken. De technische beveiliging is beter, maar de transparantie en betrouwbaarheid ontbreken nog steeds.
Kan ik Copilot wel gebruiken voor eenvoudige taken zoals e-mails schrijven?
Alleen als je zeker weet dat geen gevoelige gegevens worden ingevoerd — zoals studentnummers, cijfers of persoonlijke notities. Zelfs bij e-mails kan Copilot automatisch contactgegevens of interne projectcodes opnemen. Het risico is klein, maar het is er. Gebruik het alleen met bewustzijn en nooit zonder controle.
Waarom is de risicoclassificatie van ‘rood’ naar ‘oranje’ veranderd?
Omdat Microsoft enkele beveiligingsmechanismen heeft verbeterd, zoals betere integratie met Microsoft Purview en betere detectie van gevoelige bestanden. Maar de kernproblemen — onduidelijkheid over gegevensverzameling en foutieve AI-responsen — zijn niet opgelost. ‘Oranje’ betekent: ‘We zijn niet meer in paniek, maar we zijn nog niet veilig.’
Wat moet een school doen als ze Copilot al gebruikt?
Stel een interne richtlijn op: verbied het gebruik voor persoonlijke student- of personeelsgegevens. Informeer docenten en medewerkers over de risico’s van ‘AI-vertrouwen’. Gebruik alleen versies met strikte DLP- en gevoeligheidstags. En meld het aan SIVON — zodat de hele sector kan leren van ervaringen.
Zijn er alternatieven voor Microsoft 365 Copilot?
Ja. Sommige hogescholen gebruiken open-source AI-tools zoals Mistral of Llama, die op lokale servers draaien en geen data naar buiten sturen. Andere kiezen voor gecontroleerde, Nederlandse oplossingen zoals de AI-assistent van de Universiteit van Amsterdam, die strikt binnen de EU-datawetten werkt. Het is duurder, maar veiliger.
Wanneer komt er een nieuwe update van SURF?
SURF verwacht een nieuwe DPIA voor maart 2026. Dan wordt bekeken of Microsoft concrete stappen heeft gezet naar transparantie, zoals een openbaar overzicht van gegevensverzameling en een betrouwbaar mechanisme voor gebruikers om hun eigen AI-gebruik in te zien. Als er geen vooruitgang is, kan de status weer naar ‘rood’ gaan.