Copilot bij de Overheid: Veilig Inzetten na de DPIA 2025

Actuele DPIA-conclusies over Microsoft 365 Copilot bij de overheid: van vier hoge risico's naar verantwoorde inzet. Praktische stappen voor gemeenten, provincies en Rijk.
De DPIA van SLM Rijk concludeert dat Microsoft 365 Copilot verantwoord kan worden ingezet bij de overheid. Ontdek wat er veranderde, welke risico's blijven en welke stappen je moet nemen.
De discussie rond Microsoft 365 Copilot bij de overheid heeft in korte tijd een opmerkelijke ontwikkeling doorgemaakt. Waar eind 2024 de conclusie nog luidde dat Copilot "niet compliant te gebruiken" was, spreekt SLM Rijk (Strategisch Leveranciersmanagement) sinds september 2025 van een verantwoorde inzet. Maar wat is er precies veranderd? En belangrijker: welke risico's blijven bestaan?
In dit artikel ontleden we de actuele DPIA-bevindingen, de technische waarborgen van Microsoft en de concrete stappen die gemeenten, provincies en het Rijk moeten nemen voordat Copilot breed wordt uitgerold.
Van vier hoge risico's naar twee medium risico's
Wat er veranderde na de eerste DPIA
De oorspronkelijke DPIA (december 2024), uitgevoerd door SLM Rijk en SURF, identificeerde vier hoge privacyrisico's. De kernbezwaren: onvoldoende transparantie over de verwerking van persoonsgegevens, onduidelijkheid over bewaartermijnen en beperkte controle voor organisaties.
Microsoft heeft hierop negen maanden intensief samengewerkt met SLM en SURF. Het resultaat:
- Vier hoge risico's zijn gemitigeerd of verlaagd
- Microsoft 365 Copilot is gecertificeerd volgens ISO 42001 (de internationale standaard voor AI-managementsystemen)
- Er zijn aanvullende technische waarborgen ingebouwd rond persoonsgegevens
SLM concludeert dat de AI-assistent inmiddels verantwoord kan worden ingezet, mits organisaties zelf ook maatregelen nemen.
Let op: SURF blijft terughoudender. De onderwijscooperatie adviseert voorzichtigheid bij grootschalige implementatie en evalueert over zes maanden opnieuw.
De twee resterende medium risico's
Na de verbeteringen resteren er twee medium risico's die relevant zijn voor elke overheidsorganisatie:
1. Onbedoelde openbaarmaking van gevoelige informatie
Copilot heeft, binnen de autorisatie van de medewerker, toegang tot meerdere databronnen: OneDrive, e-mail, SharePoint en Teams. Het risico ontstaat wanneer Copilot verbanden legt tussen informatie uit deze verschillende bronnen. Een medewerker kan zo onbedoeld toegang krijgen tot gecombineerde inzichten die afzonderlijk geen probleem vormen, maar samen gevoelig zijn.
2. Onjuiste of misleidende output (hallucinaties)
Copilot kan overtuigend klinkende maar feitelijk onjuiste antwoorden genereren. Voor overheidsorganisaties waar besluitvorming op basis van feitelijke juistheid cruciaal is, levert dit een concreet risico op wanneer medewerkers de output zonder kritische controle overnemen.
Wat zegt Microsoft over databescherming?
Op basis van publiek beschikbare Microsoft-bronnen, waaronder het Enterprise Data Protection-document en het Microsoft 365 Copilot Privacy-overzicht, gelden de volgende waarborgen:
Werking binnen de Microsoft 365-tenant
Copilot opereert volledig binnen de bestaande Microsoft 365-omgeving van de organisatie. Gebruikers zien uitsluitend data waar zij op basis van hun autorisaties al toegang toe hebben. De tool respecteert de bestaande rechtenstructuur zonder deze te omzeilen.
Geen training op organisatiedata
Prompts en gegenereerde antwoorden worden niet gebruikt om de onderliggende Large Language Models (LLM's) van Microsoft te trainen. Dit is een belangrijk onderscheid met consumentenversies van AI-tools. De organisatiedata blijft binnen de Microsoft 365-beveiligingsgrenzen.
Microsoft Graph als informatiebron
Copilot "verzint" geen informatie uit externe bronnen. De antwoorden worden gebaseerd op content die beschikbaar is binnen de organisatiecontext via Microsoft Graph: documenten, e-mails, chats en agendagegevens. Logging, auditing en versleuteling verlopen conform de bestaande M365-securitymaatregelen.
De rol van Microsoft Purview bij veilige Copilot-implementatie
Een van de meest onderschatte factoren bij het veilig implementeren van Copilot bij de overheid is de inrichting van Microsoft Purview. Dit platform biedt de gereedschappen om data te classificeren en te beschermen voordat Copilot ermee aan de slag gaat.
Gevoeligheidslabels en dataclassificatie
Met Purview kunnen organisaties gevoeligheidslabels toekennen aan documenten, e-mails en SharePoint-locaties. Deze labels bepalen:
- Welke content Copilot mag gebruiken in antwoorden
- Welke documenten uitgesloten worden van AI-verwerking
- Welke versleuteling en toegangsbeperkingen gelden
Voor overheidsorganisaties die werken met de Baseline Informatiebeveiliging Overheid (BIO) is dit de sleutel tot een verantwoorde Copilot-uitrol.
Data Loss Prevention (DLP) en auditlogging
Purview biedt daarnaast DLP-beleid waarmee organisaties regels instellen voor hoe informatie binnen Microsoft 365 mag worden verwerkt en gedeeld. In combinatie met auditlogging ontstaat volledige traceerbaarheid van hoe Copilot met organisatiedata omgaat.
Tip: SLM Rijk adviseert expliciet om auditlogging en gevoeligheidslabels in te schakelen voordat Copilot wordt geactiveerd. Dit is geen optionele stap, maar een basisvereiste.
Praktische implicaties voor gemeenten, provincies en Rijk
De conclusie van de DPIA is genuanceerd: Copilot kan veilig worden ingezet, maar alleen als governance, inrichting en bewust gebruik hand in hand gaan. Hieronder de drie pijlers.
Pijler 1: Autorisaties en informatieclassificatie
Voordat Copilot breed wordt uitgerold, moet de autorisatiestructuur binnen Microsoft 365 op orde zijn. Copilot kan namelijk alleen maar zo veilig zijn als het identiteits- en toegangsbeheer (IAM) dat eronder ligt.
Concrete acties:
- Controleer en beperk overmatige toegangsrechten in SharePoint en Teams
- Implementeer gevoeligheidslabels via Microsoft Purview
- Voer een eigen DPIA uit op organisatieniveau
- Schakel auditlogging in voor alle Copilot-interacties
Pijler 2: Training en AI-geletterdheid
De DPIA van SLM Rijk benoemt expliciet dat training van medewerkers essentieel is. Medewerkers moeten begrijpen:
- Wat Copilot wel en niet doet
- Hoe AI-output kritisch beoordeeld moet worden
- Welke interne AI-richtlijnen gelden
- Wanneer menselijke verificatie verplicht is
Zonder deze kennis blijft het risico op ongecontroleerd gebruik bestaan, ongeacht de technische maatregelen. AI Coaching kan helpen om teams hierin te trainen.
Pijler 3: Governance en beleid
Naast techniek en training is organisatorisch beleid nodig. Dit omvat:
- Een formeel AI-beleid met richtlijnen voor verantwoord gebruik
- Periodieke evaluatie van risico's en maatregelen
- Naleving van de AI-verordening (EU AI Act), waarvan de verplichtingen voor hoog-risico-systemen vanaf augustus 2026 volledig van kracht worden
- Registratie in het nationale algoritmeregister waar van toepassing
Shadow AI: het onzichtbare risico van niet handelen
Een aspect dat in de DPIA-discussie onderbelicht blijft: het risico van Shadow AI. Onderzoek laat zien dat 78% van kenniswerkers wereldwijd al AI-tools gebruikt. Wanneer een organisatie geen gecontroleerde AI-oplossing aanbiedt, wenden medewerkers zich tot onbeheerde alternatieven zoals ChatGPT, Gemini of andere tools.
Het verschil: bij Shadow AI verlaat organisatiedata de beveiligde omgeving. Er is geen logging, geen dataclassificatie en geen controle over waar gegevens terechtkomen. Een totaalverbod op AI creëert daarmee een schijnveiligheid die riskanter is dan een gecontroleerde uitrol van Copilot.
De keuze is niet of AI wordt gebruikt, maar hoe. Door te investeren in een beheerde oplossing met de juiste governance behoudt de organisatie controle. Bekijk onze AI Agents voor beheerde alternatieven.
Stappenplan: Copilot veilig implementeren bij de overheid
| Stap | Actie | Verantwoordelijk |
|---|---|---|
| 1 | Voer een eigen DPIA uit op organisatieniveau | Privacy Officer / FG |
| 2 | Breng autorisaties en toegangsrechten in kaart (IAM-audit) | IT-beheer |
| 3 | Configureer Microsoft Purview: gevoeligheidslabels en DLP-beleid | Informatiebeveiligingsadviseur |
| 4 | Schakel auditlogging in voor Copilot-interacties | IT-beheer |
| 5 | Ontwikkel intern AI-beleid en gebruiksrichtlijnen | CISO / Beleidsadviseur |
| 6 | Train medewerkers in AI-geletterdheid en verantwoord gebruik | HR / Opleidingen |
| 7 | Start met een beperkte pilot (geselecteerde afdeling) | Projectleider |
| 8 | Evalueer, stel bij en schaal op | Stuurgroep AI |
Conclusie: veilig, mits doordacht
De kernvraag "Is Copilot veilig voor de overheid?" kan inmiddels met een voorwaardelijk "ja" worden beantwoord. De DPIA van september 2025 laat zien dat Microsoft substantiële verbeteringen heeft doorgevoerd. De vier oorspronkelijke hoge risico's zijn gemitigeerd.
Maar veiligheid is geen product dat je koopt. Het is een continu proces dat vraagt om:
- Correct ingerichte autorisaties en dataclassificatie
- Getrainde medewerkers die AI-output kritisch beoordelen
- Governance die meegroeit met de ontwikkeling van AI
Organisaties die deze drie pijlers serieus nemen, kunnen Copilot verantwoord inzetten en tegelijkertijd profiteren van de productiviteitswinst die de tool biedt.
Hulp nodig bij veilige Copilot-implementatie?
Unify AI helpt overheidsorganisaties en bedrijven bij het veilig en verantwoord implementeren van AI-oplossingen zoals Microsoft 365 Copilot. Van AI-consultancy en readiness assessments tot het inrichten van governance en het trainen van teams: wij zorgen voor een aanpak die aansluit bij de eisen van de publieke sector. Neem contact op voor een vrijblijvend gesprek.
Bronnen
- DPIA Microsoft 365 Copilot (SLM Rijk)
- Update DPIA: SLM en SURF adviseren verantwoorde adoptie (Microsoft Pulse)
- Enterprise Data Protection for Microsoft 365 Copilot
- Microsoft Purview en Copilot (Microsoft Learn)
- Gemeenten heroverwegen inzet Microsoft Copilot (VNG)
- Overheid en onderwijs mogen Copilot gebruiken na verlaging risico's (Dutch IT Channel)
- iBestuur: totaalverbod geen duurzame oplossing
- Purview: Bescherm bestanden tegen Copilot (AVK)
Veelgestelde vragen
Korte, heldere antwoorden die je helpen sneller beslissen.
Is Microsoft 365 Copilot inmiddels goedgekeurd voor gebruik bij de overheid?
Ja, onder voorwaarden. De herziene DPIA van SLM Rijk (september 2025) concludeert dat Copilot verantwoord kan worden ingezet, mits organisaties zelf maatregelen nemen. Dit omvat het inrichten van autorisaties, dataclassificatie via Microsoft Purview en het trainen van medewerkers. Er resteren twee medium risico's die aandacht vragen: onbedoelde openbaarmaking van gecombineerde gegevens en de mogelijkheid van onjuiste output.
Welke rol speelt Microsoft Purview bij het veilig inzetten van Copilot?
Microsoft Purview is het platform waarmee organisaties gevoeligheidslabels toekennen aan documenten en e-mails. Deze labels bepalen welke content Copilot mag verwerken. Door Purview correct in te richten, inclusief Data Loss Prevention-beleid en auditlogging, kunnen overheidsorganisaties voorkomen dat vertrouwelijke informatie onbedoeld via Copilot wordt ontsloten. SLM Rijk noemt dit een basisvereiste.
Wat is het risico als onze organisatie Copilot niet uitrolt?
Het risico van niet handelen is Shadow AI: medewerkers gebruiken op eigen initiatief onbeheerde AI-tools zoals ChatGPT, waarbij organisatiedata de beveiligde omgeving verlaat zonder logging of controle. Een gecontroleerde uitrol van Copilot, met de juiste governance en training, is veiliger dan een totaalverbod dat in de praktijk niet wordt nageleefd.
Meer weten over AI?
Neem contact op voor een gratis intakegesprek en ontdek hoe AI jouw bedrijf kan helpen.


