Wanneer een ambtenaar een conceptbrief laat genereren door Microsoft Copilot, is dat dan een officieel document? Volgens Cornelis van der Sluis, advocaat bij SluisWest Advocaten, is het antwoord een duidelijk ja. Hij waarschuwt: 'Berichten die zijn uitgewisseld met Copilot zijn niet anders dan mails, appjes, brieven of nota's.' Het maakt juridisch geen verschil of de tekst komt van een collega of van een AI. Wat telt, is de inhoud — en die valt onder de Archiefwet. Deze kwestie is niet langer theoretisch. Met de opmars van AI in de overheid, en de herinnering aan de sms-affaire rond voormalig premier Mark Rutte, wordt duidelijk: wat je met AI doet, kan je niet zomaar wegwerken.
De archiefplicht geldt ook voor AI
Van der Sluis legt uit dat de Archiefwet niet kijkt naar hoe iets is gemaakt, maar naar wat het inhoudt. Een tekst die Copilot heeft opgesteld over een subsidieaanvraag, een verklaring voor een vergunning of een interne nota over een beleidswijziging — allemaal zijn dat archiefwaardige documenten. 'Het is geen kwestie van technologie, maar van inhoud en functie,' zegt hij. 'Als het bericht een beslissing ondersteunt, een rechtshandeling begeleidt of een verantwoording vormt, dan is het archiefwaardig.' Dat betekent dat gemeenten, provincies en ministeries verplicht zijn om deze interacties op te slaan, te classificeren en na verloop van tijd over te dragen aan het Nationaal Archief. De Rotterdamse Raad heeft dit al opgepakt: in een schriftelijke vraag aan het college vroegen raadsleden expliciet of AI-interacties zijn opgenomen in de gemeentelijke selectielijst voor archivering — en of ze onder de Wet open overheid (Woo) vallen.Rijk houdt zich terughoudend — en met reden
Terwijl gemeenten experimenten, houdt de Rijksoverheid zich afzijdig. In een brief van demissionair staatssecretaris Alexandra van Marum (BBB) aan de vaste commissie Digitale Zaken, wordt duidelijk: Rijksorganisaties mogen Microsoft Copilot nog niet gebruiken. De reden? Een Data Protection Impact Assessment (DPIA) van eind 2023, uitgevoerd door SLM Rijk, concludeerde dat er vier hoge risico’s zijn bij het gebruik van Copilot. De grootste? Microsoft deelt niet voldoende inzicht in hoe persoonsgegevens worden verwerkt, opgeslagen en gebruikt. 'We weten niet waar de data naartoe gaat,' zei een bron binnen SLM Rijk. 'En dat is onaanvaardbaar voor een overheid die verantwoordelijk is voor gevoelige informatie.'Avans: geen Copilot, geen risico
De Avans University of Applied Sciences ging nog verder. Functionaris gegevensbescherming Omar Ahmadzai heeft formeel verboden gemaakt dat medewerkers en studenten de AI-functies Copilot en Samenvatten in Outlook gebruiken. 'Copilot verwerkt je e-mails, bijlagen, contacten — alles gaat naar Microsoft’s servers,' legt Ahmadzai uit. 'We hebben geen controle, geen inzicht, geen garantie dat de gegevens niet worden gebruikt voor training van andere AI-systemen. Dat is een datalek-wachttijd.' Het probleem: Microsoft kan deze functies niet centraal uitschakelen zonder de normale Outlook-functionaliteit te beïnvloeden. 'Dus als je het wilt blokkeren, moet je elke gebruiker afzonderlijk trainen — en dat gaat mis,' zegt hij. 'We kiezen voor veiligheid, niet voor gemak.'Maar Breda zegt: 'Het werkt!' — en bespaart 28 uur per maand
Tegelijkertijd promoot Microsoft succesverhalen — en de Gemeente Breda is daar een voorbeeld van. In een video op LinkedIn vertellen gemeentesecretaris Lieke Hendrix, digitale innovator Gert-Jan Zandbergen en AI-expert Peter Hulsmann hoe Copilot hun werklast verlicht. Volgens hen besparen medewerkers 28 uur per maand op het schrijven van standaarddocumenten: briefjes aan burgers, antwoorden op vragen, beleidsnotities. 'We gebruiken het voor de routine, niet voor de beslissingen,' zegt Hendrix. 'Het is een assistent, geen beslisser.'Het contrast is opvallend: terwijl Avans en de Rijksoverheid zich terugtrekken uit angst voor risico’s, kiest Breda voor innovatie — en lijkt het te werken. Maar is dat verantwoord? 'Het is een kwestie van risicobeheer,' zegt Van der Sluis. 'Als je weet wat je doet, en je documenteert het goed, dan kan het veilig. Maar als je het zomaar gebruikt en niks archiveren, dan speel je met vuur.'
De audit komt eraan — en de wetgeving blijft achter
De Auditdienst Rijk (ADR) heeft onlangs aangekondigd dat ze de kwaliteit van de registraties in het nationaal algoritmeregister gaan onderzoeken. Zij willen weten of organisaties echt begrijpen wat voor soort AI ze gebruiken — en of ze de juridische definitie van 'hoog risico' juist toepassen. Remmits van Algorithm Audit benadrukt: 'Veel organisaties denken dat een chatbot geen hoog risico is. Maar juridisch kan het dat wel zijn — als het gevoelige beslissingen ondersteunt.'En dan is er nog Alexandra van Marum. Ondanks het advies van de Autoriteit Persoonsgegevens om het registreren van algoritmes verplicht te maken, noemt ze dat nu 'niet opportuun.' Waarom? 'We zijn nog niet klaar voor de implementatie,' zei ze in een gesprek met een journalist. 'We moeten eerst een duidelijk kader hebben — en dat ontbreekt nog.'
Wat komt er nu?
De komende maanden zullen cruciaal zijn. De ADR zal rapporteren, de Raad van State zal waarschijnlijk een advies uitbrengen over AI en archiefplicht, en de nieuwe kabinetten — als die er komen — zullen moeten kiezen: willen we AI als hulpmiddel, of als standaard? Of willen we het verbieden, zoals bij het gebruik van ChatGPT in de Rijksdienst voor Immigratie en Naturalisatie? De keuze bepaalt niet alleen hoe efficiënt de overheid werkt, maar ook hoe transparant en verantwoordelijk ze is.Frequently Asked Questions
Moeten alle berichten met Copilot worden opgeslagen?
Niet alle, maar wel alle berichten die een juridische of bestuurlijke functie hebben. Als een Copilot-tekst een beslissing ondersteunt, een brief aan een burger bevat of een beleidsnotitie vormt, dan valt het onder de Archiefwet. Echte kanttekeningen of experimentele ideeën die niet worden gebruikt, hoeven niet te worden opgeslagen. Het gaat om de inhoud, niet om de tool.
Waarom mag de Rijksoverheid Copilot niet gebruiken?
Een DPIA van SLM Rijk uit 2023 wijst op vier hoge risico’s, vooral door onvoldoende transparantie van Microsoft over hoe persoonsgegevens worden verwerkt. De overheid kan niet controleren of gevoelige data in de VS worden opgeslagen of gebruikt voor AI-training. Daarom is het gebruik op dit moment niet toegestaan — ook al is de tool technisch functioneel.
Wat is het verschil tussen Copilot in Breda en Copilot bij Avans?
Breda gebruikt Copilot beperkt voor standaardteksten en heeft interne controleprocedures. Avans heeft het verboden omdat de tool persoonsgegevens uit e-mails en bijlagen verwerkt zonder dat de universiteit controle heeft — wat een direct risico op datalekken en schendingen van de GDPR oplevert. Het gaat niet om de tool, maar om hoe en waar je hem gebruikt.
Kan een ambtenaar strafbaar worden voor het niet archiveren van Copilot-berichten?
Ja, als het een archiefwaardig document betreft en er bewust wordt verzwegen of verwijderd. De Archiefwet kent sancties voor bewuste vernietiging of onvoldoende registratie van bestuursdocumenten. Dat geldt ook voor digitale berichten — inclusief AI-generatie. Het risico is niet alleen juridisch, maar ook politiek: denk aan de gevolgen van de sms-affaire.
Waarom is het zo moeilijk om Copilot uit te schakelen in Outlook?
Microsoft heeft de AI-functies diep geïntegreerd in de Outlook-code. Een centraal uitschakelen zou ook andere functies zoals automatische antwoorden, smart replies of kalenderadvies kunnen beïnvloeden. Daarom kunnen organisaties alleen de functies uitschakelen per gebruiker — wat logistiek een nachtmerrie is voor grote overheidsdiensten.
Wat is de rol van de Autoriteit Persoonsgegevens in dit verhaal?
De Autoriteit Persoonsgegevens heeft herhaaldelijk aangedrongen op verplicht registratie van AI-systemen die persoonsgegevens verwerken — inclusief Copilot. Zij wil dat overheden duidelijk aangeven welke algoritmes ze gebruiken, waarom en welke risico’s ze met zich meebrengen. Maar tot nu toe is er geen wettelijke verplichting — waardoor de autoriteit alleen kan adviseren, niet dwingen.