Selecteer een pagina

Privacy-checklist voor AI-tools (ChatGPT, n8n) volgens AVG/GDPR

1 september 2025 | Inzichten

Kleine en middelgrote bedrijven benutten steeds vaker AI-tools als ChatGPT en n8n. Het is daarbij cruciaal om de privacywetgeving (AVG/GDPR) na te leven, zeker als er persoonsgegevens worden verwerkt. Onderstaande aandachtspunten helpen je diensten legaal en privacyproof aan te bieden.

Verantwoordelijkheid en wettelijke grondslag

Identificeer de verwerkingsverantwoordelijke en een geldige grondslag: Als jij AI-diensten inzet in jouw processen of applicaties, ben jíj doorgaans de verwerkingsverantwoordelijke voor de persoonsgegevens die daarin omgaan. Dat betekent dat je moet voldoen aan de AVG. Bepaal voor elke verwerking van persoonsgegevens door AI-tools op welke wettelijke grondslag dit gebeurt (bijv. toestemming, uitvoering van een overeenkomst of gerechtvaardigd belang). Documenteer deze grondslag en zorg dat deze houdbaar is. Voorbeeld: gebruik je ChatGPT om klantvragen te beantwoorden, dan kun je dit baseren op de overeenkomst met de klant (dienstverlening) of een goed afgewogen gerechtvaardigd belang, mits de privacy van de klant voldoende geborgd is. Bij verwerking van gevoelige gegevens of grootschalige profilering is mogelijk uitdrukkelijke toestemming vereist – vermijd in elk geval “stiekem” gegevens gebruiken zonder basis.

Transparantie richting gebruikers

Wees open over AI-gebruik: Informeer betrokkenen duidelijk dat je AI-tools inzet en welke gegevens je daarbij verwerkt. Dit hoort thuis in je privacyverklaring en andere communicatie. Leg in begrijpelijke taal uit wat je met AI doet (bijv. “Wij gebruiken OpenAI’s GPT-model om uw vragen automatisch te beantwoorden”) en waarom. Geef aan welke soorten persoonsgegevens daarbij kunnen worden verwerkt en hoe lang je die bewaart. Wees daarbij expliciet als gegevens met een externe AI-dienst worden gedeeld (zoals OpenAI) en verwijs desnoods naar hun privacy-informatie. Deze transparantie-eis komt direct uit de AVG: mensen moeten niet achteraf verrast worden door AI-analyse van hun data.

Vraag toestemming indien nodig: Gebruik je persoonsgegevens voor AI-doeleinden die buiten de redelijke verwachtingen van de betrokkenen vallen, zorg dan voor geldige toestemming. Bijvoorbeeld, als je chats of e-mails van klantenservice door ChatGPT laat analyseren voor trends, vraag vooraf toestemming in je privacyverklaring of via een opt-in:

  • Toestemming moet vrij, specifiek, geïnformeerd en gemakkelijk intrekbaar zijn
  • Bied een opt-out mogelijkheid: laat klanten zich afmelden als ze niet willen dat hun gegevens door AI worden geanalyseerd
  • Voor gevoelige data (bijv. medische gegevens) is expliciete toestemming vrijwel altijd verplicht. Geen toestemming kunnen of willen vragen? Baseer de verwerking dan op een andere grondslag en zorg dat je dat goed kunt onderbouwen in je administratie.

Dataminimalisatie en beperkte opslag

Verzamel en gebruik zo min mogelijk data: Houd je aan het AVG-principe van dataminimalisatie. Voer alleen de persoonsgegevens aan AI-systemen die echt noodzakelijk zijn voor het doel. Hoe minder data je deelt, hoe kleiner het privacyrisico. Vermijd bijvoorbeeld om volledige namen, adressen of andere direct herleidbare gegevens mee te sturen als initialen of klantnummers volstaan. Overweeg om gegevens te anonimiseren of pseudonimiseren voordat je ze naar tools als ChatGPT stuurt, zodat de output niet direct herleidbaar is tot een individu.

Beperk opslagduur en logs: Sla persoonsgegevens niet langer op dan nodig voor het beoogde doel. Veel AI-tools (zoals de OpenAI API) bewaren ingevoerde data slechts tijdelijk – OpenAI bewaart API-invoer momenteel maximaal ~30 dagen voor misbruikdetectie. Maak gebruik van die korte bewaartermijnen. Zorg dat jouw eigen systemen ook opschoning toepassen. Als je n8n gebruikt, stel deze dan zo in dat uitvoeringsgegevens (workflow logs) automatisch na enkele dagen of weken worden gewist. Dit voorkomt dat je later veel moeite moet doen bij AVG-verzoeken of risico loopt door oude data. Kortom, ruim persoonsgegevens op zodra ze hun doel hebben gediend, of sla ze desnoods alleen in geanonimiseerde vorm op voor analyse.

Beveiliging en versleuteling

Bescherm gegevens met passende beveiliging: Een AI-tool inzetten ontslaat je niet van de beveiligingsplicht. Voorkom dat er datalekken ontstaan doordat gevoelige gegevens via AI verwerkt worden. Versleuteling (encryptie) is hierbij essentieel. Controleer of de gebruikte AI-diensten transportbeveiliging (TLS) gebruiken en of data versleuteld wordt bij opslag. OpenAI geeft aan alle data in transit en at rest te versleutelen (TLS 1.2+ voor verkeer, AES-256 voor opslag). Ook n8n Cloud versleutelt klantgegevens in de database (Azure-server-side encryptie) en gebruikt SSL/TLS voor alle dataverkeer. Maak je gebruik van de self-hosted versie van n8n, regel dan zelf een HTTPS-certificaat (bijv. via een reverse proxy) en zorg dat de server/disk versleuteld is. Omdat je zelf weinig kennis van encryptie hebt, is het verstandig te vertrouwen op tools die dit standaard goed geregeld hebben – controleer in hun documentatie of certificeringen (bijv. SOC 2) dat dit inderdaad zo is. Beperk verder de toegang tot data: implementeer toegangscontrole in n8n (gebruik Role-Based Access Control) zodat alleen bevoegde personen bij gevoelige workflows kunnen. Door deze maatregelen verklein je de kans op onbevoegde toegang of een datalek aanzienlijk.

Verwerkersovereenkomsten en doorgifte

Sluit verwerkersovereenkomsten af: Wanneer je gebruikmaakt van externe AI-diensten die persoonsgegevens voor jou verwerken, eist de AVG dat je een verwerkersovereenkomst (Data Processing Agreement, DPA) afsluit (AVG art. 28). Zorg dat je met zowel OpenAI als n8n (en eventuele andere tools) zo’n overeenkomst hebt. OpenAI biedt een gestandaardiseerde DPA aan voor API- en zakelijke klanten

Deze is vaak onderdeel van hun algemene voorwaarden of op aanvraag beschikbaar. Ook n8n voorziet in een DPA voor cloud-gebruikers (in de Terms of Service)In zo’n overeenkomst staat hoe de verwerker (bijv. OpenAI) met jouw data omgaat, dat ze passende beveiliging toepassen en alleen volgens jouw instructies verwerken. Controleer of deze DPA’s up-to-date zijn en alle vereiste AVG-clausules bevatten, zoals geheimhouding en bijstand bij rechten van betrokkenen.

Let op internationale gegevensdoorgifte: Veel AI-diensten zijn buiten de EU gevestigd (OpenAI is een VS-bedrijf). Dit betekent dat persoonsgegevens mogelijk worden doorgegeven naar landen zonder adequaat privacyregime. Zorg dat hiervoor de juiste waarborgen zijn getroffen. In de praktijk gebeurt dit via de EU-modelcontractbepalingen (Standard Contractual Clauses, SCCs) die meestal in de DPA zijn inbegrepen:

  • Bijvoorbeeld, OpenAI’s DPA en die van n8n bevatten SCCs om doorgifte rechtmatig te maken
  • Verifieer of de datahoofdstroom bij jouw gebruik binnen de EU blijft – n8n Cloud host momenteel data in een Duits datacentrum
  • Wat gunstig is. Wanneer data toch naar de VS of andere derde landen gaat, beoordeel of aanvullende maatregelen nodig zijn (encryptie, pseudonimisering) en informeer je klanten hierover.

Kies betrouwbare en AVG-proof tools: Gebruik bij voorkeur AI-platforms die hun compliance op orde hebben. Ga na of de leverancier voldoet aan AVG-eisen en geen onnodige risico’s introduceert. Een goede praktijk is bijvoorbeeld dat de AI-leverancier jouw ingevoerde data niet voor eigen doeleinden (zoals modeltraining) gebruikt. OpenAI heeft na ingrijpen van Europese toezichthouders het beleid aangepast zodat API- en zakelijke data niet standaard worden gebruikt om het model te trainen. Dit beperkt hun rol tot strikt gegevensverwerker, wat juridisch gezien veiliger is. Controleer ook of de leverancier aan security-standaarden voldoet (bijv. ISO27001, SOC 2-certificering) en vraag eventueel in een Data Processing Addendum om aantoonbare compliance.

Rechten van betrokkenen waarborgen

Faciliteer inzage, rectificatie en verwijdering: Onder de AVG hebben personen rechten over hun data, ook als die via AI is verwerkt. Bereid procedures voor om hierop te reageren. Als een klant vraagt “Welke gegevens van mij hebben jullie via ChatGPT verwerkt en kun je die wissen?”, moet je dat kunnen beantwoorden. Inventariseer daarom waar persoonsgegevens in je AI-werkstromen worden opgeslagen. In n8n kun je bijvoorbeeld specifieke workflow-uitvoeringen verwijderen op verzoek. Zorg dat je output of rapportages met persoonsgegevens kunt opschonen of anonimiseren als iemand om verwijdering vraagt. Houd er rekening mee dat data die naar externe AI-API’s is gestuurd mogelijk tijdelijk bij die provider blijft (OpenAI bewaart API-data ~30 dagen) – volledige directe verwijdering daar is lastig. Communiceer dit transparant aan de betrokkene en verwijder in ieder geval alle lokale kopieën. Waar mogelijk, voorkom opslag van persoonsgegevens (zie dataminimalisatie) zodat je niet in de knel komt bij een verwijderverzoek.

Recht van bezwaar en uitleg bij AI-beslissingen: Als je AI inzet die (gedeeltelijk) autonoom beslissingen neemt over personen, moeten zij daartegen bezwaar kunnen maken of menselijke interventie kunnen vragen. Dit is het recht om niet uitsluitend aan geautomatiseerde besluiten onderworpen te zijn. In de praktijk: gebruik je bijvoorbeeld een AI om automatisch klantensupport af te handelen of leads te kwalificeren, bied dan altijd een “menselijke route” aan. Geef in je communicatie aan dat mensen contact kunnen opnemen voor uitleg of herbeoordeling door een mens. Neem geen ingrijpende beslissingen (bv. afwijzing van een aanvraag, prijsbepaling) puur op basis van AI zonder menselijk toezicht. Zorg intern dat er iemand verantwoordelijk is om AI-uitkomsten te monitoren op bias of fouten. Door menselijke monitoring en een bezwaarprocedure voorkom je dat klanten rechten geschonden worden en voldoe je aan de AVG-eisen op dit punt.

Bijzondere aandachtspunten (o.a. kinderen en DPIA)

Minderjarigen: Houd rekening met extra eisen bij gegevens van kinderen. In Nederland is toestemming van een ouder/verzorger vereist voor het verwerken van persoonsgegevens van kinderen jonger dan 16 jaar. Als jouw AI-dienst ook door minderjarigen gebruikt zou kunnen worden (direct of indirect), tref dan maatregelen: vraag om geboortedata of laat aan te vinken “Ik ben 16 jaar of ouder”, of sluit gebruik door jongeren uit in je voorwaarden. Contentfilters kunnen nodig zijn om te voorkomen dat AI ongepaste antwoorden geeft aan minderjarigen. Dit alles is niet alleen wettelijk vereist, maar ook belangrijk voor ethisch verantwoord AI-gebruik.

DPIA en documentatie: Overweeg een Data Protection Impact Assessment (DPIA) uit te voeren voordat je grootschalig AI inzet op persoonsgegevens. Een DPIA helpt je de privacyrisico’s in kaart te brengen – bijvoorbeeld risico op bias, datalekken, of schending van rechten – en maatregelen te formuleren om die te verkleinen. Bij innovatieve AI-toepassingen of verwerking van gevoelige data is een DPIA vaak verplicht of tenminste zeer aanbevolen. Documenteer alle genomen stappen en beslissingen rondom privacy (grondslag-afweging, beveiligingskeuzes, overeenkomsten, etc.). Dit is onderdeel van de accountability-verplichting: je moet kunnen aantonen dat je AVG-compliant bent. Houd ook de ontwikkelingen in de gaten: wetgeving evolueert (denk aan de komende EU AI Act die extra eisen kan stellen). Zorg dat je privacybeleid en procedures up-to-date blijven naarmate jouw AI-gebruik groeit of verandert.

Samenvattende checklist (AVG-proof AI-gebruik)

Grondslag vastgesteld: Ik heb voor elke AI-verwerking een geldige AVG-grondslag bepaald en gedocumenteerd (toestemming, contract, gerechtvaardigd belang, etc.)
avg-support.nl
.

Verwerkersovereenkomsten: Ik heb met alle AI-dienstverleners (OpenAI, n8n, etc.) een verwerkersovereenkomst inclusief benodigde AVG-clausules (zoals SCCs bij doorgifte) gesloten

Transparantie: Ik informeer klanten/gebruikers duidelijk over mijn gebruik van AI en hoe hun persoonsgegevens daarbij worden verwerkt (privacyverklaring bijgewerkt)

Toestemming/opt-out: Waar vereist heb ik toestemming gevraagd voor AI-gebruik van persoonsgegevens, en ik bied een makkelijke opt-out of bezwaarprocedure
avg-support.nl.

Dataminimalisatie: Ik verzamel en deel niet meer persoonsgegevens dan nodig is voor het doel; gevoelige data vermijd of pseudonimiseer ik zoveel mogelijk.

Beperkte opslag: Ik heb technische maatregelen genomen om persoonsgegevens niet langer te bewaren dan nodig (automatische verwijdering van logs/outputs, gebruik van tijdelijke opslag).

Beveiliging op orde: Persoonsgegevens zijn tijdens AI-verwerking goed beveiligd (versleuteld transport en opslag), en ik heb toegang tot data beperkt tot bevoegden.

Geen ongeoorloofd hergebruik: De ingezette AI-tools gebruiken de data uitsluitend voor mijn opdracht (genereren van output) en niet om hun eigen modellen te trainen of andere doeleinden.

Rechten kunnen honoreren: Ik kan voldoen aan AVG-rechten van betrokkenen (inzage, correctie, verwijdering); zo niet, heb ik dat proces ingericht zodat verzoeken afgehandeld worden.

Menselijke toets: Bij belangrijke beslissingen laat ik AI niet zonder menselijke controle beslissen, en gebruikers kunnen altijd om menselijke tussenkomst of uitleg vragen.

Minderjarigenbescherming: Indien van toepassing heb ik leeftijdscontroles of ouderlijke toestemming geregeld en contentfilters toegepast om jongeren te beschermen.

DPIA uitgevoerd: Ik heb – waar nodig – een DPIA uitgevoerd en de uitkomsten (risico’s en maatregelen) gedocumenteerd. Ook houd ik een verwerkingsregister bij van mijn AI-toepassingen.

Kun je alle bovenstaande punten afvinken? Dan is je AI-dienstverlening goed op weg om AVG-compliant te zijn. Het naleven van privacyregels vergt continue aandacht, maar met deze checklist kun je AI-tools als ChatGPT en n8n op een verantwoorde manier inzetten binnen de wettelijke kaders. Vergeet niet om bij twijfels advies in te winnen of de richtlijnen van de Autoriteit Persoonsgegevens te raadplegen – zo blijf je up-to-date en voorkom je verrassingen achteraf.

Bronnen

De bovenstaande tips zijn gebaseerd op actuele privacyrichtlijnen en officiële bronnen, waaronder de AVG-wetgeving en praktijkvoorbeelden en is opgesteld met behulp van een Deep Research in ChatGPT. Deze tekst is uitsluitend bedoeld als algemene informatie en praktische handvatten. Het vormt geen juridisch advies. Voor jouw specifieke situatie kunnen andere verplichtingen of aandachtspunten gelden. Raadpleeg altijd een juridisch adviseur of de Autoriteit Persoonsgegevens voor passend advies voordat je beslissingen neemt of diensten aanbiedt. Aan de inhoud kunnen geen rechten worden ontleend.

avg-support.nl
AI en privacy: wat mag wel en niet? – Uitleg over AVG en AI, inclusief checklist en aandachtspunten zoals transparantie, toestemming, dataminimalisatie en bezwaarrechten.

legalnodes.com
ChatGPT Privacy Risks for Business: How to Ensure GDPR Compliance of the OpenAI’s API – Richtlijnen over grondslagen, transparantie, toestemming, datadoorgifte, rechten van betrokkenen en bescherming van minderjarigen.

dentons.com
Generative AI vs privacy compliance: Our five-point checklist for the way forward – Praktische juridische checklist voor AVG-compliance bij generatieve AI.

community.openai.com
Zero Data Retention Information – API – Informatie over standaard bewaartermijnen (~30 dagen) bij gebruik van OpenAI API.

docs.n8n.io
Privacy | n8n Docs – Uitleg over GDPR-implementatie, data processing agreements en self-hosted verantwoordelijkheden.

openai.com
Enterprise privacy at OpenAI – SOC 2-audit, datacontrole door klant en privacybeleid.
Security | OpenAI – Overzicht beveiligingsmaatregelen (encryptie in transit en at rest).
Data processing addendum | OpenAI – Verwerkersovereenkomst (DPA) inclusief rollen, verplichtingen en SCCs.

n8n.io
n8n Legal – Informatie over encryptie, SSL/TLS, cloudhosting (Azure Duitsland) en verwerkersovereenkomsten.

slimtaal.nl
Homepage – Slimtaal – Voorbeeld van AI-gebruik zonder dat data wordt hergebruikt voor training.

Deze geven houvast om innovatie met AI te combineren met respect voor privacy.