De combinatie van GDPR en generatieve AI levert vraagstukken op die in 2018 nog niet bestonden. Wat doet een prompt-log met persoonsgegevens? Waar zitten embeddings als ze in een vector-database worden weggeschreven? Welke rechtmatigheidsgrondslag past bij een RAG-pipeline die documenten met BSN raakt? Wij benaderen deze vragen niet op het niveau van beleidsteksten, maar als architectuur-keuzes die in code, configuratie en contract worden vastgelegd.
De DPIA als startpunt
Iedere AI-use-case die persoonsgegevens raakt, vraagt onder GDPR Art. 35 om een DPIA. Wij voeren deze beoordeling uit volgens een vaste structuur: doel en context, systematische beschrijving van de verwerking, noodzakelijkheids- en evenredigheidstoets, risico-inventarisatie voor de betrokkenen, en de tegenmaatregelen. Voor LLM-toepassingen voegen wij specifieke modules toe: prompt-injection-risico, ongewenste leakage van trainingsdata, en de juridische status van model-output bij geautomatiseerde besluitvorming onder Art. 22.
BSN-veilige architectuur voor zorg en publiek
Voor zorgaanbieders, gemeenten en uitvoeringsorganisaties geldt een aanvullend regime onder de Wet aanvullende bepalingen verwerking persoonsgegevens (Wabvpz) en de Wbsn-z. Wij ontwerpen RAG-pipelines waarin BSN-houdende velden vóór embedding-creatie worden gepseudonimiseerd via een gescheiden token-mapping, en waarin output-validatie voorkomt dat een LLM onbedoeld een BSN reproduceert. De vector-database — Pinecone of Weaviate — slaat alleen gepseudonimiseerde representaties op. Bij beantwoording wordt de oorspronkelijke identifier alleen geretourneerd na expliciete autorisatie en logging.
Data-minimalisatie op architectuurniveau
Data-minimalisatie (Art. 5 lid 1c) wordt te vaak vertaald als beleidsregel. Wij maken er een architectuurprincipe van. Voor iedere ingestion-pipeline definiëren wij precies welke velden noodzakelijk zijn, welke pseudonimisering ondergaan, en welke voor de verwerking worden uitgesloten. Voor het inferentie-pad gebruiken wij Azure OpenAI of AWS Bedrock met data-residency in Europa, opt-out van trainings-feedback, en versleutelde prompt-logging met een retentie die per use-case is afgesproken — vaak zes tot twaalf maanden, met een maximum dat door de DPO is goedgekeurd.
Verwerkersovereenkomsten en sub-verwerkers
Voor iedere AI-provider (OpenAI, Anthropic, Mistral) en infrastructuur-provider (Microsoft Azure, AWS) wordt de verwerkersovereenkomst onder Art. 28 herzien op AI-specifieke risico's: trainingsdata-gebruik, sub-verwerker-doorgifte naar derde landen, audit-rechten en datasubject-rechten. Wij begeleiden de juridische dialoog tot een werkbaar contract, zonder de implementatie maandenlang te vertragen. Onze klanten houden eindcontrole over de verwerkers-keten — een vereiste die in de praktijk vaker dan gedacht ontbreekt.