Samme kernekrav, større scope
Der skal være behandlingsgrundlag, klart formål, passende sikkerhed og respekt for registreredes rettigheder - også når et sprogmodel-API tilføjer sessionslagring, fejlretning og kvalitetsmåling.
Teknologi og compliance
Når AI sendes ind i interne systemer, kundedata og supportflows, ændrer I typisk hele datakæden: prompts, logs, hosting og underleverandører. GDPR kræver lovlighed, gennemsigtighed, dataminimering, sikkerhed og dokumentation - bare med flere usynlige led end i klassiske databaser.
Kort om opgaven
Når I bruger kunstig intelligens på interne systemer, kundedata eller supportflows, ændrer I typisk behandlingen af personoplysninger: data sendes til modeller, lagres i logs, deles med underleverandører og kan ende i workflows, hvor formålet ikke længere er tydeligt for brugeren.
Kort sagt handler AI og GDPR i enterprise om at styre hele datakæden fra input (prompts, dokumenter, tickets) til output (svar, klassifikationer, kode) og om at sikre, at roller, kontrakter og risikovurderinger matcher den måde, I faktisk bruger værktøjet på - ikke den måde, leverandørens marketingside beskriver det.
Personoplysninger forbliver personoplysninger, men scope bliver ofte større, fordi API-kæden skjuler flere behandlingsled end i klassiske systemer.
Der skal være behandlingsgrundlag, klart formål, passende sikkerhed og respekt for registreredes rettigheder - også når et sprogmodel-API tilføjer sessionslagring, fejlretning og kvalitetsmåling.
Interne copilots, kundeserviceassistenter, HR-flows, udvikler-værktøjer og feedback-analyse kan sprede små mængder persondata bredt, hvis prompts kopieres, deles i chatrum eller gemmes uden retention-styring.
Skel mellem hvad I selv kontrollerer, hvad en leverandør behandler som databehandler, og hvad der flyder gennem subprocessorer. Uden det skel bliver compliant AI let et slogan.
hvad I selv hosterEt enterprise-AI-setup er en kæde af komponenter, hvor hvert led kan rumme persondata - også når det føles harmløst.
Det brugeren skriver, plus metadata som tid, bruger-id og tenant, sendes ofte til en sky-API eller en intern tjeneste. Det er typisk det mest direkte persondata-led, fordi prompts kan indeholde navne, sager, e-mails eller kundenumre.
Risiko: formålsforblanding og for brede kopier, der ender i chat, tickets eller supportlogs uden styring.
Modeller og hosting afgør, om inferens sker i eget miljø, hos en hyperscaler eller hos en specialiseret udbyder. Placering, kryptering og adgangskontrol er afgørende for, om data forbliver inden for aftalte grænser.
Risiko: at data passagerer regioner eller subprocessorer, I ikke har kontrakter og instrukser på.
Fejlsporing, sikkerhedsmonitorering og performance kan gemme indhold, som ikke var ment til langtidsgemning. Det er et klassisk sted, hvor minimering og retention-politikker enten bliver konkrete - eller usynligt fraværende.
Risiko: at prompts og svar ender i logfiler uden sletning, adgangstyring eller formålsafgrænsning.
Oversættelse, stemme-til-tekst, dokumentindeksering og betalingsgateways kan tilføje nye behandlere uden at det står tydeligt i den første indkøbsaftale. Kæden skal kunne tegnes uden huller.
Risiko: at I mister overblikket over subprocessorer, instrukser og godkendelser i en SaaS-stak.
Basis vælges ud fra aktiviteten og skal kunne forklares konkret for hver proces.
Roller er praktiske: de bestemmer, hvem der må hvad i kæden.
DPIA binder tekniske valg til risikobegrænsning og kontrol - ikke til en skabelon for skabelonens skyld.
Tabel til praksis
Den største risiko er ikke kun datalækage. Den er også formålsforblanding, hvor data indsamlet til ét formål ender i et andet, fordi et værktøj genbruges på tværs af teams. Samtidig er dataminimering svær, fordi det er nemt at sende for meget ind i en prompt for en sikkerheds skyld, selv når opgaven kun kræver et udsnit.
EU AI Act og GDPR overlapper, men de løser forskellige problemer: klassificering og dokumentation versus persondataret. For en CTO er skillelinjen i dagligdagen persondata-compliance over for system- og produktcompliance.
Faktorer i korte træk
Almindelige fejl og misforståelser om datasikkerhed, sky-API'er og compliant AI
Det ser ofte fornuftigt ud at købe en sikker chatbot og tro, at problemet er løst. I praksis mangler der typisk DPA'er, subprocessorer, logning med retention, dataflow-kort og en realistisk risikovurdering. Tillid kommer af konkrete kontroller - ikke af en badge på en salgsside.
Når AI ændrer sig hurtigt, skal politikker, adgang og leverandørkrav følge med. Et løbende review af ændringer i hosting, nye integrationer og faktisk brug er ofte det, der adskiller kontrolleret udrulning fra stille formåls glide.
Start med hvad der faktisk sendes til modeller, hvad der logges, og hvilke teams der genbruger prompts og udklip på tværs.
Samme diagram skal kunne læses af juridisk ejerskab og drift: roller, instrukser, regioner og subprocessorer.
Indfør rutiner for anonymisering, uddrag og manuelle kontroller, så minimering ikke kun er et princip på slideet, men en adfærd i værktøjerne.
Når I tilføjer nye integrationer eller skifter hosting, skal DPIA, DPA og adgang følge med - ellers bliver dokumentationen et øjebliksbillede fra sidste kvartal.
Små, konkrete greb der reducerer både compliance-risiko og driftstab.
DPA'er, subprocessor-lister og tydelige instrukser der kan omsættes til adgang og logging i IT.
Skabeloner til prompts, forbud mod fulde dumps i chat, og klare undtagelser for hvornår mere data er berettiget.
Hvad logges, hvor længe, hvem må se det, og hvordan slettes eller pseudonymiseres indhold.
Knyt risiko til konkrete kontroller og ejerskab, ikke til generelle AI-principper.
Hvem godkender output, hvornår er der review, og hvordan fanges fejl i produktion.
Ikke en juridisk tidslinje, men et praktisk spor for teamet der skal udføre det.
Kortlæg faktiske use cases, datakilder og hvilke persondata der kan ende i prompts, logs og integrationer.
Juster DPA'er, subprocessor-godkendelser og sikkerhedskrav så de matcher den reelle model- og hosting-kæde.
Beslut hvor DPIA er påkrævet, og bind dokumentation til konkrete kontroller og ansvarlige ejere.
Når modeller, værktøjer og workflows skifter, skal dokumentation og adgang følge med - ellers slipper kontrollen.
Korte svar på det, teamet ofte spørger om første gang I standardiserer AI-brug.
Tre dybdesider der supplerer denne guide, uden at gentage den samme EU AI Act-gennemgang.
Datagrænser, hosting og hvornår egen kontrol giver mening.
Modelinferens, miljøer og praktisk dataafgrænsning.
Dybere om risikoklasser, krav og produktsporet ved siden af GDPR.
Udrulning, governance og løbende ændringskontrol i praksis.
Korte, konkrete artikler om dataflows, leverandørkrav og praktisk CTO-styring - uden fyld.
Vi bruger kun mailen til nyhedsbrev og relevante opdateringer. Du kan framelde når som helst.