Med AI-utvecklingens framfart ställs dataskydd och reglering av AI-tjänster på sin spets. I månadens Möt Experten riktar vi därför strålkastarljuset mot Hajo Michael Holtz, universitetslektor vid Uppsala universitet, Företagsekonomiska institutionen, och expert inom handelsrätt, IT-rätt och immaterialrätt. Holtz, med en internationell bakgrund och djupgående kunskaper inom den digitala inre marknaden, har nyligen lanserat sin bok Svensk och europeisk IT-rätt. Boken erbjuder en omfattande akademisk och pedagogisk översikt över digital rätt, inklusive aktuella regelverk som GDPR och den nya AI-förordningen.
Hur ser regleringen ut kring dataskydd och AI-tjänster?
Rent generellt omfattas utvecklingen och användningen av AI-tjänster av gällande, allmän lagstiftning, förutsatt att den är tillämplig. Dataskyddsförordningen (GDPR) som sådan är teknikneutral och utgör inte något direkt hinder mot vare sig utvecklingen eller användningen av AI-tjänster, inbegripet sådana tjänster som bygger på AI-modeller för allmänna ändamål (GPAI), till exempel stora språkmodeller.
När personuppgifter behandlas i samband med utvecklingen eller användningen av AI-tjänster behöver samtliga bestämmelser i GDPR följas. Exempelvis behöver grundläggande principer såsom principerna om ändamålsbegränsning och uppgiftsminimering beaktas, det behöver finnas en laglig grund för behandlingen eller så behöver hänsyn tas till inbyggt dataskydd och dataskydd som standard. Den bestämmelse som kommer närmast en reglering av AI inom ramen för dataskyddsförordningen är artikel 22 som ställer särskilda krav på automatiserat individuellt beslutsfattande, inbegripen profilering av registrerade.
”Tillgång till stora datamängder och data av bra kvalitet en stor utmaning vid AI-utveckling”
Vilka är de största utmaningarna i samband med AI, särskilt i relation till dataskydd?
När AI-tjänster utvecklas bör den största utmaningen vara att få tillgång till tillräckligt stora datamängder och data av bra kvalitet, inklusive personuppgifter, om sådana är nödvändiga för syftet. Insamlingen av personuppgifter kan i så fall ske på olika sätt, till exempel genom webbskrapning (en metod för att automatiskt hämta och extrahera information från webbplatser. Reds. anm.), från offentliga databaser eller via dataförmedlingstjänster. Den senaste utvecklingen tycks vara att sociala nätverk och liknande tjänsteleverantörer som redan sitter på stora mängder data vill utnyttja dessa för att träna sina egna AI-modeller. Som laglighetsgrunder för träningen av AI-modeller med äkta personuppgifter kommer i den privata sektorn i princip endast intresseavvägning eller samtycke i fråga. Säkrast bör normalt vara att hämta in registrerades specifika samtycke, men det är oklart om detta är möjligt i varje enskilt fall när det gäller stora datamängder. Intresseavvägningen, å andra sidan, är beroende av att den registrerades intressen inte väger tyngre. Ju mer integritetskänslig en behandling är, desto svårare är det att stödja den på en intresseavvägning. I den offentliga sektorn bör användningen av personuppgifter för utvecklingen av AI-tjänster kräva någon form av laglig grund i nationell rätt eller EU-rätten. Används stora datamängder och om personuppgifter inte är nödvändiga för syftet kan en tillräckligt effektiv anonymisering av datamängden bli en utmaning.
När AI-tjänster används måste lämpliga säkerhetsåtgärder eller registrerades rättigheter enligt dataskyddsförordningen beaktas. För närvarande är det exempelvis inte helt klart om AI-system som ChatGPT verkligen kan uppfylla samtliga rättigheter som registrerade har, såsom rätten till rättelse enligt artikel 16 GDPR med tanke på s.k. AI-hallucinationer. I april 2023 var tjänsten ChatGPT tillfälligt avstängd för användare i Italien efter att den italienska tillsynsmyndigheten kom fram till att företaget bakom tjänsten brast i sin skyldighet att följa GDPR.
Hur påverkar EU:s AI-förordning utvecklingen och användningen av AI-tjänster, särskilt i relation till dataskydd?
AI-förordningen omfattar både den civila användningen av AI-system och användningen av AI-system på området för brottsbekämpning, till skillnad från GDPR.
AI-förordningen och dataskyddsförordningen utgör två regelverk med olika tillämpningsområden som behöver tillämpas parallellt. GDPR gäller för all behandling av personuppgifter, även om den utförs med hjälp av AI. AI-förordningen kommer bl.a. vara tillämplig på leverantörer, användare, importörer och distributörer av AI-system. Dataskyddslagstiftningen ska i det sammanhanget tillämpas och AI-förordningen ska som grundregel inte påverka GDPR, se artikel 2.7. Leverantörer och användare av AI-system behöver således ha stöd i dataskyddsförordningen för en eventuell behandling av personuppgifter som utvecklingen eller användningen för med sig.
Från denna grundregel finns dock två intressanta undantag. För det första artikel 10.5 i AI-förordningen. Denna bestämmelse avser behandling av särskilda kategorier av personuppgifter för att säkerställa övervakning, upptäckt och korrigering av bias i samband med AI-system med hög risk. För det andra artikel 59 i AI-förordningen. Denna bestämmelse avser behandling av personuppgifter i en regulatorisk sandlåda för AI och kan underlätta utvecklingen av AI-tjänster i eller för den offentliga sektorn. I dessa två fall utgör AI-förordningen den rättsliga grunden för personuppgiftsbehandlingen. I övrigt ska AI-förordningen inte tolkas som att den på något sätt tillåter behandling av personuppgifter.
Hur säkerställer den nya AI-förordningen att AI-tjänster används utan att inskränka på grundläggande fri- och rättigheter?
Enligt min uppfattning är den riskbaserade ansatsen i AI-förordningen det främsta sättet på vilket en balans mellan teknisk innovation och människors grundläggande fri- och rättigheter ska skapas. Om denna balansgång är lyckad och om produktsäkerhet är rätt regleringskoncept för detta är en annan fråga och återstår att se.
Den riskbaserade ansatsen skiljer mellan olika risknivåer. En oacceptabel risk ska leda till ett förbud för vissa AI-tillämpningar, dock med undantag, till exempel AI-baserad social poängsättning. Därefter kommer högrisksystem som endast är tillåtna under väldigt strikta villkor. Hit hör exempelvis AI-baserad biometrisk identifiering och kategorisering av fysiska personer. Högrisksystem utgör AI-förordningens fokus och sådana system behöver leva upp till omfattande krav, såsom krav på riskhanteringssystem, kvalitetskriterier vad gäller data och dataförvaltning eller mänsklig kontroll. I vissa fall behöver även en konsekvensbedömning avseende grundläggande rättigheter genomföras innan ett AI-system med hög risk används. Under lagstiftningsprocessen har sedan en ny risknivå införts som adresserar GPAI-modeller. Dessa AI-modeller kommer i två olika varianter, vanliga GPAI-modeller och sådana med systemrisk, beroende på modellens datorkraft. För GPAI-modeller gäller en kondenserad uppsättning krav som liknar kraven på högrisksystem. Den lägsta nivån utgörs av AI-system som innebär en begränsad risk och som är föremål för transparenskrav, vilket bl.a. gäller generativ AI. AI-system som medför en minimal risk för människor omfattas inte av AI-förordningen, exempelvis AI-system som inte direkt ska interagera med människor och som inte omfattas av någon tidigare nämnt risknivå.
Vilka förändringar har du märkt i hur företag hanterar dataskydd i samband med AI-tjänster, jämfört med tidigare år?
Utöver ökad medvetenhet om det värde som kan finnas i data, som jag redan nämnde ovan, har företag enligt min uppfattning blivit mer medvetna om vikten av att skydda personuppgifter i samband med AI-tjänster genom olika typer av säkerhetslösningar. Exempel kan vara användningen av syntetiska data i stället för personuppgifter, federerad maskininlärning som ett säkrare sätt att träna AI-modeller på eller anonymisering av data för att undvika tillämpningsområdet för GDPR. Jag kan också tycka att företag har blivit mer transparenta kring hur de samlar in och använder data samt hur användare kan utöva sina rättigheter. Även den generella kunskapsnivån kring AI verkar öka, se i detta avseende också artikel 4 i AI-förordningen.
Vilka förändringar i dataskydds- eller AI-regleringen skulle du vilja se för att bättre skydda individers rättigheter, baserat på din erfarenhet och expertis?
Jag upplever bl.a. artikel 5 i AI-förordningen som problematisk. Även om bestämmelsen benämns som ett ”förbud” innehåller den flera undantag och kommer i praktiken fungera som en tillåtelse för medlemsstaterna. Detta gäller exempelvis polisens användning av AI-baserad biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser. Även förfarandet AI-baserad social poängsättning, som jag uppfattar som väldigt integritetskränkande, kommer vara lagligt om det bl.a. är ”motiverat” eller ”proportionerligt”. AI-förordningen innehåller inte heller något allmänt krav på att individer måste samtycka till att AI-system används emot dem. Jag har inte svårt att föreställa mig att spridningen av AI i längden kommer leda till någon form av övervakningssamhälle och AI-förordningen verkar främja den utvecklingen mer än att bromsa den.