I takt med att artificiell intelligens (AI) fortsätter att revolutionera hamnar integritetsfrågor kring stora språkmodeller (Large Language Models, LLM) i fokus. Dessa modeller, som tränas på stora mängder data, kan snabbt bearbeta och generera text, men de etiska och juridiska konsekvenserna av att använda personuppgifter inom dessa modeller väcker viktiga frågor. I den här artikel fördjupar vi oss i komplexiteten kring integritetsfrågor inom AI tillsammans med Norstedts Juridiks GDPR- och regelefterlevnadsexperter Maiken Sundahl Jakobsen och Sti Østergaard, som delar med sig av sina insikter om datakällor, anonymisering och rättsliga ramar.
Datakällor och offentlig information
Språkmodeller tränas vanligtvis på ett brett spektrum av data, inklusive all offentligt tillgänglig information på internet. Datainsamlingsreglerna i DSM-direktivet tillåter användning av data så länge den är lagligt tillgänglig, såvida inte dataägaren aktivt väljer att avstå. Det medför risken att personuppgifter oavsiktligt inkluderas i träningsprocessen av språkmodeller. Även om företag kan implementera åtgärder för att minska risken, till exempel genom att blockera tillgång till information om icke-offentliga personer, kvarstår utmaningen att säkerställa att personuppgifter inte oavsiktligt inkluderas.
Utmaningen med att ta bort data
När en modell väl har tränats på en dataset blir det nästan omöjligt att ta bort specifik data, särskilt personuppgifter. Även om företag kan implementera mekanismer för att anonymisera, krävs ofta ytterligare lager av AI-teknik för att säkerställa att integritetsstandarder efterlevs. Sti Østergaard betonar att det här är en av de stora utmaningarna inom AI-utveckling.
Sti Østergaard, Nordic Data Protection & Compliance Manager
– När data väl är inbäddad i en stor språkmodell (LLM) är det mycket svårt att extrahera den. Du måste i princip radera hela databasen och börja om, säger Sti.
Rättsliga ramar: GDPR och integritet
GDPR och andra regelverk, såsom AI-förordningen (the AI ACT), ger en ram för att säkerställa skydd av personuppgifter i AI-modeller. AI-förordningen kompletterar befintlig lagstiftning och riktar sig främst mot stora teknikföretag och system som klassificeras som högriskbearbetning av data. Förutom GDPR påverkar även dataförordningen (the Data Act), DSM-direktivet och Data Governance Act hur data används i AI. Efterlevnad av dessa regler är obligatorisk när AI-modeller hanterar alltmer känslig information.
Etiska riktlinjer spelar också en avgörande roll. Även om efterlevnad av GDPR är en basnivå kräver etisk AI-utveckling att företag endast använder personuppgifter med en laglig grund. Utvecklare måste också säkerställa att individer är medvetna om hur deras data behandlas, även om AI-modellernas komplexitet gör fullständig transparens svår att uppnå.
Anonymisering och risken för identifiering
Anonymisering föreslås ofta som ett sätt att skydda integriteten, men det är tekniskt svårt att uppnå fullständig anonymitet då det alltid finns en risk för återidentifiering även med avancerade tekniker. Just den begränsning är anledningen till att samtalet om integritet inom AI fortsätter att utvecklas och experter ifrågasätter om nuvarande metoder är tillräckliga för att skydda individer.
Istället för att oroa sig för GDPR-efterlevnad bör vi omfamna pseudonymisering som en praktisk lösning.
Maiken Sundahl Jakobsen, Nordic Data Protection & Compliance Manager
– Att uppnå total anonymisering är extremt svårt på grund av komplexiteten i att säkerställa fullständig anonymitet samtidigt som datans användbarhet bibehålls. Istället för att oroa sig för GDPR-efterlevnad bör vi omfamna pseudonymisering som en praktisk lösning. Det gör att vi kan skydda personuppgifter effektivt samtidigt som vi uppfyller regulatoriska krav, säger Maiken Sundahl Jakobsen.
Hantera tredjepartsdata och etisk insamling
När AI-utvecklare förlitar sig på datakällor från tredje part är det kritiskt att säkerställa att datan har samlats in etiskt. Företag måste förlita sig på avtal med leverantörer för att säkerställa efterlevnad av integritetslagar.
– Kontraktuella skyddsåtgärder är avgörande för att säkerställa ansvarsfull användning av data i AI-lösningar. De utgör grunden för efterlevnad av integritetslagar och etiska standarder. Förtroende mellan parterna är avgörande; transparens och öppenhet kring datakällor och bearbetningsmetoder skapar förtroende och främjar långsiktiga partnerskap, bekräftar Sti.
Transparens och öppenhet skapar förtroende hos kunderna
Transparens i datakällor är nyckeln till att bygga förtroende för alla AI-lösningar. Norstedts Juridiks AI-lösning, JUNO AI, är byggd ovanpå en språkmodell, vilket innebär att företagets egna data inte blandas in i den grundläggande modellen. Det minimerar risker och säkerställer att behandlingen av personuppgifter följer integritetslagstiftningen.
Norstedts Juridik följer en robust AI- och dataetikpolicy som styr användningen av AI inom organisationen. Dessa etiska standarder, kombinerade med transparens i hur data används, hjälper till att skapa förtroende hos användarna.
– En AI- och dataetikpolicy är avgörande när man arbetar med AI, eftersom den säkerställer ansvarsfull och etisk användning av data. Vår policy utgör ryggraden i JUNO AI:s utveckling och styr varje steg för att säkerställa efterlevnad av integritetslagar och skapa förtroende hos användarna. Genom att följa dessa etiska standarder kan vi bygga AI-lösningar som både är innovativa och respekterar individens integritet, avslutar Maiken.
AI-teknologins snabba utveckling presenterar spännande möjligheter men innebär också betydande integritetsutmaningar. Rättsliga ramar som GDPR och AI-förordningen ger en grund för ansvarsfull AI-utveckling, men etiska riktlinjer och anonymiseringstekniker måste också följas för att skydda personuppgifter. Framtiden för AI-företag ligger i transparens, ansvarsfull användning av data och utveckling av integritetsbevarande tekniker. Norstedts Juridik tror att efterlevnad av strikta etiska och juridiska standarder inte bara är en regulatorisk nödvändighet – det är rätt sak att göra och det vi önskar bli kända för.
Läs mer om Norstedts Juridiks AI-tjänst här: Nu blir JUNO smartare | Norstedts Juridik (nj.se).