Datastyrd teknik och artificiell intelligens (AI) är kraftfullt och medför stora fördelar för samhället. Men stora möjligheter innebär också stort ansvar. Det gäller särskilt inom juridiken. Om AI inte kontrolleras kan oavsiktliga etiska fallgropar och juridiska överträdelser växa exponentiellt och bortom vår kontroll. Den kommande EU-förordningen om artificiell intelligens (the AI Act), kommer att innebära att de juridiska avdelningarna måste ta ett steg framåt och bryta alla befintliga tekniska silos. Alla organisationer har ett val att göra, här och nu: Ska vi låta tekniken styra oss eller ska vi styra tekniken?
Vad AI kan göra och vad AI bör göra – ta ställning!
AI utan styrning innebär etiska risker och juridiska överträdelser
AI driver på den tekniska utvecklingen och kan ses som en ny teknik för allmänna ändamål (General Purpose Technology, GPT). I framtiden kommer vi inte att tänka på tekniken så, utan vi kommer snarare att betrakta den som vi gör med elektricitet. AI lämpar sig väl för uppgifter där det finns en hög grad av förutsägbarhet som utgår ifrån stora mängder data, till exempel mönsterigenkänning i rättsliga utredningar. AI-modeller har också visat sig kunna göra antaganden och förutsägelser om mycket komplexa uppgifter och därmed imitera mänskligt beteende. I det senare fallet har det varit svårt att förklara och tolka algoritmens beslut.
Tekniska team utvecklar idag AI-lösningar i en ”svart låda” och i organisatoriska silos utan några krav på att följa regelverket eller organisationens etiska värderingar. Som en följd av detta har det förekommit fall av oavsiktlig diskriminering och intrång i den personliga integriteten*. Det finns exempel på rättegångar där AI-modeller har förstärkt fördomar och lett till felaktiga domar baserade på historiska normer och mönster. Grundorsakerna kan hittas i bristen på valideringsprocesser för AI-lösningens marknadsmässighet, oönskade fördomar i data, överanvändning eller missbruk av data och AI samt fördomar hos den som skapar koden.
För uppgifter med hög grad av intuition, kreativitet och empati – använd AI som ett komplement, inte som en källa till sanning.
Där AI brister är när det gäller förmågan att vara kreativ, intuitiv och empatisk, vilka alla är delar av analytiska färdigheter. När man ser på hur AI används inom juristyrket finns det uppgifter med en hög grad av dessa komponenter. Enligt min åsikt kommer dessa uppgifter att värderas högre än tidigare, och det är här som organisationer måste vara öppna med sina värderingar för att skapa förtroende och minska alla farhågor om oönskade mänskliga fördomar. Här kan AI användas som ett komplement till den juridiska professionen när all data har omvandlats till värdefulla insikter av AI-lösningen och den kreativa, intuitiva och empatiska navigeringen lämnas till den mänskliga interaktionen. När allt kommer omkring är människans färdigheter i fråga om kreativitet, intuition och empati fortfarande överlägsna AI:s färdigheter.
Vad gäller skälen till att investera i AI bör jurister ta hänsyn till klientens behov – billiga AI-drivna juridiska tjänster utan mänsklig interaktion för huvuddelen av uppdragen och högkvalificerade advokater och jurister för att hantera komplexa uppgifter och mänskliga känslor.
Din organisation kan vara utsatt för kostsamma affärs- och ryktesrisker och du måste bedöma alla AI-lösningar inom din organisation utifrån dina egna specifika affärsrisker. Du kan välja mellan att låta förordningen bli en administrativ våt filt eller att se den som en möjlighet att skapa pålitliga och hållbara affärsmodeller.
Anna Felländer | Grundare av anch.AI
EU:s kommande förordning om artificiell intelligens kommer att kräva en organisationsövergripande styrning
Det krävs tre för att dansa tango – ny styrningsdans för juristyrket
AI-lösningar utvecklas ofta i en teknisk silo utan integrerad teknisk, juridisk, etisk och affärsrelaterad överblick, vilket kan leda till kostsamma och skadliga risker för verksamheten. Begreppet ”fairness” betyder till exempel olika saker för teknikteamet och juristteamet. För teknikteamet har begreppet ”fairness” ingen grund i reglering eller överensstämmelse med organisationens etiska värderingar och principer. Dessutom beaktas inte begreppet ”fairness” i de olika sammanhang där lösningen ska användas.
Jurister är inte utbildade i att förstå kod. Kodare är inte utbildade eller vägledda i organisationens etiska principer och ibland är det bara affärsteamet som känner till de olika sammanhang där lösningen ska användas. Eller kan missbrukas. Kritiska affärsbeslut kan inte fattas i en teknisk silo. Till exempel övervägandet om eller avvägningen av hur smart en stad kan bli utan att inkräkta på privatlivet. Eller när en rekommendationsmotor håller på att gå från att vara praktisk till att kränka våra mänskliga rättigheter att fatta självständiga beslut. Det är här juristerna måste ta ett steg ut ur sin bekvämlighetszon och kräva fullständig anpassning och visualisering av etiska överväganden som överensstämmer med lagstiftningen och med organisationens etiska värderingar och principer. Om det finns rättsliga krav som inte tillämpas av det tekniska teamet, hur bra är de då? Förklaringsmodeller som används i teknikteamet och som inte förstås av det juridiska teamet eller affärsteamet, hur bra är de? Det är viktigt att teknik-, juridik- och affärsteamet är överens.
Den kommande AI-förordningen – ett nytt GDPR-ögonblick
Förbjuden AI kommer att bestraffas med upp till 6% av intäkterna och högrisk-AI kommer att regleras med sanktioner på upp till 4% av intäkterna. Definitionen av högrisk-AI bygger på det avsedda syftet och risken för att skada människors rättigheter, säkerhet och grundläggande rättigheter. Det kommer att krävas omfattande rapportering, styrning och revision av AI inom exempelvis finans, transport, offentlig sektor, utbildning, rekrytering och rättsväsendet. AI med begränsad risk, som t.ex. chattrobotar, kommer att kräva transparens. Detta är helt klart ett nytt GDPR-ögonblick.
Din organisation kan vara utsatt för kostsamma affärs- och ryktesrisker och du måste bedöma alla AI-lösningar inom din organisation utifrån dina egna specifika affärsrisker. Du kan välja mellan att låta förordningen bli en administrativ våt filt eller att se den som en möjlighet att skapa pålitliga och hållbara affärsmodeller. Min slutliga kommentar till resultatet av rapporten, Framtidens jurist 2022, är att det inte bara handlar om införandet av ny teknik, utan också om kunskapen om hur man implementerar befintliga och nya krav i en ny och ständigt föränderlig miljö. Anpassningsbarhet och förmåga att agera på förändringar är nyckeln, liksom ledningens engagemang för värdedrivna affärsmodeller.
*) Andra risker som kategoriseras av anch.AI är: förlorad autonomi, missuppfattad och felaktig information, social exkludering och skadlig inverkan på säkerheten. Se anch.AI:s ethical AI risk assessment methodology.
Ytterligare trender i juristbranschen går att läsa om branschrapporten Framtidens jurist 2022. I årets rapport lyfter Skandinaviens jurister ett ökat krav på balans mellan arbete och privatliv, vikten av ny teknik, digitalisering och legal tech för en ökad produktivitet samt att hållbarhet är det som lockar framtidens jurister till nya arbetsgivare.