Artificiell intelligens, AI, skapar otroliga möjligheter. Allt från snabbare framsteg inom medicinsk forskning, effektiviseringsvinster, starkare kundrelationer och bättre kundservice till möjligheter att accelerera FN:s klimatmål. Men med stora möjligheter kommer också ett stort ansvar. Vem har ansvaret för artificiell intelligens och hur sätter vi implikationerna av AI i en bredare etiskt och social kontext?
- I samband med att AI blir alltmer integrerat i våra dagliga liv uppstår en ny negativ externalitet, negativa dolda värden, som kan ses som en typ av digital förorening, säger Anna Felländer, grundare till anch.AI som hjälper företag med etisk adoption av AI-teknologi.
Lyssna på Anna Felländer i podden Juridikens värld.
För att undersöka den digitala föroreningen, och rotorsakerna till den inom organisationer, initierade Anna Felländer en tvärvetenskaplig forskargrupp på KTH. Det resulterade i ett etiskt AI risk-ramverk för organisationer. Hon menar att organisationer behöver ta ansvar eftersom regelverket släpar efter och att myndigheter har svårt att anamma regelverket på den nya teknologin.
- Plattformsekonomin gör det också svårt för konsument att använda sin rätt att opta ut. När Facebook gör misstag finns inget alternativ för konsument. Dessutom har konsumenter inte tillräcklig med insikt över hur deras data används. Det har inte skett tillräckligt mycket forskning och utveckling för att göra AI transparent och förklarbart, säger Anna Felländer.
De flesta företag har under de senaste åren gått igenom en omfattande digitalisering som resulterat i att datadrivna lösningar är en integrerad del av organisationens kärnverksamhet. Men, otillräcklig styrning av data drivna lösningar och AI öppnar dörren för risker som diskriminering och social exkludering.
- Vår tvärvetenskapliga forskning har identifierat och kategoriserat sex oavsiktliga risker med AI: integritetskränkning, diskriminering, förlorad autonomi tex när man ofrivilligt knuffas till beteenden eller beslut, desinformation, social exkludering och harm to safety, när människors fysiska eller psykiska trygghet skadas. Vi ser att fyra orsaker ligger bakom föroreningen: missbruk av data eller överanvändning av data, skaparens partiskhet, omogen data och AI eller bias i data, förklara Anna Felländer.
Länk till den vetenskapliga artikeln.
Den nya EU förordningen (AI Act) – världens första specifika reglering av AI – kan bli antagen våren 2024. Experterna säger att EU med förordningen vill visa upp hur ”Good AI” ska se ut, att det är vårt västerländska samhälle och grundläggande rättigheter som ska vägleda samt att det finns en insikt om att AI-system i sig innebär en risk och kan komma att orsaka skador, och därför behöver regleras.
På samma sätt som dataskyddsförordningen GDPR påverkade alla branscher väntas AI-förordningen därför föra med sig ökade krav på rutiner och processer för att kvalitetssäkra AI-system.
Anch.AI hjälper företag med etisk adoption av AI-teknologi och regelefterlevnad av det nya AI regelverket, och de lanserade nyligen sin nya plattform. Plattformen samlar in information utifrån tre perspektiv – det tekniska, det legala och det affärsmässiga – för att kunna rapportera hur företag och organisationers datadrivna lösningar står sig mot lagstiftning och förväntningar om säkerhet och etiskt ansvar.
- Vi erbjuder organisationer att testa vår plattform för etisk styrning gratis. Genom att svara på ett antal självbedömningsfrågor utvärderas organisationens risk utifrån olika perspektiv. Värdet är kontroll, styrning och en oberoende validering av etisk AI och uppdateringar sker kontinuerligt i takt med att nya efterlevnads- och regleringsåtgärder kommer, avslutar Anna Felländer.
Lyssna på Juridikens värld och avsnittet med Anna Felländer här.
Mer om anch.AI och möjlighet att testa plattformen.