KUNSTIG INTELLIGENS

Tas det nok etiske hensyn med KI? – Overhodet ikke, sier Norges eneste med doktorgrad i emnet

Dagens bruk av kunstig intelligens har et akutt behov for regulering, mener Elisabeth Austad Asser. Hun har tatt doktorgrad på etisk bruk av KI i banker og har rekke råd om hvordan det skal gjøres best.

Elisabeth Austad Asser, direktør for bærekraft i Sparebanken Sør og har doktorgrad på etisk bruk av KI i banker.
Publisert

– Problemet med algoritmer, om vi begrenser oss til KI som maskinlæring, er at de i grove trekk bestemmer hvem som er innenfor og hvem som er utenfor. Det er jo det algoritmene skal gjøre. Sortere, utelukke og finne mønstre i store datagrunnlag. 

– Utfordringen er at en stadig mer algoritmestyrt verden fort kan sette demokratiske verdier i spill. I Norge er vi for mangfold, at alle skal bli hørt og alles rettigheter skal bli ivaretatt. Men en maskin som sannsynlighetsberegner seg frem til svaret, gjør det motsatte. Det er en homogeniserende kraft, som prøver å ta bort det som stikker seg ut. 

– Skal vi bruke KI på en ansvarlig måte er dette en forståelse og kompetanse som må finnes i de team som jobber med det.

Elisabeth Austad Asser maler med bred pensel da hun skal forklare BankShift noen av de utfordringene som finnes med å ta i bruk kunstig intelligens på en etisk forsvarlig måte. 

Til hverdags jobber hun som direktør for bærekraft i Sparebanken Sør, men denne analysen gjør hun i egenskap av å være eneste nordmann med en doktorgrad på etisk bruk av KI i banker.

Avhandlingen heter «Alt på stell. En studie i hvordan bruk av kunstig intelligens kan hemme eller fremme Sparebanken Sør sine verdier» og disputasen ble gjennomført i slutten av november i fjor.

Må være bevisst forskjellen mellom null og én

I avhandlingen kommer hun en rekke gode råd til hva banker kan gjøre for å drive med KI på en etisk ansvarlig måte. Disse skal vi komme tilbake til, men først må den innledende analysen utvikles litt mer og historien om noen fremsynte valg i Sparebanken Sør fortelles.

– Om vi flytter analysen ned på banknivå. Du mener altså at det finnes et problem med å la en maskin ta den binære avgjørelsen om hvem som er «et null» og hvem som er «en ener» i en lånesøknad?

– Det er i hvert fall noe man må være veldig bevisst på, særlig når det gjelder å unngå skjevfordeling i den data som brukes som grunnlag, sier Asser og fortsetter:

– Om vi eksempelvis hadde brukt alt datagrunnlag tilbake til 50-60-tallet for å avgjøre hvem som får lån i dag, hadde det sannsynligvis vært menn 45+ boende på noen få utvalgte adresser som hadde fått tilslag.

På Betalings- og digitaliseringskonferansen nylig fortalte Elisabeth Austad Asser om alt man må tenke på om bruken av kunstig intelligens i banker skal holde seg innenfor etiske rammer.

Et annet eksempel Asser nevner, er om en algoritme avslår en lånesøknad fra en betalingsdyktig søker på bakgrunn av at kunden tilfeldigvis bor i et nabolag der naboene har misligholdt lånene sine. 

– Og hvis kunden da klager, hvem er ansvarlig? Er det kunderådgiveren, den som sitter på telefonen og snakker med kunden? Er det den som har lagd algoritmen, er det banken, hvem er banken? Å ha svar på alle disse spørsmålene er en også del av det etiske arbeidet.

Skjevheter må lukes vekk 

Et tredje, kjent eksempel på bias i datagrunnlaget kommer fra USA. Da Apple og Goldman Sachs lanserte kredittkortet Apple Card i 2019 endte det med at de ble etterforsket for kjønnsdiskriminering. Dette etter at den danske tech-entreprenøren og bloggeren David Heinemeier Hansson tvitret om at han selv fikk 20 ganger høyere kredittgrense enn kona på kortet, til tross for at kona hadde både høyere inntekt og kredittscore. 

–  Vi må bli AI-ready og rydde opp i våre data før maskinene tar dem i bruk. Nå er det jo ikke mulig å fjerne alle skjevheter i et datagrunnlag, men vi må være gode aktører og ha et bevisst forhold til og kontinuerlig jobbe med å sikre at våre data er så representative og frie for skjevheter som det bare er mulig, sier Asser, om det hun mener er noe av det aller viktigste man må tenke på.

Ifølge Asser finnes det flere forskere som mener den voldsomme digitaliseringen som har fulgt i sporene av maskinlæring og kunstig intelligens til og med er på vei å skape en slags usynlige digitale fattighus, der mennesker bli holdt nede fordi algoritmene utelukker dem fra ting andre får ta del av.

Fremsynt ja fra sjefen

For å skjønne hvordan Asser endte opp med en doktorgrad i etisk KI, må vi tilbake til den tiden hun jobbet som leder for Digitale kanaler og Marked i Sparebanken Sør. 

I arbeidet med å forbedre både de digitale kundegrensesnittene basert på kundedata og arbeidet med digital markedsføring basert på kundedata, var det mye spennende som var mulig å gjøre og som ikke falt inn under GDPR, men som likevel vekket spørsmålet: «bare fordi vi kan gjøre dette, er det ikke sikkert at vi bør gjøre det ut fra etiske vurderinger». Hun fikk stadig flere spørsmål fra sine medarbeidere rundt bruk av kundedata som sånn sett var lovlig, men som slik hun vurderte det, var i en uavklart gråsone. 

Asser søkte etter svar i forskningslitteraturen. Da hun ikke fant noe særlig, gikk hun til konserndirektør i Sparebanken Sør, Geir Bergskaug, med forslag om at banken – også som en del av sitt samfunnsansvar – kunne være med og finansiere en doktorgrad som skulle skaffe til veie mer kunnskap om hvordan en bank bør bruke kunstig intelligens på en god og etisk måte. Bergskaug svarte raskt ja.

Det som gjør det hele litt spesielt, er at den samtalen fant sted i 2019, altså omtrent tre år før verden ble kjent med Chat GPT. Verken Asser eller Bergskaug ante den gang hvor fremsynt den beslutningen skulle bli.

Chat GPT beviste hypotesen

Asser fikk forskningsfri fra banken i og begynte på sin doktorgrad ved Universitetet i Agder i 2020, og Sparebanken Sør og Forskningsrådet spleiset på kostnadene for nærings-PHD-en. Skriveprosessen var ferdig våren 2023, noen måneder etter at Chat GPT hadde vendt opp ned på verden og omtrent samtidig som Inga Strümke lanserte sin bestselger «Maskiner som tenker». Selve disputasen fant sted et halvår senere, 29. november 2023.

– Timingen var helt vanvittig. Plutselig kom Chat GPT og ble i praksis eksempel på en rekke av de mulighetene og utfordringene jeg pekte på i avhandlingen min, sier Asser.

Dårligt med etiske hensyn innen KI

– Hvordan ser du på bruken av kunstig intelligens og maskinlæring i dag? Blir det tatt etiske hensyn?

– Det finnes selvfølgelig unntak, men generelt sett – overhodet ikke. I dag ligger hovedutviklingen i hendene på store kommersielle aktører som utvikler algoritmer for kommersielle hensikter, sier Asser og poengterer at det ikke er et nytt fenomen. 

– De store tech-gigantene og andre har samlet enorme mengder data om oss i mer enn 20 år og brukt dem for å påvirke oss i en eller annen retning, fortsetter hun og nevner boken «Overvåkingskapitalismens tidsalder» 

Shoshana Zuboffs bestseller fra 2019 beskriver hvordan selskaper som Google og Facebook fikk oss å bytte personvern mot praktiske teknologiske løsninger, og hvordan de bruker all data for å forutsi våre handlinger, men også å påvirke og endre dem. 

Ja til  «algoritmetilsyn»

Asser er glad for at EU besluttet å innføre AI Act tidligere i år. At myndighetene innfører reguleringer, mener hun er helt avgjørende.

Hun stiller seg også bak dem som mener at Norge trenger et eget «algoritmetilsyn» som sikrer at KI-systemer ikke bryter med norsk lov og folks grunnleggende politiske, sivile og økonomiske rettigheter. 

Hennes råd til banknæringen er på mange måter en oppskrift for hvordan banker også må forberede seg på en fremtid der revisjon av algoritmer blir like viktig som den finansielle revisjonen.

– Dette forskningsarbeidet er på mange måter en fortsettelse av det samfunnsansvaret sparebankene tradisjonelt alltid har ønsket å ta, anvendt på den teknologien vi nå er med og skaper. Vi må sørge for at teknologien vi lager er bærekraftig i ordets rette forstand, ikke bare at den er klimavennlig, men at vi også sørger for at den eksempelvis ikke er med på å skape større sosiale forskjeller, men bidrar til å skape et samfunn vi alle både kan og ønsker å leve i, sier Asser.

Elisbeth Assers ni gode råd om KI-bruk i banker

I sin avhandling listet Elisabeth Asser 13 råd. På Betalings- og digitaliseringskonferansen til Finans Norge nylig, presenterte hun en komprimert liste med ni gode råd. Det er disse som blir presentert her.

  1. Strategisk forankring: En KI-strategi må være fast forankret i bankens forretningsplan og kjerneverdier, mener Asser. Man må også være tydelig på hva ulike teknologier skal brukes til og KI først og fremst er et verktøy som skal brukes for å støtte opp om bankens verdier.
  2. Datakvalitet: Data må være rettferdige, balanserte og av høy kvalitet og kontinuerlig gås gjennom for å sikre at de er representative og uten skjevheter. Det er særlig viktig å ha et forhold til eventuelle skjevheter som kan ligge i datagrunnlaget. 
  3. Eierskap: Alle som skal jobbe med ansvarlig KI må ha internt eierskap til oppgavene.
  4. Mangfold: Det er viktig å bruke tverrfaglige team der folk med ulik kompetanse og ulik bakgrunn deltar. Samarbeid med sårbare grupper, som gjerne blir utelatt når algoritmer bestreber seg for å homogenisere dataene er et annet viktig punkt.
  5. Algoritmevalg: Velge algoritmer som reduserer risiko for skjevhet og ivaretar rettferdighet. I dette legger Asser også inn et miljøperspektiv. Trening av KI-modeller krever store mengder energi, kan man samarbeide om modeller, lage hyllevare og så videre for å senke energikostnadene.
  6. Kontinuerlig læring: Bygge en kultur der hele organisasjonen forstår og bidrar til bruk av etisk KI. De handler også om at alle må forstå dataene som hentes inn og hvorfor de hentes inn.
  7. Åpenhet: KI-drevne beslutninger må kunne forklares for både ansatte og kunder. En algoritme som avgjør lånesøknader, kan ikke bare lages én gang og slippes løs. Den må kontinuerlig følges opp og avgjørelsene sjekkes. Organisasjonen må også være forberedt på revisjon av algoritmer.
  8. Ansvar: Tydelighet om hvem som har ansvaret for KI-prosesser og beslutninger tatt av maskiner. 
  9. Lover og regler: Ansatte må ha kunnskap om gjeldende lover og regler. AI Act er et sentralt eksempel.