📌 Kunstig rettferdighet: NĂ„r maskinen dĂžmmer

NĂ„r algoritmen dĂžmmer – hvem tar ansvar for feil?

Vi liker Ä tenke pÄ teknologi som objektiv. NÞytral. Fri for fÞlelser og fordommer. Og nettopp derfor bruker vi den nÄ i stadig flere sammenhenger som krever «rettferdighet»:

  • Hvem skal fĂ„ lĂ„n?
  • Hvem er kvalifisert for jobben?
  • Hvem skal prioriteres i helsekĂžen?
  • Hvem fĂ„r mulighet, og hvem blir valgt bort?

Men hva skjer nÄr dommeren ikke er et menneske, men en algoritme?

Og kanskje enda viktigere: Hva skjer nÄr den tar feil?

EU-reguleringer

Det finnes EU-reguleringer som omhandler bruken av kunstig intelligens (KI) i beslutningsprosesser, spesielt innen finanssektoren. Den europeiske unionen har vedtatt en omfattende lovgivning kjent som AI Act, som trĂ„dte i kraft 1. august 2024. Denne loven klassifiserer KI-systemer etter risikonivĂ„, og kredittvurdering er definert som en «hĂžyrisiko»-applikasjon.

For slike hþyrisiko KI-systemer stilles det strenge krav til:​

  • Kvaliteten pĂ„ datasett som brukes
  • Teknisk dokumentasjon og loggfĂžring
  • Transparens og informasjon til brukere
  • Menneskelig overvĂ„king
  • Robusthet, nĂžyaktighet og cybersikkerhet​

Disse kravene er ment Ă„ sikre at KI-systemer ikke diskriminerer eller tar beslutninger uten tilstrekkelig menneskelig innsikt.

Det er ogsĂ„ verdt Ă„ merke seg at EU-kommisjonen har etablert en europeisk KI-styrelse for Ă„ overvĂ„ke implementeringen av AI Act og sikre at medlemslandene fĂžlger de fastsatte retningslinjene. ​

Disse reguleringene representerer et skritt mot mer ansvarlig og rettferdig bruk av KI i beslutningsprosesser som pÄvirker enkeltpersoners liv, spesielt innen finanssektoren.

⚖ NĂ„r rettferdighet kodes inn

Algoritmer brukes i Ăžkende grad til Ă„ ta beslutninger i alt fra rekruttering til rettsvesen. De lover effektivitet, konsistens – og rettferdighet.
Ingen skal lenger dÞmme basert pÄ magefÞlelse, humÞr eller fordommer.
Det hĂžres bra ut, ikke sant?

Men virkeligheten er mer komplisert.

For algoritmene er trent pĂ„ historiske data – og historien har aldri vĂŠrt nĂžytral.
Den bĂŠrer med seg skjevheter, strukturelle ulikheter og usynlige bias.
Hvis maskinen «lĂŠrer» av tidligere ansettelser, tidligere dommer, tidligere helseprioriteringer – sĂ„ lĂŠrer den ogsĂ„ skjevhetene som lĂ„ der. Og det gjĂžr den med presisjon og hastighet.
Mange ganger uten at vi engang vet hva den har sett.

đŸ€– NĂ„r maskinen dĂžmmer – men ingen tar ansvar

Det finnes allerede eksempler pÄ algoritmer som har:

  • Foretrukket mannlige jobbsĂžkere
  • Underprioritert pasienter med mĂžrk hudfarge
  • Forutsagt hĂžyere risiko for kriminalitet blant visse grupper
  • Gitt dĂ„rligere lĂ„nevilkĂ„r til kvinner

NÄr slike feil oppdages, stiller man spÞrsmÄlet: Hvem har skylden?

  • Er det utvikleren som skrev koden?
  • Selskapet som tok den i bruk?
  • Eller samfunnet som ga maskinen dataene den ble trent pĂ„?

Ofte er svaret: ingen. Eller rettere sagt: alle – men samtidig ingen spesifikt. Og det er nettopp dette som er problemet. Vi har skapt et system der makt og ansvar ikke lenger henger sammen.

🔍 Etisk vakuum – eller nytt mulighetsrom?

Det betyr ikke at teknologien i seg selv er ond eller farlig. Men den er heller ikke god og rettferdig pÄ egen hÄnd. Rettferdighet mÄ bevisst bygges inn. Den mÄ testes. Vurderes. Forklares. Og kanskje aller viktigst: Den mÄ kunne utfordres.

For hva skjer med samfunnet vĂ„rt dersom avgjĂžrelser tas av systemer vi ikke forstĂ„r – og ikke kan stille til ansvar?

💬 Retten til Ă„ bli vurdert som menneske

Kunstig intelligens kan vĂŠre et fantastisk verktĂžy – men det er fortsatt et verktĂžy. Vi mĂ„ aldri glemme forskjellen pĂ„ et verktĂžy og et menneske.

Rettferdighet handler ikke bare om tall og sannsynlighet. Den handler ogsÄ om kontekst. Om skjÞnn. Om Ä bli sett.

  • Du er ikke et datasett.
  • Du er ikke gjennomsnittet av en gruppe.
  • Du har en historie, en bakgrunn, en stemme.

Og den stemmen mĂ„ fĂ„ plass – ogsĂ„ i mĂžte med teknologi.

đŸŒ± Til ettertanke:

  • Ville du latt en algoritme avgjĂžre om du fikk lĂ„n, jobb eller helsehjelp?
  • Hva betyr det egentlig at en avgjĂžrelse er «rettferdig»?
  • Er det rettferdig hvis ingen kan forklare den – eller ta ansvar for den?
  • Hvem Ăžnsker du skal vurdere deg – en datamodell eller et medmenneske?

💡 Kanskje teknologien ikke trenger Ă„ velge for oss – men stĂžtte oss i Ă„ velge klokere.

For rettferdighet handler ikke bare om presisjon.
Det handler om verdighet.

– Anneli Brannfjell
Coach, forfatter og menneskebegeistret teknologibruker


Kommentarer

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *