Er KI egentlig nĂžytral? Eller har den arvet vĂ„re gamle skjevheter â og forsterket dem? I dette blogginnlegget tar jeg et personlig og kritisk blikk pĂ„ hvem som formes, hvem som former, og hva det betyr at kvinner i 50-Ă„rene nesten ikke finnes i datasettet.
Et kritisk blikk pĂ„ kjĂžnn, makt og hvordan vi designer KI â og hva det sier om oss.
Hvem programmerer egentlig fremtiden?
Vi stĂ„r midt i et teknologisk paradigmeskifte. Kunstig intelligens er ikke lenger et fremtidsfenomen â den er her, den er overalt, og den formes nĂ„. SpĂžrsmĂ„let er: av hvem?
Bak koden sitter mennesker. Mennesker med intensjoner, erfaringer, verdier og â ikke minst â blinde flekker. Mennesker som tar valg. Mennesker som kanskje ikke alltid stiller seg spĂžrsmĂ„let: Hvem gir vi makt til nĂ„r vi lar maskiner lĂŠre av vĂ„re historiske data, vĂ„re samtaler, vĂ„r kultur?
Og hva skjer nĂ„r vĂ„re egne skjevheter blir reprodusert â og forsterket â i maskiner som ikke har moral, men logikk?
đ§ Algoritmisk forlengelse av gamle strukturer
Vi vet at teknologien ikke er nĂžytral. Den koder inn makt, prioriteringer og strukturer. NĂ„r vi spĂžr KI-verktĂžy om «en leder», hvem dukker opp? En middelaldrende, hvit mann i dress? NĂ„r vi ber den generere bilder av «en omsorgsfull person» â ser vi da en kvinne med mykt blikk og barnevogn?
Hvem har bestemt hva KI skal forstÄ som «naturlig», «riktig» eller «relevant»?
Ofte er det et snevert utvalg mennesker â og det er sjelden kvinner, sjelden personer med annen bakgrunn, og sjelden de som utfordrer normen â som sitter med definisjonsmakten. Det gir oss maskiner som speiler en verden vi kanskje forsĂžker Ă„ bevege oss bort fra, ikke mot.
đ©âđ»KjĂžnn og kunstig intelligens â et speil pĂ„ vĂ„r samtid
Mange digitale assistenter har kvinnelige stemmer. Siri. Alexa. Google Assistant. Det er ikke tilfeldig. Vi har (ubevisst?) designet dem til Ă„ vĂŠre hĂžflige, hjelpsomme og tilgjengelige â akkurat slik samfunnet lenge har forventet at kvinner skal vĂŠre.
Det er verdt Ă„ stille spĂžrsmĂ„let: Hvis kunstig intelligens er fremtidens arbeidskraft â hvorfor gir vi den en kvinnelig stemme, men mannlige navn nĂ„r den skal vĂŠre sjef? Hva forteller det oss om vĂ„re forestillinger om kjĂžnn og makt?
đ NĂ„r algoritmen diskriminerer â uten Ă„ vite det
Vi liker Ă„ tenke pĂ„ kunstig intelligens som nĂžytral, men sannheten er at mange KI-systemer allerede har diskriminert kvinner â systematisk og ubevisst. Elisabeth Wetzer, KI-forsker ved UiT og SFI Visual Intelligence, forklarer hvordan dette skjer: Algoritmer er trent pĂ„ historiske data â og historien har aldri vĂŠrt likestilt.
Det finnes dokumenterte eksempler pĂ„ at KI-verktĂžy har foretrukket mannlige jobbsĂžknader, gitt lavere kredittgrenser til kvinner, og gjenkjent fĂŠrre kvinnelige ansikt. Hvorfor? Fordi systemet har «lĂŠrt» av fortiden â en fortid der menn oftere fikk jobbene, tjente mer penger, og ble oftere avbildet i offentlige roller. NĂ„r data er skjeve, blir fremtiden skjev ogsĂ„.
đ Skjevhet forklart: NĂ„r kjĂžnn tolkes som risiko
Et system som skal vurdere lĂ„nesĂžknader basert pĂ„ 60 Ă„rs lĂžnnsstatistikk vil raskt finne et mĂžnster: Menn tjener i snitt mer enn kvinner. Og vipps â sĂ„ «lĂŠrer» maskinen at kvinner er en Ăžkonomisk risikofaktor. Det er ikke ondsinnet, det er ren matematikk â men matematikken mangler moral. Den forstĂ„r ikke hvorfor kvinner tjente mindre, den bare antar at de er mindre egnet.
Dette er selve kjernen i problemet: NĂ„r vi ikke er representert â eller nĂ„r vĂ„r virkelighet tolkes feil â blir vi urettferdig behandlet. KI blir en slags moderne trynefaktor. Og denne trynefaktoren styrer nĂ„ beslutninger innen helse, utdanning, Ăžkonomi, arbeidsliv â og kanskje ogsĂ„ vĂ„re barn og barnebarns fremtid.
âïž Et hĂ„p i regulering og representasjon
Heldigvis skjer det ting. EU har nylig vedtatt verdens fĂžrste KI-lov, som stiller strenge krav til ansvarlig utvikling og testing fĂžr systemer tas i bruk. Det betyr at etikken skal med â ikke bare effektiviteten. Wetzer peker ogsĂ„ pĂ„ viktigheten av mangfold i utviklingsmiljĂžene: Kun 30 % av dem som jobber med KI i dag er kvinner. Det pĂ„virker hva systemene lĂŠrer, hvilke spĂžrsmĂ„l som stilles â og hvilke som aldri blir stilt.
Det holder ikke Ă„ vĂŠre brukere av KI. Vi mĂ„ vĂŠre med pĂ„ Ă„ utvikle den. Vi mĂ„ sikre at vĂ„r erfaring, vĂ„r virkelighet og vĂ„re stemmer blir en del av fremtidens datasett. For det som ikke finnes i treningsdataene â det finnes snart ikke i verden.
đVi former teknologien â og den former oss
NĂ„r maskinene «lĂŠrer» av vĂ„re vaner, sprĂ„k og strukturer, skjer det ikke i et vakuum. De bygger pĂ„ historiske data â og historie er, som vi vet, skrevet av dem som hadde makten. Hvis vi ikke bevisst stiller oss kritisk til det vi bygger, risikerer vi at fremtiden ikke blir radikal og ny, men en digital versjon av gamle ulikheter.
Vi mÄ vÄge Ä spÞrre:
- Hvem skriver koden?
- Hvem definerer verdiene?
- Hvem blir sett, og hvem blir oversett?
đĄProgrammer fremtiden â med bevissthet
Hvis vi vil ha en mer rettferdig, bÊrekraftig og inkluderende fremtid, mÄ vi aktivt pÄvirke hvordan KI utvikles. Det betyr at flere kvinner, flere med ulik bakgrunn, erfaring og perspektiv, mÄ fÄ plass ved bordet. Ikke som pynt. Men som beslutningstagere. Som utviklere. Som etikere. Som endringsagenter.
Fremtiden programmeres nĂ„. Den formes i hvert valg vi tar â i hvert datasett vi godkjenner, i hvert design vi lager, i hvert spĂžrsmĂ„l vi stiller â eller ikke stiller.
đSĂ„ hvem former egentlig hvem?
Er det vi som former maskinene? Eller lar vi maskinene â med all sin innebygde historikk og skjevhet â forme oss tilbake?
Det er pĂ„ tide at vi tar tilbake makten over teknologien â og skaper en fremtid som speiler hele menneskeheten. Ikke bare en liten del av den.
đ Les ogsĂ„ blogginnlegget mitt:
«Usynlig digitalt â men levende virkelig: Hvor ble det av kvinnene i 50-Ă„rene i AI-revolusjonen?» â en personlig og samfunnskritisk refleksjon om synlighet, teknologi og stemmer som ikke mĂ„ gĂ„ tapt.
đȘ Refleksjon til deg som leser:
Vi lever i en tid der teknologien utvikler seg raskere enn vi rekker Ä stille spÞrsmÄl. Derfor er det ekstra viktig at vi gjÞr nettopp det.
Ta deg gjerne et lite Ăžyeblikk og spĂžr deg selv:
- Hvem ser jeg i den digitale verdenen? Hvem mangler?
- NĂ„r jeg sĂžker bilder, stemmer, rollemodeller â hvem dukker opp fĂžrst? Og hvem uteblir?
- Har jeg selv fĂžlt meg usynlig â digitalt eller i virkeligheten?
- Hvordan kan jeg bidra til at flere stemmer blir hĂžrt? Flere ansikter blir sett? Flere erfaringer blir anerkjent?
- Er det noe jeg Ăžnsker Ă„ si hĂžyt â som kanskje ingen har spurt meg om fĂžr?
đŹ Kanskje du kjenner deg igjen i det jeg skrev. Kanskje du aldri har tenkt pĂ„ det. Uansett hĂ„per jeg du tar med deg spĂžrsmĂ„let videre:
Hvem former fremtiden â og hvem fĂ„r lov til Ă„ vĂŠre en del av den?
đą La oss gjĂžre hverandre synlige
Hvis dette traff noe i deg â del det gjerne.
Kommenter. Fortell din historie. Still spÞrsmÄl.
Vi trenger flere stemmer som tĂžr Ă„ si: «Jeg er her â og jeg har noe Ă„ bidra med.»
đŹ Har du selv opplevd Ă„ fĂžle deg usynlig i det digitale landskapet?
Kjenner du deg igjen i det jeg beskriver?
Del gjerne dine tanker i kommentarfeltet eller pĂ„ sosiale medier med #jegfinnesdigitalt â sĂ„ bygger vi synlighet sammen, en stemme om gangen.
Fordi du har en stemme. Og verden trenger Ă„ hĂžre den.
â Anneli Brannfjell
Coach, forfatter og forkjemper for et mer rettferdig og menneskelig arbeidsliv
Legg igjen en kommentar