Hvordan pĂ„virker det oss at KI kan forutsi hva vi tenker og fĂžler â fĂžr vi selv gjĂžr det? Et blikk pĂ„ selvforstĂ„else i en data-drevet tid.
Jeg vet ikke om du har merket det â men noen ganger virker det nesten som om algoritmene vet hva du fĂžler, fĂžr du selv gjĂžr det.
Du Äpner telefonen.
Du scroller litt.
Og plutselig dukker det opp noeâŠ
En video, en setning, et bilde â som treffer noe i deg.
Som fÄr deg til Ä tenke: «Hvordan visste den det?»
Er det bare tilfeldigheter â eller kjenner maskinen oss bedre enn vi kjenner oss selv?
đïž FĂžlelsen av Ă„ bli lyttet til â er det ekte?
Mange har opplevd det:
Du snakker med en venn om en reise, et produkt eller et tema â og kort tid etter dukker det opp reklame for nettopp det. Det fĂžles som om mobilen lytter til deg.
Men stemmer det egentlig?
De fleste teknologiselskaper nekter for at de bruker mikrofonen din til mĂ„lrettet reklame uten samtykke. Det som derimot er sant, er at algoritmer er ekstremt dyktige til Ă„ forutsi hva du kommer til Ă„ vĂŠre interessert i â basert pĂ„ alt fra sĂžkehistorikk og nettadferd til hvem du omgĂ„s og hva du tidligere har reagert pĂ„.
SĂ„ kanskje mobilen ikke lytter aktivt til ordene dine â men den kjenner deg sĂ„ godt at den vet hva du tenker pĂ„, nesten fĂžr du gjĂžr det.
Det forklarer ikke alt â men det forklarer mer enn vi liker Ă„ tro.
đ§ Hva tror vi egentlig?
Men fĂžlelsen slipper ikke helt taket, gjĂžr den vel? Selv om teknologiselskapene sier at de ikke lytter til oss â er det mange som ikke helt tror dem. Og det er kanskje ikke sĂ„ rart.
For nĂ„r mobilen nesten for godt gjetter hva vi tenker pĂ„, fĂžles det ikke som tilfeldig sammenfall. Det fĂžles personlig. Inngripende. Nesten litt magisk â eller ubehagelig.
Og sannheten? Den er bÄde teknisk og psykologisk.
đ± Teknisk sett sier de fleste eksperter at det er lite sannsynlig at appene konstant lytter â det krever store ressurser, strĂžm og lagring. Men noen apper har tilgang til mikrofonen din â og selv om de «ikke bruker den aktivt», mĂ„ vi nesten stole pĂ„ at de lar vĂŠre.
đ§ Psykologisk sett skjer det ogsĂ„ noe interessant: NĂ„r vi blir gjort oppmerksom pĂ„ et tema â gjennom en samtale â blir vi ogsĂ„ mer sensitive for Ă„ legge merke til det rundt oss. Dette kalles bekreftelsesbias, og det gjĂžr at vi plutselig ser reklamen vi kanskje har oversett fĂžr.
Men⊠det finnes ogsÄ grÄsoner.
TikTok har blitt forbudt i flere land â spesielt pĂ„ offentlige enheter â blant annet fordi det er mistanke om at appen kan samle mer data enn den opplyser om. Og det handler ikke bare om lytting, men om hele pakken: lokasjon, tastemĂžnster, ansiktsgjenkjenning og hvem du snakker med. NĂ„r data kobles sammen, kan systemet fĂ„ en nesten uhyggelig god forstĂ„else av hvem du er.
SĂ„ hva gjĂžr vi?
Kanskje handler det ikke bare om om vi blir lyttet til.
Men om vi fĂžler at vi ikke lenger har kontroll over hva som samles inn â og hvorfor.
For tillit bygges ikke bare pÄ teknologi.
Den bygges pÄ Äpenhet, respekt og mulighet til Ä si nei.
Og akkurat det bĂžr vi snakke mer om.
đ NĂ„r data blir til innsikt
Kunstig intelligens lĂŠrer av oss â hele tiden.
Av det vi sÞker pÄ, klikker pÄ, stopper opp ved, kjÞper, skriver, sier og deler.
Den vet nÄr vi er slitne.
Den gjetter hva vi drĂžmmer om.
Den foreslÄr tanker vi ikke visste vi trengte.
Og det er bĂ„de praktisk â og litt foruroligende.
For hva skjer med vÄr egen selvforstÄelse, nÄr maskinen kan kartlegge mÞnstrene vÄre sÄ godt at den vet hva vi trenger, fÞr vi selv gjÞr det?
đ§ Ă vite â og Ă„ oppdage
Menneskelig bevissthet er langsom, kompleks og ofte uklar.
Vi bruker tid pÄ Ä kjenne etter.
Vi skriver dagbok, gĂ„r turer, fĂžrer samtaler â for Ă„ komme i kontakt med hva vi egentlig fĂžler.
Men algoritmen trenger ikke den prosessen.
Den bruker milliarder av datapunkter og sammenligner deg med millioner av andre. Og plutselig treffer den noe â ikke fordi den forstĂ„r deg, men fordi den gjenkjenner deg.
Den vet kanskje hva du pleier Ă„ gjĂžre â men vet den hvorfor?
đŹ NĂ„r vi outsourcer selvinnsikt
Vi begynner kanskje Ä stole mer pÄ hva «den foreslÄr» enn pÄ vÄr egen intuisjon. Hva vi bÞr kjÞpe, spise, lese, fÞle, mene.
Og etter hvert: Hvem vi er.
Men menneskelig selvinnsikt er ikke en statistisk profil.
Den er noe vi erfarer over tid.
Gjennom motstand, stillhet, valg og feil.
NÄr vi lar algoritmene definere oss, risikerer vi Ä bli forutsigbare versjoner av oss selv. Og miste noe av det dypeste ved Ä vÊre menneske:
Evnen til Ă„ overraske â til Ă„ forandre â til Ă„ velge annerledes.
đ SĂ„ hva er egentlig selvforstĂ„else â i algoritmens tid?
Kanskje vi mĂ„ lĂŠre oss Ă„ bruke innsikten algoritmene gir â uten Ă„ la den bli hele sannheten.
Kanskje den kan fungere som et speil â men ikke som en dommer.
For KI vet mye.
Men det vet ikke hvordan det er Ă„ vĂŠre deg.
Det vet ikke hvordan det er Ă„ vĂŠre menneske â og vĂ„kne en dag og fĂžle noe helt nytt, bare fordi solen faller annerledes inn gjennom vinduet. Og det er kanskje der selvforstĂ„elsen bor â i det som ikke lar seg regne ut.
đ± Til ettertanke:
- Har du noen gang kjent deg gjenkjent av en algoritme â og blitt litt skremt av det?
- Hvor gÄr grensen mellom hjelp og pÄvirkning?
- Hva vil du fortsatt ha som din egen prosess â selv om KI kan forutsi hva du trenger?
- Og hva tror du at bare du kan vite om deg selv?
SelvforstÄelse kan ikke effektiviseres.
Den mÄ leves. Kjenne. Erfares.
Og kanskje er det nettopp i det langsomme, tvilende og uperfekte â at vi virkelig finner ut hvem vi er.
â Anneli Brannfjell
Legg igjen en kommentar