Foto: Jernej Furman, CC BY 2.0

AI-bias og den skjulte ulighed

AI er drevet af enorme mængder data, men nogle datasæt skaber bias, mens andre truer privatlivet. Samtidig har ikke alle borgere lige forudsætninger for at forstå eller beskytte sig mod konsekvenserne af brugen af AI – som sociologen Pierre Bourdieu ville sige, afhænger det af, hvor meget kulturel, økonomisk eller social kapital man har adgang til.

Bias

Igennem mange år har dommere i USA dømt sorte hårdere end hvide. Det medfører, at de datasæt man har om kriminelle i USA sandsynligvis er “biased” – de diskriminerer sorte og giver hvide fordele. Andre datasæt, fx om lånmodtagere, kan give mænd flere fordele end kvinder ved at være mere favorable overfor mænd, der traditionelt har tjent flere penge end kvinder.

Så de data, man bruger i AI, afspejler den adfærd, vi tidligere har haft, og det skal man være yderst opmærksom på, hvis man fx er en bank, der låner penge ud. Garbage in, Garbage out, siger man ofte om databaserede systemer.

Privatliv

Men det handler også om, hvilke data vi selv fodrer AI-systemerne med, eller hvad systemerne kan finde på at digte om dig. Hvis du bruger generative AI-tjenester, skal du være meget opmærksom på, hvilke data om dig selv du giver den, for de bliver brugt i AI’ens videre arbejde. Alt, hvad du anser som privat, bør du således holde væk fra de tjenester. Dine sundhedsoplysninger, seksuelle orientering, politiske standpunkt og religion, dine fotos og kontakter, din lokation og så videre.

Det er ofte de gratis versioner af AI-tjenesterne, der er de værste. Men vær også obs på, at den generative AI også kan finde på ting om dig. En nordmand oplevede fx, at ChatGPT beskyldte ham for at have myrdet to af sine tre børn. Det er sandsynligvis en klar krænkelse af EU’s privatlivslovgivning GDPR, og han klagede derfor til det norske datatilsyn.

Mange virksomheder er klar over, at de data, vi fodrer dem med, bliver brugt, hvorfor de enten holder deres fortrolige oplysninger helt væk eller sørger for at købe et system, der ikke bruger data.

Reflektér individuelt

  • Hvad tror du har størst betydning for, hvordan mennesker bruger AI-tjenester: deres uddannelse, kendskab til digitale hjemmefra – eller noget andet?
  • Hvordan kan skæve data (”garbage in”) føre til AI-beslutninger, der fastholder ulighed – fx hvis et banksystem prioriterer mænd, fordi det er trænet på historiske data? Kan man forstå det som en form for symbolsk vold, hvor ulighed skjules bag neutrale eller tekniske løsninger?

Diskutér i grupper

  • Har alle borgere lige mulighed for at forstå og bruge deres rettigheder i fx GDPR? Hvad siger det om digital ulighed?
  • Hvordan kan den franske sociolog og antropolog Pierre Bourdieus teori om kapital forklare, at nogle bruger gratis AI uden at forstå konsekvenserne, mens andre vælger mere sikre betalte løsninger?
  • Når AI-systemer både kan videreføre uretfærdige mønstre og krænke dit privatliv, hvilke grupper i samfundet tror du så har sværest ved at forsvare deres rettigheder – og hvorfor?

Ekstra

  • Research hver især på nettet, hvad den europæiske datalovgivning GDPR giver individer af rettigheder, og fortæl hinanden om det, I kommer frem til. List det på tavlen.

Varighed:

30 minutter

Lex - Danmarks National Leksikon.
Danmarks Biblioteksforening.

Hvis du har kommentarer, spørgsmål eller lignende til projektet eller siden, så skriv en mail til Sekretariatschef Ole Mølgaard fra Lex – Danmarks Nationalleksikon på okm@lex.dk.