Ifølge en ny undersøgelse fra Center for sociale medier, tech og demokrati under Slots- og Kulturstyrelsen er knap to tredjedele af befolkningen bekymrede for mis- og desinformation, og for om algoritmerne giver os et skævt billede af aktuelle begivenheder.
Det er der god grund til. Det er på høje tid, at vi begynder at tale om søgemaskinernes magt – og deres betydning for den demokratiske samtale. I 2023 var det 25 år siden, at Google lancerede det, som i dag er verdens ubestridt mest anvendte søgemaskine. At »google« er for længst blevet et begreb og synonym for at »søge viden«.
Som borgere har vi fundet os tilpas i en forestilling om, at Google og andre digitale søgemaskiner leder os objektivt videre til relevant indhold på internettet. Men sådan er det ikke. Google leder os frem til et redigeret, prioriteret og somme tider censureret eller betalt udsnit af virkeligheden. Ofte klikker vi på annoncer og betalt indhold uden at vide det. Andre gange får vi indhold, som vi ikke aner, hvor stammer fra.
For nylig afholdt Danmarks nationalleksikon Lex, Danske Universiteter, Danske Medier, Danske Professionshøjskoler, Danske Gymnasier og Danmarks Biblioteksforening en åben høring om videnssøgning på nettet. Her kunne professor Thore Husfeldt fra IT-Universitetet fortælle, at søgemaskinerne til at begynde med forsøgte at give os, hvad der fandtes. »Flest forekomster« var succeskriteriet dengang.
Senere, da mængden af hjemmesider blev uoverskuelig, begyndte Google at sortere og prioritere indholdet. Søgeresultaterne blev ved hjælp af algoritmer gjort personlige og indholdet målrettet, så forekomsterne blev tilpasset modtageren. En amerikansk teenager, der søgte på »Paris Hilton«, fandt influenceren, mens en tysk forretningsrejsende i Frankrig fandt et hotel i Paris. Samtidig fik annoncerne en mere fremtrædende position.
Senest er der eksempler på at Google foretager moral- eller værdibaseret redigering af indholdet. Således så vi, hvordan Google under covid-pandemien, rangerede de statslige sundhedsmyndigheder højest. For de fleste af os virkede det legitimt og fornuftigt, men ikke desto mindre illustrerede det, at Google prioriterer og redigerer. Sorterer og frasorterer.
Google er ikke længere en neutral kilde. Den tyske forsker Dirk Lewandowski, som også deltog i høringen, har beskrevet udviklingen i bogen Understanding Search Engines (2023):
»Problemet er, at vi har en søgemaskine, som dels dominerer markedet fuldstændigt, og dels bestemmer, hvad vi skal se. Kun Googles søgemaskine bestemmer, hvilket webindhold vi møder. Vi aner ikke engang, hvad vi går glip af. Den største fejl, vi kan begå, er at tro, at vi blindt kan stole på Google,« skriver Lewandowski.
Han fortsætter: »Jeg er altid overrasket over, at der er så meget snak om indflydelse af sociale medier, men ikke om søgemaskiner. Folk har ubegrænset tillid til Google, selv når det handler om nyheder. De tror, informationen er korrekt, bare fordi den kommer fra Google og ikke på grund af dens kilde.«
Hvor vi tidligere talte om Google som en indgang til internettet, så er Google i dag i stigende grad blevet lig med internettet. Faktum er, at en meget stor del af alle søgninger på Google ikke fører til, at brugeren klikker videre. Brugeren bliver oftere fastholdt på Googles egen søgeside, hvis ikke Google leder den søgende videre til en af selskabets undersider med for eksempel billeder eller videoer.
Søgemaskiner har gjort det nemmere for os alle at søge og tilgå information og viden, og det er grundlæggende godt. Men det er vigtigt, at vi kan gennemskue, hvilke informationer vi får, og hvorfra de stammer. I en fremtid med kunstig intelligens (AI) får vi sværere ved at gennemskue, hvilke redaktionelle prioriteringer systemerne foretager. Det vil også blive endnu sværere at finde ud af, hvilke kilder indholdet stammer fra.
Med AI-baserede søgesystemer vil vi blive mødt af færdige tekster, autogenereret af kunstig intelligens. Teksten vil måske indeholde kildehenvisninger, som vil få det til at ligne troværdig information baseret på faglige originalkilder. Men teksten kan være konstrueret og kildehenvisningerne automatgenereret.
I takt med den stigende anvendelse af kunstig intelligens bliver det stadig vanskeligere at skelne mellem sandt og falsk. Algoritmer og kunstig intelligens kan analysere og manipulere store mængder data med en hastighed og præcision, der synes at overstige menneskelig kapacitet.
Det kan bestemt være en fordel og skabe mere vidensbaserede løsninger på en række problemer. Men det skaber også mulighed for manipulation af information og skabelse af falske eller parallelle »virkeligheder«, hvor fakta og sandheder bliver relative, og falske påstande iklædes falsk troværdighed.
I en fremtid med AI er det vigtigt at forstå, at kunstig intelligens er et redskab, der kan anvendes vidt forskelligt afhængig af intentionerne bag. Derfor er det afgørende at udvikle et kritisk tankesæt og forblive opmærksom på eventuel bias og manipulation, når vi navigerer i en kompleks digital verden, hvor grænsen mellem sandt og falsk bliver stadig mere flydende.
På Lex ønsker vi ikke at se til, mens techgiganternes forretningsmodeller underminerer to af grundpillerne i et demokratisk samfund: At borgerne er velinformerede, og at beslutninger træffes på et oplyst og korrekt grundlag.
Vi ønsker at sikre, at alle har adgang til fagligt kurateret og faktatjekket indhold, og vi vil i de kommende år supplere denne kerneydelse med en række initiativer, der støtter en demokratisk gennemsigtighed med, hvor og hvordan viden skabes, tilgås og anvendes.
Vi har vænnet os til at spørge Google om hjælp, når vi skal finde vej – både i historien, byen og livet. Det er dejligt nemt, og med tiden er det blevet svært at finde andre veje. I dag står Google for 93 procent af alle søgninger i Danmark og op mod 70 procent på verdensplan. Vi bør dog huske, at Googles forretningsmodel ikke er at samle informationer til brugerne om virkeligheden, men at samle informationer om brugerne til virksomheden.