Googles AI har problemer med fakta: Fra falske pizza-tip til russisk propaganda

Google har i maj 2024 lanceret AI Overviews, som giver brugere korte svar direkte i søgemaskinen uden at henvise til eksterne kilder. Tanken var at gøre søgning hurtigere, men teknologien har vist sig sårbar over for fejl og manipulation. Eksempler spænder fra absurde råd, som at bruge lim i pizzasauce, til alvorlig desinformation med russisk oprindelse, hvor AI’en præsenterede falske nyheder som troværdige.
Problemet opstår, fordi AI’en ikke kan vurdere sandhed, men alene analyserer tekst og linkstruktur. Sikkerhedseksperter bemærker, at gamle hackertricks kan narre systemet til at gengive fejlagtige oplysninger. Samtidig viser forskning fra European Broadcasting Union og BBC, at 45 procent af AI-assistenters nyhedssvar har mindst ét problem, og 20 procent indeholder direkte faktuelle fejl. Googles Gemini-model havde fejl i 76 procent af testede svar.
Udfordringen er ikke begrænset til Google. ChatGPT, Copilot og Perplexity oplever lignende problemer, hvor hallucinationer – opdigtede oplysninger – kan sprede misinformation. Dette kan få konsekvenser for brugernes tillid, især fordi få klikker videre til originale kilder, når svaret står tydeligt på skærmen.
Samtidig understreger eksperter, at massive investeringer i AI-teknologi fra blandt andre Alphabet, Microsoft og Meta gør markedet sårbart. Fejlbehæftede svar og en mulig AI-boble kan på sigt have økonomiske og samfundsmæssige konsekvenser.
Googles situation illustrerer en større problemstilling: Når AI skal afgøre, hvad der er sandt, er menneskelig redaktion og kildekritik stadig uundværlig. Eksperter advarer derfor om, at teknologien må bruges med forsigtighed, indtil AI kan håndtere sandhed og fejlinformation mere pålideligt.
Faktaboks:
- Produkt: Google AI Overviews, lanceret maj 2024
- Problem: Fejlinformation, hallucinationer, manglende kildehenvisning
- Eksempler: Satireartikler om pizza, falske nyheder om Flügger-maling, russisk propaganda
- Undersøgelser: EBU/BBC 2025 – 45% af AI-svar med problemer, 20% med faktuelle fejl
- Investeringer: Danske pensionsselskaber har 275 mia. kr. i syv store amerikanske techfirmaer
- Udfordring: AI kan ikke skelne mellem sandhed og fiktion; kræver menneskelig kildekritik






Accepter kun nødvendige cookies