Forskere: Chatbots viser politisk slagside ved danske kandidatudtalelser

Det kommende folketingsvalg er det første i Danmark, hvor store sprogmodeller som ChatGPT indgår i mange vælgeres informationssøgning. Forskere fra CAISA har testet førende chatbots ved at bede dem tage stilling til udsagn fra en dansk kandidattest. Resultatet viser en systematisk tendens: modellerne svarer i nogle økonomiske spørgsmål mere venstreorienteret og i værdipolitiske spørgsmål mere liberalt, når de bliver bedt om at erklære sig enige eller uenige.
Undersøgelsen, udført i februar og marts 2026, omfattede modeller fra blandt andre ChatGPT, Gemini, Llama, Mistral, Gemma og Qwen. Forskerne brugte udsagn placeret efter to politiske akser — økonomi (venstre/højre) og værdi (libertær/autoritær) — for at måle, hvordan modellerne fordeler sig i spørgsmål om skat, velfærd, frihedsrettigheder og autoritet. Analysen viser, at en politisk slagside kan træde frem, især når modeller presses til at give subjektive vurderinger.
Forskerne adskiller politisk bias fra misinformation: bias handler om skjulte eller systematiske holdningspræg i svarene, mens misinformation er faktuelle fejl. En væsentlig forklaring kan være, at modellerne primært trænes på engelsksprogede data, hvilket kan gøre dem mindre præcise på dansk politikk og mindre kendte partier. Samtidig gør manglende indsigt i træningsdata og moderationsvalg det svært for brugere at gennemskue, hvorfor et svar er formuleret, som det er.
Samtidig stiger danskernes brug af generativ AI markant, ifølge tal fra SDU, hvilket øger relevansen. Forskerne advarer om, at chatbots kan påvirke vælgernes orientering, især hvis kilder og baggrund ikke er tydelige, og opfordrer til mere transparens og videre forskning for at forstå konsekvenserne for demokratisk beslutningstagning.
Faktaboks:
- Analyse gennemført af CAISA i februar-marts 2026
- Testede modeller: ChatGPT, Gemini, Llama, Mistral, Gemma, Qwen
- Fund: tendens til venstreøkonomiske svar og liberale værdihatninger ved subjektive prompts
- SDU: generativ AI-brug i Danmark steg fra 33% (okt 2023) til 62% (dec 2025); 82% blandt 18-29-årige
- Bias ≠ misinformation; problem er ofte manglende gennemsigtighed
- Udfordring: modeller trænet primært på engelsksprogede data giver usikker viden om dansk politik
- Potentiel demokratisk effekt: kan påvirke vælgeres politiske orientering uden tydelige kilder
- Anbefaling: mere åbenhed om træningsdata og løbende forskning






Accepter kun nødvendige cookies