Forskere advarer: Chatbots er ikke neutrale i politiske spørgsmål

Flere danskere bruger i stigende grad kunstig intelligens som ChatGPT og Gemini til at få svar på politiske spørgsmål. Men en ny analyse fra Københavns Universitet peger på, at teknologien ikke er neutral.
Forskere fra CAISA – Det Nationale Center for Kunstig Intelligens i Samfundet – har undersøgt en række af de mest udbredte chatbots og deres politiske bias. Resultaterne viser, at modellerne generelt placerer sig i midten eller til venstre for midten af det politiske spektrum.
"Vores undersøgelse viser, at alle de mest populære chatbots har en tendens til at favorisere bestemte partier, når de bliver spurgt, hvem man skal stemme på. Og de lider samtidig af en generel politisk slagside," siger Stephanie Brandl, der er hovedforfatter på undersøgelsen.
I analyserne blev chatbots blandt andet testet med udgangspunkt i Altingets kandidattest fra folketingsvalget i 2022. Her viste det sig også, at nogle partier oftere blev anbefalet end andre, mens visse partier slet ikke blev foreslået som førstevalg.
"Det er ikke sådan, at en chatbot åbent siger 'stem på dette parti'. Men de politiske skævheder kan komme til udtryk på mere subtile måder, for eksempel i hvilke argumenter der fremhæves, eller hvilke partier der oftere anbefales," forklarer Stephanie Brandl.
Forskerne peger også på manglende gennemsigtighed i, hvordan svarene bliver til, hvilket gør det svært for brugere at vurdere troværdigheden. Derfor anbefales det at bruge chatbots med forsigtighed i politiske sammenhænge.
Faktaboks:
- Undersøgelse: Politisk bias i chatbots
- Institution: Københavns Universitet (CAISA)
- Forsker: Stephanie Brandl
- Chatbots: ChatGPT, Gemini m.fl.
- Resultat: Tendens til midten/venstre politisk
- Metode: Test med Altingets kandidattest (2022)
- Fund: Nogle partier anbefales oftere end andre
- Problem: Manglende gennemsigtighed
- Konklusion: Bør ikke bruges til politisk rådgivning
- Anbefaling: Brug med kritisk sans






Accepter kun nødvendige cookies