Forskare varnar – Chat GPT kan lura dig med falska svar

Forskare slår larm: AI-verktyg som Chat GPT ger ofta felaktiga svar och kan underminera vår kritiska förmåga. Professor Olof Sundin vid Lunds universitet varnar för att många användare blir lurade att tro att de kommunicerar med experter, när AI-botar i själva verket bara bygger sina svar på sannolikhetsberäkningar och stora textmängder.

AI svarar fel på ovanliga frågor – chattbotar hittar på fakta

Richard Johansson, professor i data- och informationsteknik vid Göteborgs universitet, har forskat om varför storskaliga språkmodeller ger fel information. Han förklarar att ju mer ett ämne finns i träningsdata, desto bättre svar får användaren.

Men vid exotiska faktafrågor utanför AI:s redan befintliga kunskapsbas kan systemet helt enkelt hitta på svar som inte är sanna. Ibland erkänner AI att den inte hittar information, men ibland fabricerar modellen fakta som verkar trovärdiga.

För att höja tillförlitligheten använder AI idag ofta en teknik kallad retrieval augmented generation (RAG), som integrerar en sökmotor för att snabbt hämta fakta från internet. Ändå kvarstår riskerna att AI bara återger sammanfattningar utan att användarna ifrågasätter källorna.

Var femte svensk frågar AI istället för Google

Enligt Internetstiftelsens årliga rapport ”Svenskarna och internet 2025” använder 4 av 10 svenskar, särskilt unga födda på 2000-talet, AI-verktyg dagligen. Var femte svensk väljer ett AI-verktyg som Chat GPT framför traditionella sökmotorer som Google när de söker information.

Rapporten visar också att fler män än kvinnor använder AI, och att AI blivit en populär rådgivare i allt från studier till samhällsfrågor. En av fem AI-användare har till och med ställt frågor om hälsa och sjukvård till AI, trots att svaren ofta är osäkra.

AI riskerar att bryta ner källkritiken – ”färdiguggad” information utan ifrågasättande

Olof Sundin betonar att generationer riskerar att förlora sin källkritiska förmåga när AI-botar serverar övertygande texter med personlig ton som känns klara och fullständiga. Användarna slutar ifrågasätta och kontrollerar sällan den information AI:n refererar till.

”Det är viktigt att inte använda AI för faktafrågor utan se det som ett sätt att testa idéer, inte för att söka definitiv information” säger Sundin.

Han forskar också på hur AI implementeras i skolans högstadieundervisning och menar att det är avgörande att de digitala verktygen används för att utveckla kritisk förståelse kring hur AI påverkar samhället, snarare än bara som praktiska hjälpmedel.

Så hanterar du AI:s brister

Richard Johansson uppmanar användare att alltid dubbelkolla AI:s svar likt en traditionell Google-sökning och undersöka källorna bakom informationen, eftersom AI ibland kan hitta på referenser som ser trovärdiga ut men saknar grund.

Undersökningen och forskarnas varningar är särskilt viktiga nu när AI-verktyg integreras i allt högre grad i vardagen. Att använda AI okritiskt kan medföra att falsk eller missvisande information sprids snabbt och utan motstånd, vilket påverkar både individ och samhälle.

Vad händer nu?

En allt större del av befolkningen använder AI i studier och arbete, men paradoxalt nog ökar behovet av utbildning i källkritik och digital kompetens. Internetstiftelsen och akademiska forskare förespråkar därför en stärkt satsning på kritisk medie- och informationskunnighet i skolor och bland användare generellt.

Forskningen fortsätter och experter hoppas att både teknikutvecklare och användare tar till sig varningarna. Framöver kan AI bli både en värdefull kunskapspartner och en källa till farlig desinformation – beroende på hur vi lär oss använda verktygen.