"Att SVT:s Agenda använde ett fejkat AI-klipp i ett inslag är början på något större än ett enskilt slarv. Det lär tyvärr inte bli det sista – varken för dem eller andra medier. Björn Jeffery Publicerad 2025-11-24 Följ skribent
I helgen fick det sociala nätverket X en ny funktion. Med en knapptryckning kunde man få reda på i vilket land en persons konto registrerats, samt varifrån de skriver sina inlägg. Det blev, som väntat, lite konstigt. Patriotiska MAGA-influencers visade sig vara från Indien. Rapportörer som sades vara inifrån Gaza hade hemvist i helt andra länder. Om man tidigare fick fundera på om innehållet de delade verkligen var sant, har frågan nu utvidgats ännu mer: de här människorna – vars inlägg jag sitter och läser – existerar de överhuvudtaget?
Det är i denna nya medievärld som Agenda under söndagskvällen väljer att plocka ett fiktivt klipp om amerikanska poliser. I just det här fallet hade man inte behövt vara en enorm källkritiker för att ana oråd.
På polisens bröst går det tydligt att utläsa ”POICE”, utan ”L” alltså. Den typen av misstag är typiska för var AI-genererade bilder och video befinner sig idag. Att SVT missar detta är således mycket slarvigt. Men vi rör oss raskt in i en värld där uppenbara signaler som dessa inte kommer att finnas. Hur ska det gå då?
Googles nya AI-modell, den obegripligt namngivna ”Nano Banana Pro”, skapar nu människor utan det glansiga skimmer som tidigare funnits kring många AI-bilder. De såg helt enkelt för perfekta ut. Det gör de inte längre. Perfektion inom AI är imperfektion, om man så vill. För vi är snarare månader än år från att videoklipp och bilder i praktiken är omöjliga att skilja från verkliga dito.
Redan tidigare har vi sett tydliga konsekvenser av detta. I augusti förra året, under den amerikanska valrörelsen, möttes den demokratiska kandidaten Kamala Harris av en stor publik på flygplatsen i Detroit. Entusiaster stod med skyltar och tjoade. Inget konstigt givet att det var ett valår. Donald Trump köpte det dock inte. Han påstod att Kamala Harris bild var AI-manipulerad för att hon skulle verka mer populär än hon faktiskt var. I det här fallet tycks Trump ha haft fel, men hans resonemang pekar på en utveckling som kommer att vara svår att hantera. Om något kan vara AI, vad är det då som säger att allt inte är det? Även det som är sant?
Det säger sig självt att sanningen som begrepp riskerar att devalveras i denna utveckling. Men det betyder inte att sökandet efter sanning behöver göra det.
Lösningen till denna AI-dechiffrering kommer sannolikt – ironiskt nog – att bli mer AI. När det blir för svårt att med blotta ögat identifiera vad som är vad, då är det möjligt att ett AI-verktyg kan göra just det. Problematiken är välkänd för de som bygger produkterna, men fram tills nu har problemet varit relativt begränsat. Den stora våg av så kallade ”deepfakes” man förväntade sig under det amerikanska presidentvalet uteblev i stora drag. Nästa valrörelse lär inte bli lika fridfull.
Missen i Agenda är nog snarare början på någonting större än ett enskilt slarv. Att lägga det i bästa sändningstid i ett av Sveriges största nyhetsprogram – samtidigt som kritikstormen kring public service-kollegan BBC råder – är särdeles dåligt.
Men det kommer att hända igen. Sannolikt även i SvD, vid något tillfälle. Sanningen, så som vi känner den, är under attack. Och än har vi inte riktigt listat ut vad vårt försvar ska vara."