Fra troværdig journalist til falsk fortælling: AI gør misinformation næsten umulig at opdage

Alt kan forfalskes – også virkeligheden. Selv professionelle hopper i med begge ben overfor dygtigt lavede deepfakes.

AI-genereret misinformation bliver stadigt sværere at gennemskue, selv for professionelle, fordi teknologien nu kan producere billeder, video og lyd, der ligner autentisk materiale i tempo og kvalitet, som overstiger klassiske “tjek-lister” (pixelfejl, mærkelige skygger, robotstemmer). Samtidig flytter angrebene sig fra åbenlyse forfalskninger til målrettede, kontekstnære manipulationer, der udnytter breaking news, kendte ansigter og institutionel troværdighed.

 

Når “øjnene” ikke længere er nok

Det centrale problem er ikke, at fagfolk er blevet dårligere, men at signal-støj-forholdet er blevet værre. For få år siden kunne en redaktør eller fact-checker ofte spotte syntetiske billeder ved at zoome ind på hænder, tænder eller tekst. I dag kan generative modeller levere materiale, der ser plausibelt ud ved normal visning – og når det kombineres med ægte klip, gamle optagelser eller korrekte detaljer, bliver den samlede pakke vanskeligere at afvise hurtigt.

Under breaking news er tidsfaktoren afgørende. Da et AI-genereret billede af en påstået eksplosion ved Pentagon gik viralt i maj 2023, illustrerede det, hvordan selv relativt få “visuelle beviser” kan skabe markeds- og nyhedsforvirring, før myndigheder og redaktioner får verificeret situationen. ABC News beskrev, hvordan deling fra konti med høj troværdighed/“verified” status kan accelerere udbredelsen. Problemet bliver accelereret yderligere, når folk kommer til at dele, eksempelvis en deep fake video, med en tilsyneladende anerkendt journalist. Lige nu florer der bunkevis af virkelig gode efterligninger af kendte journalister og nyhedsværter, som præsenterer nyheder, som snyder selv trænede øjne. Disse deep fakes produceres ikke nødvendigvis af russiske trolls, men kan simpelthen skyldes at de mange visninger samtidig genererer mange penge til bagmændene. Skaden kan dog være lige stor uanset den oprindelige motivation.

 

Deepfakes som politisk våben

Deepfakes bruges ikke kun til “klik” men også til at påvirke politiske narrativer. Reuters beskrev allerede i marts 2022 et deepfake-klip, der udgav sig for at vise Ukraines præsident Volodymyr Zelenskyj opfordre til kapitulation. Pointen er ikke, at deepfaken var perfekt, men at formatet etablerede en ny normal: Hvis en modstander kan injicere syntetiske “udtalelser” i en krisesituation, kan det stjæle opmærksomhed, skabe tvivl og påtvinge myndigheder at bruge ressourcer på dementier.

Europol har siden advaret om netop denne type misbrug. I rapporten Facing Reality? Law enforcement and the challenge of deepfakes skriver Europol, at “Trusselaktører bruger desinformationskampagner og deepfake-indhold til at misinformere offentligheden om begivenheder, påvirke politik og valg …” Den sætning rammer præcist, hvorfor professionelle får sværere vilkår: selv når en redaktion kan afsløre en forfalskning, er skaden ofte sket i form af spredning, følelsesmæssig reaktion og efterfølgende mistillid til alt indhold.

 

Lyd er den nye frontlinje

Hvis video er vanskelig, er lyd ofte endnu sværere. En stemme i en telefon, en voicemail eller et kort klip på sociale medier giver færre visuelle “fingeraftryk” at analysere. FBI advarer eksplicit om, at angribere bruger AI til at gøre henvendelser mere overbevisende. I en offentlig udtalelse fra FBI’s San Francisco Field Office hedder det: “Angribere udnytter kunstig intelligens til at lave meget overbevisende tale- eller videobeskeder og e-mails for at muliggøre svindel. …” (Federal Bureau of Investigation)

FBI har ligeledes advaret om, at generativ AI “øger troværdigheden af svindelplaner” og reducerer omkostningen ved at bedrage ofre i stor skala. Når stemmen lyder rigtig, og historien er skræddersyet til modtageren, kan selv trænede personer reagere intuitivt, før de analytiske alarmer går i gang.

 

Den “fake Kaitlan Collins”-video

Et illustrativt eksempel er en video, der udgiver sig for at være CNN-profilen Kaitlan Collins og hævder dramatiske “lækager” om EU’s SAFE-program og USA’s allierede. I transskriptionen bruges autoritetsmarkører som “leaked … obtained by CNN” og konkrete datoer, beløb og institutioner for at skabe en “nyheds-tekstur”.

Dette eksempel kan ikke verificeres som ægte CNN-indhold ud fra åbne kilder; det bør derfor behandles som ikke-verificeret og potentielt syntetisk eller fabuleret. Som metode viser det dog, hvor effektivt et format kan efterligne journalistisk troværdighed.

 

Hvorfor det også rammer professionelle

Professionelle arbejder ofte med tre klassiske signaler: afsender, kildekæde og teknisk analyse. AI angriber alle tre:

1. Afsenderen kan simuleres (kendt ansigt/stemme).

2. Kildekæden kan efterlignes (påstande om lækager, “kilder tæt på sagen”, falske dokumenter).

3. Teknisk analyse bliver en “våbenkapløbs-disciplin”, hvor generatorer lærer at omgå kendte detektionsmønstre.

Myndigheder arbejder netop med at evaluere analytiske systemer mod AI-genererede deepfakes, fordi spørgsmålet ikke længere er, om deepfakes findes, men om værktøjer og processer kan følge med i praksis.

 

Hvad virker i praksis?

Den mest robuste modgift er en kombination af oprindelse (hvor kommer det fra?) og procedurer (hvordan verificerer vi?). C2PA-standarden (Content Credentials) er et eksempel på et industrisamarbejde, der søger at knytte metadata og oprindelsesspor til digitalt indhold, så redaktioner og platforme kan tjekke “kildehistorik” frem for kun at kigge på pixels.

Konklusionen er ubehagelig, men klar: AI-genereret misinformation bliver sværere at spotte, fordi den i stigende grad ligner “normal” kommunikation og journalistik. Derfor flytter kampen sig fra “kan jeg se, om det er falsk?” til “kan jeg bevise, at det er ægte?”—og det kræver nye standarder, nye værktøjer og skarpere redaktionelle arbejdsgange – og ikke mindst personlig kildekritik.

 

Relaterede artikler:

Misinformation genereret af kunstig intelligens: 3 færdigheder til at hjælpe dig med at spotte det

Elons Musks medie X (Twitter) spreder mest desinformation og skadeligt indhold ifølge EU

Hvordan kunstig intelligens kunne overtage valg og underminere demokratiet ifølge Harvard forskere

 

Kilder: ABC News, The Guardian, FBI, Reuters, Europol, c2pa.org.

 



BLIV MEDLEM og få adgang til alle vores artikler - Klik her