
Mens hypen omkring kunstig intelligens som ChatGPT primært handler om den store indflydelse den får i arbejdslivet og i sundhedssystemet, har de færreste af gode grunde bemærket, hvor den største og vigtigste revolution er ved at ske: Der foregår i øjeblikket et hemmeligt våbenkapløb i anvendelsen af kunstig intelligens i krigsførsel på alle niveauer, som selv eksperter ikke kan overskue konsekvensen af.
Amerikanske sikkerhedsansvarlige embedsfolk advarer om potentialet for, at den nye teknologi kan ændre krigsførelse, cyberkonflikter og – i det mest ekstreme tilfælde – brugen af atomvåben. (New York Times)
”Den seneste AI – kendt som ”generative pre-trained transformers” (GPT) – ser ud til fuldstændig at transformere geopolitikken med krig og afskrækkelse. Den vil gøre det på måder, der ikke nødvendigvis er betryggende, og som måske endda kunne blive eksistentielle, skriver det internationalt anerkendte Foreign Affairs.
”På den ene side kan denne teknologi gøre krig mindre dødelig og muligvis styrke afskrækkelsen. Ved voldsomt at udvide den rolle som AI-styrede droner har i luftstyrker, flåder og hærenheder kunne menneskeliv spares. Allerede nu eksperimenterer det amerikanske forsvarsministerium med AI-bots, der kan flyve et modificeret F-16 jagerfly, og Rusland har testet autonome kampvognslignende køretøjer. Kina skynder sig at udrulle sine egne AI-drevne systemer, og effektiviteten af bevæbnede droner vil også tage fart i de kommende år. En af de største, men stadig nye bestræbelser på at fremme AI, er et hemmelighedsfuldt US Air Force-program, Next Generation Air Dominance, hvor omkring 1.000 drone-“wingmen”, kaldet kollaborative kampfly, opererer sammen med 200 fly med menneskelige piloter”. (Foreign Affairs)
Så langt tilbage som i 2017 erklærede den russiske præsident Vladimir Putin, at “den magt, der bliver førende indenfor AI vil styre verden”, og at fremtidige krige vil blive afgjort, “når den ene parts droner ødelægges af en andens droner.”
Den nye Netflix dokumentar, Unknown: Killer Robots, der sobert beskriver farene ved, at kunstig intelligens træffer afgørelser om liv eller død, viser blandt andet, hvordan de absolut dygtigste jagerpiloter i USA, rent ud sagt ikke har en jordisk chance mod en AI pilot. I 99,9 procent af tilfældene taber den menneskelige pilot til den AI-styrede, og effekten bliver direkte skræmmende når flere AI-piloter arbejder sammen i såkaldte ”swarms”, der deler information i realtid og koordinerer deres angreb, uden den mindste fornemmelse for frygt.
Det helt store spørgsmål er dog, hvor stor en grad af autonomi de forskellige våbensystemer med AI har og vil få. Vil der altid sidde et menneske bagved AI-våbensystemerne, der træffer afgørelser om liv og død?
Den tidligere amerikanske forsvarsminister Bob Work tror ikke, at “menneskelig indgriben i beslutninger om at dræbe” nogensinde vil ændre sig.
Men fuldstændig autonome droner, der autonomt identificerer og angriber deres mål, er en realistisk mulighed, og ifølge en rapport fra FN´s Sikkerhedsråd kan de allerede være blevet indsat.
Jo større autonomi, jo hurtigere reaktionstid som kan være afgørende i krigsførsel. Brugen af eksempelvis droner fremskynder dramatisk OODA-loopet (Observe, Orient, Decide, Act).
Risikoen ved AI er ikke mindst, at det kan speede konfrontationer op og give mindre tid til diplomati og forhandling. (New York Times)
En revolution i krigsførsel og et våbenkapløb med et meget uvist forløb
Der har fra eksperter været mange opråb om, at verden må tage en tænkepause i udviklingen af AI, men som John Sherman, en talsmand for Pentagon udtrykker det:
“Hvis vi stopper op, så gæt hvem der ikke stopper: Potentielle modstandere i udlandet… Vi er nødt til at blive ved med at bevæge os.” (New York Times)
Hans ligefremme udtalelse understreger den spænding, der findes i hele forsvars verdenen i dag. Ingen ved rigtigt, hvad disse nye teknologier er i stand til, når det kommer til at udvikle og kontrollere våben, og de har ingen idé om, hvilken slags våbenkontrol, hvis nogen, der kan fungere.

Næsten ligeså bekymrende er det, at ChatGPT vil kunne sætte aktører, som tidligere ikke havde let adgang til destruktiv teknologi, i stand til at foretage dybt ødelæggende handlinger. Forskere der brugte kunstig intelligens til at udvikle ny medicin, ændrede som et eksperiment et parameter, så den kunstige intelligens skulle tænke som en “ondsindet aktør”. Mindre en 6 timer efter havde den fundet på 40.000 potentielt dødelige kemiske våben, og dette blev foretaget på en ganske almindelig computer.
Brugen af kunstig intelligens i militæret er sandsynligvis et af de vigtigste spørgsmål overhovedet – og et der ikke lader vente på sig. Udviklingen er allerede i fuld gang, og ingen kender på nuværende spillereglerne og konsekvenserne.
The Arms Control Association skriver i en rapport, “at disse teknologier potentielt kan have vidtgående, farlige konsekvenser, som udvider sig til det nukleare område ved at løbe op ad eskaleringsstigen eller ved at udviske forskellen mellem et konventionelt og et atomangreb. Våbenkontrol fremstår derfor som et værktøj til at bremse tempoet i våbenfremstillingen af disse teknologier og til at indføre meningsfulde begrænsninger i deres brug.
I marts sidste år blev et lovforslag med titlen “Principper og god praksis for nye teknologier inden for dødbringende autonome våbensystemer” indsendt til FN af Australien, Canada, Japan, Sydkorea, Storbritannien og USA.
Det åbenlyse spørgsmål er dog om kineserne, russerne og andre ville følge samme regler, når det kommer til stykket. Pentagon eksperimenterer da også, ifølge Foreign Affairs, allerede med kunstig intelligens til at “integrere beslutningstagning fra alle militære enheder og kombattant kommandoer”.
Relaterede artikler:
Kunstig intelligens og kvantecomputere er et våbenkapløb med tiden
Ruslands krig mod Ukraine kan gå i tre forskellige retninger ifølge analytikere
Kilder: Foreign Affairs, New York Times, The Decoder, The Guardian, FNs Sikkerhedsråd.