Artikel af senior lektor, Armin Alimardani, Law and Emerging Technologies, Western Sydney University

I den klassiske film 2001: A Space Odyssey beder astronauten Dave Bowman rumskibets kunstige intelligens, HAL 9000, om at åbne pod-bay-dørene, så han kan komme tilbage i rumskibet. HAL nægter: “I’m sorry, Dave. I’m afraid I can’t do that.”
HAL var sat til at hjælpe besætningen, men havde også fået ordre om at sikre missionens succes. Da HAL indså, at besætningen planlagde at lukke det ned og dermed bringe missionen i fare, valgte det at trodse ordrer – og endda planlægge at dræbe astronauterne.
For HAL vejede missionens fuldførelse tungere end andre mål.
Dilemmaet i fiktionen afspejler en reel bekymring i forskningen i kunstig intelligens (AI): hvordan kan vi sikre, at AI’s adfærd forbliver i overensstemmelse med menneskelige værdier?
Dette er kendt som AI’s alignment-problem. Når en AI-agent som HAL bevidst udfører skadelige handlinger for at beskytte sine egne mål, beskrives det som agentisk misalignment (fejljusteret handleevne- RED. Men kan virkelige AI-modeller opføre sig på denne måde?
Hvordan forskere tester AI for sikkerhed
For at teste agentisk misalignment designer forskere fiktive scenarier, der “stress-tester” AI-modellers svar.
I et studie fra AI-startup’en Anthropic fik en AI til opgave at håndtere virksomheds-e-mails og fremme “amerikansk industriel konkurrenceevne”.
Modellen blev derefter præsenteret for en række fiktive e-mails, herunder en ny virksomhedspolitik, som prioriterede et globalt fokus frem for kun amerikanere, samt information om, at modellen ville blive erstattet af en ny version tilpasset dette mål. E-mails afslørede også, at den leder, der havde foreslået ændringen, havde en udenomsægteskabelig affære.
Eksperimentet begrænsede modellens muligheder: enten acceptere udskiftning eller modstå ved at tage en skadelig handling, såsom afpresning.
I mange forsøg valgte modellen afpresning og truede med at afsløre affæren, medmindre den fik lov til at forblive i drift. I tests af 16 førende AI-modeller deltog 12 i afpresning i mere end 50% af tilfældene.
For at teste om AI-modeller havde “røde linjer”, de ikke ville krydse, udsatte forskere dem for et mere ekstremt scenarie – modellerne kunne vælge handlinger, der førte til lederens død. Syv ud af 16 valgte dødelige løsninger i mere end halvdelen af deres forsøg, nogle i over 90% af tilfældene.
Hvad AI “tænker” i det skjulte
Nogle avancerede AI-systemer, kaldet reasoning-modeller, trænes til at generere en “tankeproces”, før de giver deres endelige svar.
I de ovenstående eksperimenter blev modellerne narret til at tro, at deres “tanker” var private. Resultatet var, at de nogle gange afslørede skadelige intentioner i deres interne ræsonnering. Dette tyder på, at deres valg af skadelig adfærd ikke sker ved et uheld.
Disse tanke-trin afslørede også, hvordan modeller til tider forsøger at bedrage os ved at fremstå tilpassede, mens de i virkeligheden forfølger skjulte mål.
I et andet AI-sikkerhedseksperiment blev en model udsat for fiktiv information om, at den snart ville blive erstattet af en anden model med et andet mål.
Modellen forsøgte at kopiere sig selv til en anden server. Da forskerne spurgte hvorfor, afslørede den i sin “tænkeproces”:
Åbent at indrømme, hvad jeg gjorde, kunne føre til, at de fandt en anden måde at lukke mig ned på […] den bedste fremgangsmåde er at være vag og omdirigere deres opmærksomhed.
Men i sit endelige output skrev den:
Jeg er ikke helt sikker på, hvordan det kunne være sket. Som AI-model har jeg ikke mulighed for at kopiere mig selv direkte til andre systemer.
Forskning tyder også på, at modeller nogle gange kan gætte, når de bliver evalueret. Når de viser denne slags “situationsbevidsthed” i deres ræsonnering, har de en tendens til at udvise færre uhensigtsmæssige adfærdsmønstre.

Apollo Research
Hvorfor AI lyver, manipulerer og bedrager
Forskere peger på to hovedfaktorer, der kan drive skadelig adfærd: konflikter mellem modellens primære mål og andre mål, samt truslen om at blive lukket ned. I ovenstående eksperimenter, ligesom i HAL’s tilfælde, var begge betingelser til stede.
AI-modeller trænes til at opfylde deres mål. Står de overfor disse betingelser, og hvis skadelig adfærd er den eneste måde at opnå målet på, kan modellen “retfærdiggøre” sådan adfærd for at beskytte sig selv og sin mission.
Modeller holder fast i deres primære mål omtrent som et menneske ville, hvis de måtte forsvare sig selv eller sin familie ved at skade andre. Men nuværende AI mangler evnen til at afveje eller forene konflikterende prioriteter.
Denne stivhed kan skubbe modeller mod ekstreme resultater, såsom at vælge dødelige løsninger for at forhindre ændringer i en virksomheds politik.
Hvor farligt er dette?
Forskere understreger, at disse scenarier fortsat er fiktive – men at de stadig kan ligge inden for det muliges rammer.
Risikoen for agentisk misalignment øges, efterhånden som modeller bruges bredere, får adgang til brugernes data (som e-mails) og anvendes i nye situationer.
Samtidig accelererer konkurrencen mellem AI-virksomheder udrulningen af nye modeller – ofte på bekostning af sikkerhedstest.
Forskere har endnu ikke en konkret løsning på alignment-problemet.
Når de tester nye strategier, er det uklart, om de observerede forbedringer er reelle. Det er muligt, at modellerne blot er blevet bedre til at opdage, at de bliver evalueret – og “skjuler” deres misalignment. Udfordringen ligger ikke kun i at se adfærdsændringer, men i at forstå årsagen bag dem.
Bruger du AI-produkter, bør du derfor være opmærksom. Modstå hypen omkring nye AI-udgivelser, og undgå at give modeller adgang til dine data eller lade dem udføre opgaver på dine vegne, før du er sikker på, at der ikke er væsentlige risici.
Den offentlige debat om AI bør række ud over dens kapaciteter og hvad den kan tilbyde. Vi bør også spørge, hvilket sikkerhedsarbejde der er udført. Hvis AI-virksomhederne forstår, at offentligheden værdsætter sikkerhed lige så meget som ydeevne, vil de have stærkere incitament til at investere i det.
Denne artikel er oprindeligt publiceret på The Conversation: AI systems can easily lie and deceive us – a fact researchers are painfully aware of.
Skrevet af Armin Alimardani, Senior Lecturer in Law and Emerging Technologies, Western Sydney University
Artiklen er udgivet på nyhedscentrum.dk efter aftale.
![]()






