
Den amerikanske regering skal handle”hurtigt og beslutsomt” for at afværge væsentlige nationale sikkerhedsrisici, der stammer fra kunstig intelligens (AI), som i værste fald kan forårsage en “udryddelsesniveau trussel mod menneskeheden,” hedder det i en rapport bestilt af den amerikanske regering. (Time Magazine)
Nogle af risiciene omfatter udvikling af biovåben, cyberangreb, autonome robotter, manipulation af valg og tab af kontrol over den kunstige intelligens.
“Den nuværende top AI-udvikling udgør akutte og voksende risici for national sikkerhed,” siger rapporten. “Fremkomsten af avanceret AI og AGI [kunstig generel intelligens] har potentialet til at destabilisere global sikkerhed på måder, der minder om introduktionen af atomvåben.”
AGI er sandsynligvis en realitet inden for de næste fem år
AGI er en kommende teknologi, der kan udføre de fleste opgaver på eller over et menneskes niveau. Sådanne systemer eksisterer ikke i øjeblikket, men de førende AI-laboratorier arbejder på dem, og mange forventer, at AGI er en realitet inden for de næste fem år eller mindre.
Rapporten, der er lavet Gladstone AI, siger for det første, at de mest avancerede AI-systemer kunne bruges som våben og potentielt forårsage uoprettelig skade. For det andet siger rapporten, at der er private bekymringer inden for AI-laboratorier om, at de på et tidspunkt kunne “miste kontrollen” over netop de systemer, de udvikler, med “potentielt ødelæggende konsekvenser for global sikkerhed.”
Der er risiko for at man kan miste kontrollen over en stærk kunstig intelligens
“AI er allerede en økonomisk transformativ teknologi. Den kunne give os mulighed for at helbrede sygdomme, gøre videnskabelige opdagelser og overvinde udfordringer, som vi engang troede var uoverkommelige, sagde Jeremie Harris, CEO og medstifter af Gladstone AI, til CNN.
“Men det kan også medføre alvorlige risici, herunder katastrofale risici, som vi skal være opmærksomme på,” sagde Harris. “Og en voksende mængde af beviser – herunder empirisk forskning og analyse offentliggjort på verdens bedste AI-konferencer – tyder på, at over en vis tærskel af kapacitet kan AI’er potentielt blive ukontrollerbare.” (CNN)
Gennem et helt år talte de tre forfattere af rapporten med over 200 personer fra regeringen og AI-industrien, herunder virksomheder som OpenAI og Google DeepMind. Deres forskning afslører også bekymringer omkring incitamenter hos virksomhedslederene.
Kapløb om udviklingen forværrer risici
Begge kategorier af risici forværres af “kapløbsdynamikker” i AI-industrien, ifølge rapporten. Sandsynligheden for, at det første firma til at opnå AGI vil høste størstedelen af de økonomiske belønninger, siger rapporten, motiverer virksomheder til at prioritere hastighed over sikkerhed. “Top AI-laboratorier står over for et intenst og umiddelbart incitament til at skalere deres AI-systemer så hurtigt som de kan,” siger rapporten. “De står ikke over for et umiddelbart incitament til at investere i sikkerhedsforanstaltninger, der ikke giver direkte økonomiske fordele, selvom nogle gør det af ægte bekymring.” (Time Magazine)
Kraftig opfordring til ny sikkerhedslovgivning
Rapporten fra Gladstone AI der hedder, “En handlingsplan for at øge sikkerheden ved avanceret AI,” foreslår drastiske politikændringer for at regulere AI-udviklingen, herunder begrænsninger på databehandlingskraften, der bruges til træning af AI-modeller, og krav om regeringstilladelse for nye AI-modeller. Den understreger også behovet for strammere kontrol med AI-chips og støtte til forskning i AI-sikkerhed.
I lyset af den hastige udviklinge inden for AI og voksende offentlig bekymring over sikkerhedsrisici, opfordrer rapporten til handling for at bremse kapløbet mod stadig mere kraftfulde AI-systemer. Blandt forslagene er at begrænse træningen af avancerede AI-systemer og øge overvågningen af AI-udviklingen.
Rapporten betoner vigtigheden af at regulere AI-hardware som en nøgle til at begrænse AI’s kapabiliteter og foreslår at forbinde chip-eksportlicenser til overvågningsteknologier. Den anerkender dog udfordringerne ved overregulering og dens potentielle indvirkning på den globale forsyningskæde.
Med udfordringerne ved at begrænse avanceret AI gennem hardware, antyder rapporten, at et føderalt AI-agentur kunne overveje at blokere offentliggørelsen af forskning, der forbedrer algoritmisk effektivitet, selvom dette kan skade den amerikanske AI-industri.
Til trods for at deres anbefalinger kan virke overdrevne for nogle i AI-industrien, fremhæver Edouard Harris risiciene ved at gøre avancerede AI-modeller åbne for offentligheden.
Næste generations AI kunne nedbryde demokratiet
“En person på et velkendt AI-laboratorium udtrykte det synspunkt, at hvis en specifik næste-generations AI-model nogensinde blev frigivet som open access, ville dette være ‘forfærdeligt dårligt’,” sagde rapporten, “fordi modellens potentielle overbevisende kapaciteter kunne “nedbryde demokratiet”, hvis de nogensinde blev udnyttet på områder som indblanding i valg eller vælgermanipulation.” (CNN)
Rapporten belyser også, hvordan nem adgang til AI’s modeller kan føre til fjernelse af sikkerheds elementer, hvilket potentielt gør selv tilsyneladende sikre modeller farlige.
Sluttelig nævner rapporten oprettelsen af ny politisk komite, “Amerikanere for AI Sikkerhed”, med det formål at fremme AI-sikkerhedspolitik. Jeremie Harris fremhæver det presserende behov for at styre AI-udviklingen ansvarligt for at undgå katastrofale konsekvenser og sikre, at samfundet kan nyde godt af fordelene ved kunstig intelligens.
EU har i marts vedtaget et ny lov, Artificial Intelligence Act, der handler om “sikkerhedsforanstaltninger for generel kunstig intelligens” – begrænsninger for brugen af biometriske identifikationssystemer og forbud mod social klassificering og at AI bruges til at manipulere eller udnytte brugersårbarheder. (European Parliament)
Relaterede artikler:
Misinformation genereret af kunstig intelligens: 3 færdigheder til at hjælpe dig med at spotte det
Kunstig intelligens i militæret er i gang med at blive en skræmmende gamechanger ifølge eksperter
Hvad er farerne og fordelene ved kunstig intelligens hvis man spørger ChatGPT selv?
Klimaangst hos generation Z er reel og kræver handling ifølge ny forskning
Når man måler mentalt velbefindende er der helt andre lande i top som de lykkeligste
Ny forskning viser hvordan man opnår den eftertragtede Flow-tilstand
Kilder: Time Magazine, CNN, Business Insider.