Artikel af professorerne Lawrence Lessig og Archon Fung fra Harvard University
Kunne organisationer bruge kunstig intelligens (AI) som ChatGPT til at påvirke vælgere til at opføre sig på bestemte måder?
Senator Josh Hawley stillede dette spørgsmål til OpenAI’s administrerende direktør, Sam Altman, under en høring i USA’s senat den 16. maj 2023 om kunstig intelligens. Altman svarede, at han faktisk var bekymret for, at nogle mennesker kunne bruge sprogmodeller som ChatGPT til at manipulere, overtale og indgå i en-til-en-interaktioner med vælgere.
Altman uddybede ikke, men han kunne have haft noget lignende dette scenarie i tankerne. Forestil dig, at politiske teknologer snart udvikler en system ved navn Clogger – en politisk kampagne med kunstig intelligens af “sort boks”-typen. Clogger forfølger ubarmhjertigt kun ét mål: At maksimere chancerne for, at dens kandidat – kampagnen, der køber Clogger firmaets tjenester – vinder et valg.
Mens platforme som Facebook, Twitter og YouTube bruger former for kunstig intelligens til at få brugerne til at bruge mere tid på deres websteder, ville Cloggers kunstige intelligens have et andet mål: at ændre folks stemmeadfærd.
Hvordan Clogger ville fungere
Som politolog og juridisk forsker, der studerer krydsfeltet mellem teknologi og demokrati, mener vi, at noget som Clogger kunne bruge automatisering til at øge skalaen og potentialet for adfærdsmanipulation og mikrotargeting-teknikker, som politiske kampagner har brugt siden begyndelsen af 2000’erne. Ligesom annoncører bruger din browserhistorik og sociale mediehistorik til individuelt at målrette kommercielle og politiske annoncer nu, ville Clogger være opmærksom på dig – og hundredvis af millioner af andre vælgere – individuelt.
Den ville tilbyde tre forbedringer i forhold til den nuværende avancerede algoritmiske adfærdsmanipulation. For det første ville dens sprogmodel generere beskeder – tekst, sociale medier og e-mails, måske inklusive billeder og videoer – skræddersyet til dig personligt. Mens annoncører strategisk placerer et relativt lille antal annoncer, kan sprogmodeller som ChatGPT generere utallige unikke beskeder til dig personligt – og millioner til andre – i løbet af en kampagne.
For det andet ville Clogger bruge en teknik kaldet ”forstærknings læring” til at generere en række beskeder, der gradvist bliver mere sandsynlige for at ændre din stemmeafgivning. Forstærkningslæring er en maskinlæringsteknik, der bruger en metode med forsøg og fejl, hvor computeren foretager handlinger og modtager feedback om, hvilke der fungerer bedre, for at lære at opnå et mål. Maskiner, der kan spille Go, skak og mange videospil bedre end noget menneske, har brugt forstærkningslæring.
For det tredje kunne Cloggers beskeder udvikle sig i løbet af en kampagne for at tage hensyn til dine reaktioner på maskinens tidligere afsendelser og hvad den har lært om at ændre andre menneskers holdninger. Clogger ville være i stand til at føre dynamiske “samtaler” med dig – og millioner af andre mennesker – over tid. Cloggers beskeder ville være lignende annoncer, der følger dig på tværs af forskellige websteder og sociale medier.
Kunstig intelligens natur
Tre yderligere funktioner – eller fejl – er værd at bemærke.
For det første kan de beskeder, som Clogger sender, være politiske eller ikke-politiske i indhold. Maskinens eneste mål er at maksimere stemmeandelen, og den ville sandsynligvis udvikle strategier til at opnå dette mål, som ingen menneskelig kampagneleder ville have tænkt på.
En mulighed er at sende oplysninger til potentielle modstander vælgere om deres ikke-politiske lidenskaber inden for sport eller underholdning for at skjule de politiske budskaber, de modtager. En anden mulighed er at sende forstyrrende beskeder – f.eks. reklamer for inkontinensprodukter – med timing, der falder sammen med modstandernes budskaber. Og en anden mulighed er at manipulere vælgernes sociale medie-vennegrupper for at give indtryk af, at deres sociale kredse støtter dens kandidat.
For det andet tager Clogger ingen hensyn til sandheden. Faktisk har den ingen måde at vide, hvad der er sandt eller falsk. Sprogmodellers “hallucinationer” er ikke et problem for denne AI, fordi dens mål er at ændre din stemmeafgivning, ikke at give præcis information.
For det tredje ville folk ikke have nogen måde at vide, hvilke strategier den bruger, da det er en kunstig intelligens af “sort boks”-typen.
Clogokrati
Hvis den republikanske præsidentkampagne vil bruge Clogger i 2024, ville den demokratiske kampagne sandsynligvis være tvunget til at svare tilbage på samme måde, måske med en lignende AI. Lad os kalde den Dogger. Hvis kampagnelederne mente, at disse maskiner var effektive, kunne præsidentvalget meget vel ende med at stå mellem Clogger og Dogger, og vinderen ville være klienten med den mest effektive AI.
Politologer og kommentatorer ville have meget at sige om, hvorfor den ene eller den anden kunstige intelligens sejrede, men sandsynligvis ville ingen rigtig vide det. Præsidenten ville være blevet valgt, ikke fordi hans eller hendes politiske forslag eller politiske idéer overbeviste flere amerikanere, men fordi han eller hun havde den mest effektive kunstige intelligens. Indholdet, der vandt dagen, ville være kommet fra en kunstig intelligens, der kun fokuserede på sejr, uden egne politiske ideer, i stedet for fra kandidater eller partier.
På denne meget vigtige måde ville en maskine have vundet valget i stedet for en person. Valget ville ikke længere være demokratisk, selvom alle de almindelige demokratiske aktiviteter – talerne, annoncerne, budskaberne, afstemningen og optællingen af stemmer – ville være forekommet.
Den kunstige intelligens-valgte præsident kunne derefter følge to veje. Han eller hun kunne bruge valgets magt til at forfølge republikanske eller demokratiske partipolitikker. Men fordi partipolitikken måske kun har haft lidt at gøre med, hvorfor folk stemte som de gjorde – Clogger og Dogger er ligeglade med politiske synspunkter – ville præsidentens handlinger ikke nødvendigvis afspejle vælgernes vilje. Vælgerne ville være blevet manipuleret af AI’en i stedet for frit at vælge deres politiske ledere og politikker.
En anden vej er, at præsidenten forfølger de budskaber, adfærd og politikker, som maskinen forudsiger vil maksimere chancerne for genvalg. På denne vej ville præsidenten ikke have nogen specifik platform eller dagsorden ud over at opretholde magten. Præsidentens handlinger, styret af Clogger, ville være dem, der mest sandsynligt ville manipulere vælgerne i stedet for at tjene deres ægte interesser eller endda præsidentens egen ideologi.
Hvordan man undgår Clogokrati
Det ville være muligt at undgå manipulation af valg ved hjælp af kunstig intelligens, hvis kandidater, kampagner og konsulenter alle afstod brugen af sådanne politiske AI. Vi tror dog, at dette er usandsynligt. Hvis politisk effektive ”black boxes” blev udviklet, ville fristelsen til at bruge dem være næsten uimodståelig. Faktisk kunne politiske konsulenter godt se brugen af disse værktøjer som en nødvendighed i deres professionelle ansvar for at hjælpe deres kandidater med at vinde. Og når først én kandidat bruger et så effektivt værktøj, kunne man næppe forvente, at modstanderne ville afstå fra at bevæbne sig tilsvarende.
Forbedret beskyttelse af privatlivet ville hjælpe. Clogger ville være afhængig af adgang til enorme mængder personlige data for at kunne målrette enkeltpersoner, udforme beskeder skræddersyet til at overbevise eller manipulere dem og spore og genmålrette dem i løbet af en kampagne. Enhver lille del af den information, som virksomheder eller beslutningstagere nægter maskinen, ville gøre den mindre effektiv.
En anden løsning ligger hos valgkommissionerne. De kunne forsøge at forbyde eller strengt regulere disse maskiner. Der er en heftig debat om, hvorvidt såkaldt “replikant” tale”, selv hvis det er af politisk karakter, kan reguleres. USA’s ekstreme tradition for ytringsfrihed får mange førende akademikere til at sige, at det kan det ikke.
Men der er ingen grund til automatisk at udvide ytringsfrihed beskyttelse til produktet af disse AI-maskiner. Lande kunne meget vel vælge at give kunstig intelligens rettigheder, men det bør være en beslutning, der tager udgangspunkt i dagens udfordringer, ikke den fejlagtige antagelse om, at frihedsrettigheder var tiltænkt anvendelse på kunstig intelligens.
EU-regulatorer bevæger sig i denne retning. Beslutningstagere har revideret det Europæiske Parlaments udkast til dets lovforslag om kunstig intelligens for at betegne “AI-systemer til at påvirke vælgere i kampagner” som “højrisiko” og underlagt regulatorisk kontrol.
Et forfatningsmæssigt mere sikkert, omend mindre skridt, allerede delvist vedtaget af europæiske internetregulatorer og i Californien, er at forbyde robotter at udgive sig for at være mennesker. For eksempel kan regulering kræve, at kampagnebeskeder følges med ansvarsfraskrivelser, når indholdet er genereret af kunstig intelligens i stedet for mennesker.
Dette ville være som kravene til annoncer – “Betalt af Sam Jones’ kongreskomité” – men ændret for at afspejle dets AI-oprindelse: “Denne AI-genererede annonce blev betalt af Sam Jones’ kongreskomité.” En stærkere version kunne kræve: “Denne AI-genererede besked sendes til dig af Sam Jones’ kongreskomité, fordi Clogger har forudsagt, at det vil øge dine chancer for at stemme på Sam Jones med 0,0002%.” Under alle omstændigheder mener vi, at vælgerne fortjener at vide, hvornår det er en robot, der taler til dem, og de bør også vide hvorfor.
Muligheden for, at et system som Clogger vil komme viser, at vejen mod menneskets kollektive afmagt måske ikke kræver en superintelligent kunstig intelligens (AGI). Det ville blot kræve ivrige kampagnefolk og konsulenter, der har kraftfulde nye værktøjer, som effektivt kan påvirke millioner af mennesker.
Denne artikel er oprindeligt publiceret på The Conversation: How AI could take over elections – and undermine democracy.
Skrevet af professorerne Lawrence Lessig og Archon Fung fra Harvard University.
Artiklen er udgivet på nyhedscentrum.dk efter aftale.
Relaterede artikler:
Polarisering er en destruktiv valgstrategi der truer demokratiet – men der findes løsninger
Joe Bidens slæbende meningsmålinger betyder intet hvis nok vælgere afskyr hans modstander endnu mere
TikTok forsøger at gøre Vestens børn dummere mens Kina har en helt anden version til deres unge
Kæmpe retsopgør på vej mod sociale medier for at skade børn og unges mentale helbred
Politikeres stigende alder rundt om i verden lukker yngre mennesker ude af beslutningsprocessen