Artikel af Eike Schneiders, Joshua Krook og Tina Seabrooke fra University of Southampton
Folk, der ikke er juridiske eksperter, er mere villige til at stole på juridisk rådgivning fra ChatGPT end fra rigtige advokater – i hvert fald, når de ikke ved, hvem af de to der har givet rådet.
Det er hovedresultatet i vores nye forskning, som fremhæver nogle vigtige bekymringer i forhold til den måde, offentligheden i stigende grad stoler på AI-genereret indhold. Vi fandt også, at offentligheden har en vis evne til at identificere, om rådet kom fra ChatGPT eller en menneskelig advokat.
AI-værktøjer som ChatGPT og andre store sprogmodeller (LLM’er) er ved at finde vej ind i vores daglige liv. De lover hurtige svar, idéudvikling, diagnosticering af medicinske symptomer og endda hjælp med juridiske spørgsmål ved at give konkret juridisk rådgivning.
Men LLM’er er kendt for at skabe såkaldte “hallucinationer” – det vil sige output, der indeholder unøjagtigt eller meningsløst indhold. Det betyder, at der er en reel risiko forbundet med at stole for meget på dem, især i højrisikoområder som jura. LLM’er har en tendens til at fremføre råd med stor selvsikkerhed, hvilket gør det svært for folk at skelne mellem gode råd og selvsikkert udtrykte dårlige råd.
Vi gennemførte tre eksperimenter med i alt 288 personer. I de to første eksperimenter fik deltagerne juridisk rådgivning og blev spurgt, hvilket de var villige til at følge. Når folk ikke vidste, om rådet kom fra en advokat eller AI, fandt vi, at de var mere villige til at stole på det AI-genererede råd. Det betyder, at hvis en LLM giver juridisk rådgivning uden at afsløre sin karakter, kan folk tage det som fakta og foretrække det frem for ekspertudtalelser fra advokater – muligvis uden at stille spørgsmålstegn ved dets nøjagtighed.
Selv når deltagerne fik at vide, hvilket råd der kom fra en advokat, og hvilket der var AI-genereret, fandt vi, at de var lige så villige til at følge ChatGPT som advokaten.
En mulig grund til, at LLM’er foretrækkes, som vi fandt i vores studie, er, at de bruger mere komplekst sprog. På den anden side havde rigtige advokater en tendens til at bruge enklere sprog, men flere ord i deres svar.
Det tredje eksperiment undersøgte, om deltagerne kunne skelne mellem LLM- og advokatgenereret indhold, når kilden ikke blev oplyst for dem. Den gode nyhed er, at det kan de – men kun i ringe grad.
I vores opgave ville tilfældige gæt give en score på 0,5, mens perfekt skelnen ville give en score på 1,0. I gennemsnit scorede deltagerne 0,59, hvilket indikerer en præstation, der er en smule bedre end tilfældige gæt, men stadig relativt svag.
Regulering og AI-kompetence
Dette er et afgørende øjeblik for forskning som vores, da AI-drevne systemer som chatbots og LLM’er bliver stadig mere integreret i hverdagen. Alexa eller Google Home kan fungere som hjemmeassistenter, mens AI-drevne systemer kan hjælpe med komplekse opgaver som online shopping, opsummering af juridiske tekster eller generering af journalnotater.
Men dette indebærer betydelige risici for at træffe potentielt livsændrende beslutninger baseret på hallucineret misinformation. I det juridiske tilfælde kan AI-genereret, hallucineret rådgivning medføre unødvendige komplikationer eller endda justitsmord.
Derfor har det aldrig været vigtigere at regulere AI ordentligt. Forsøg på dette inkluderer EU’s AI-forordning, artikel 50.9, som fastslår, at tekstgenererende AI’er skal sikre, at deres output er “markeret i et maskinlæsbart format og genkendeligt som kunstigt genereret eller manipuleret”.
Men det er kun en del af løsningen. Vi skal også forbedre AI-kompetencen, så offentligheden bedre kan vurdere indhold kritisk. Når folk er bedre til at genkende AI, vil de kunne træffe mere informerede beslutninger.
Det betyder, at vi skal lære at stille spørgsmål ved kilden til råd, forstå AI’s kapaciteter og begrænsninger og lægge vægt på kritisk tænkning og sund fornuft, når vi interagerer med AI-genereret indhold. I praksis betyder det at krydstjekke vigtig information med troværdige kilder og inddrage menneskelige eksperter for at forhindre overdreven afhængighed af AI-genereret information.
I tilfælde af juridisk rådgivning kan det være fint at bruge AI til nogle indledende spørgsmål: “Hvilke muligheder har jeg her? Hvad skal jeg læse op på? Er der lignende sager som min, eller hvilket retsområde hører dette under?” Men det er vigtigt at få rådene bekræftet af en menneskelig advokat længe før man havner i retten eller handler på noget, der er genereret af en LLM.
AI kan være et værdifuldt værktøj, men vi skal bruge det ansvarligt. Ved at bruge en todelt tilgang med fokus på regulering og AI-kompetence kan vi udnytte dets fordele og samtidig minimere risiciene.
Denne artikel er oprindeligt publiceret på The Conversation: People trust legal advice generated by ChatGPT more than a lawyer – new study.
Skrevet af forskerne Joshua Krook, Research Fellow in Responsible Artificial Intelligence – Eike Schneiders, Assistant Professor, School of Electronics and Computer Science – og Tina Seabrooke, Lecturer in Psychology. Alle fra University of Southampton.
Artiklen er udgivet på nyhedscentrum.dk efter aftale.
Relaterede artikler:
AI som fredsmægler: Hvordan ny kunstig intelligens måske kan forene en splittet verden
Misinformation genereret af kunstig intelligens: 3 færdigheder til at hjælpe dig med at spotte det
ChatGPT overgår mennesker i anerkendt test for kreativitet og booster produktivitet
Hvordan kunstig intelligens kunne overtage valg og underminere demokratiet ifølge Harvard forskere
Kunstig intelligens kan løfte elever og studerende på 4 måder ifølge forsker i læring
![]()






