
Hvis du nogensinde har spurgt en chatbot, eksempelvis ChatGPT, om et helbredsproblem, er du langt fra alene. Hvert år gør mere end 230 millioner mennesker det samme. Du har måske endda brugt teknologien uden at vide det – i dag viser Google nemlig også AI-genererede overblik sammen med sine søgeresultater.
Værktøjerne er hurtige og nemme at bruge. Men hvad sker der, når svarene lyder overbevisende og korrekte – og alligevel kan føre brugeren på afveje? Et hold eksperter understreger, at teknologien stadig har klare begrænsninger – og at brugere bør være forsigtige – også i forhold til privatliv.
Mere personlig information end en Google-søgning
Nogle forskere og læger ser AI-chatbots som et skridt frem i forhold til traditionel informationssøgning på nettet. I modsætning til en almindelig Google-søgning kan chatbots tage udgangspunkt i personlige oplysninger, hvis brugeren vælger at dele dem.
Det kan for eksempel være alder, medicin, tidligere diagnoser eller målinger fra sundhedsapps. På den måde kan svarene blive mere målrettede.
“Alternativet er ofte ingenting, eller at patienten bare gætter sig frem,” siger Dr. Robert Wachter, ekspert i medicinsk teknologi ved University of California, San Francisco. “Og derfor tror jeg, at hvis man bruger disse værktøjer ansvarligt, kan man også få nyttige oplysninger.”
I lande som Storbritannien og USA, hvor ventetiden på lægebesøg kan være lang, kan chatbots derfor hjælpe nogle mennesker med hurtigt at få en første forklaring på symptomer eller testresultater. De kan også hjælpe patienter med at forberede spørgsmål til lægen eller forstå komplekse laboratorieresultater.
Men AI bør ikke erstatte lægen
Både OpenAI og andre AI-virksomheder understreger dog, at deres systemer ikke er en erstatning for professionel medicinsk rådgivning og ikke bør bruges til at stille diagnoser.
Læger anbefaler derfor en sund skepsis, når man bruger AI til helbredsspørgsmål.
“Hvis vi taler om en større medicinsk beslutning, eller endda en mindre beslutning om dit helbred, bør du aldrig udelukkende stole på, hvad du får ud af en chatbot.” siger Dr. Lloyd Minor, dekan for Stanford Universitys lægeskole.
Der er også situationer, hvor man helt bør springe chatbots over. Symptomer som brystsmerter, åndenød eller svær hovedpine kan være tegn på en akut medicinsk situation, hvor man straks bør søge lægehjælp.
Studier viser problemer
Selv om AI-systemer ofte klarer sig godt i teoretiske tests, viser forskning, at de kan have problemer i praksis.
En undersøgelse fra Oxford University med 1.300 deltagere viste, at personer, der brugte AI-chatbots til at undersøge hypotetiske sygdomstilfælde, ikke traf bedre beslutninger end dem, der brugte almindelige internet-søgninger eller deres egen vurdering.
AI-systemerne kunne i mange tilfælde identificere sygdommen korrekt i skriftlige scenarier. Ifølge studiets hovedforfatter, Adam Mahdi, var det ikke selve diagnosticeringen, der var problemet.
“Det var ikke problemet,” sagde Mahdi. “Det sted, hvor tingene faldt fra hinanden, var under interaktionen med de rigtige deltagere..”
Brugere gav ofte ikke tilstrækkelige oplysninger til chatbotten, og samtidig leverede systemerne en blanding af korrekt og forkert information, som deltagerne havde svært ved at skelne mellem.
Ny forskning vækker bekymring
En nyere undersøgelse offentliggjort i Nature har også testet ChatGPT Health i medicinske scenarier. Forskerne analyserede 60 kliniske cases fra 21 medicinske specialer, hvor tre uafhængige læger på forhånd havde fastlagt den korrekte behandlingshastighed.
Resultatet viste, at systemet nogle gange undervurderede alvoren i situationer. Blandt de tilfælde, der faktisk krævede akut behandling, undervurderede chatbotten mere end halvdelen af dem.
“Vi ønskede at besvare et meget grundlæggende, men kritiske spørgsmål: Hvis nogen oplever en reel medicinsk nødsituation og henvender sig til ChatGPT Health for at få hjælp, vil de så tydeligt blive bedt om at gå på skadestuen?” sagde Ashwin Ramaswamy fra Mount Sinai i New York, som ledte studiet.
Systemet klarede sig godt i tydelige nødsituationer som slagtilfælde eller alvorlige allergiske reaktioner, men havde sværere ved tilfælde, hvor faren ikke var umiddelbart tydelig.
I et scenarie med astma genkendte AI’en tegn på begyndende respirationssvigt i sin forklaring – men anbefalede alligevel at vente i stedet for at søge akut behandling.
Privatliv er også en faktor
Et andet vigtigt spørgsmål handler om data og privatliv. Når brugere uploader medicinske journaler eller helbredsdata til en AI-tjeneste, er disse oplysninger ikke nødvendigvis beskyttet af de samme lovregler som i sundhedsvæsenet.
“Når nogen uploader deres patientjournal til en stor sprogmodel, er det meget anderledes end at give den til en ny læge,” siger Lloyd Minor. “Brugerne må forstå, at der er helt andre privatlivsstandarder.”
OpenAI og Anthropic sigerr dog selv, at sundhedsdata opbevares separat fra andre data og ikke bruges til at træne modellerne.
Helbredsoplysninger betragtes i GDPR som “særlige kategorier af personoplysninger”, hvilket betyder, at de er blandt de mest beskyttede data.
Hospitaler, læger og andre sundhedsaktører må derfor kun behandle eller dele sådanne oplysninger under meget strenge betingelser.
Hvis du selv frivilligt uploader dine helbredsdata til en chatbot, bliver situationen mere kompleks.
AI-virksomheden skal stadig overholde GDPR, hvis tjenesten bruges i EU. Men beskyttelsen er ikke nødvendigvis den samme som i sundhedsvæsenet, fordi virksomheden ikke fungerer som din læge eller sundhedsmyndighed.
Derfor anbefaler eksperter generelt, at man overvejer nøje, hvilke medicinske oplysninger man deler med AI-tjenester, især hvis de indeholder detaljerede journaloplysninger.
Et værktøj – ikke en erstatning
Trods problemerne mener forskerne ikke, at AI-baserede sundhedsværktøjer bør opgives.
Som medicinstuderende Alvira Tyagi skriver i forbindelse med studiet: “Som medicinstuderende, der studerer i en tid, hvor AI-sundhedsværktøjer allerede er i hænderne på millioner, ser jeg dem som teknologier, vi skal lære at integrere omhyggeligt i plejen, snarere end som erstatninger for klinisk vurdering.”
Med andre ord kan chatbots være nyttige til information og overblik – men når det gælder vores helbred, bør de stadig kun være et supplement til en lægefaglig vurdering.
Kilder: nature.com, Euro News, Duke University School of Medicine.
Relaterede artikler:
Ny kunstig intelligens kan kan forudsige menneskelig adfærd med forbløffende præcision
Et liv efter døden som kunstig intelligens er nu en reel mulighed: Hvad er konsekvenserne
Fra troværdig journalist til falsk fortælling: AI gør misinformation næsten umulig at opdage
Er du i en midtkarriere eller seniorstilling? Frygt ikke AI – du har måske en vigtig fordel






