22/09/2008
I en verden, hvor teknologien konstant rykker grænserne for, hvad der er muligt, har kunstig intelligens (AI) for alvor gjort sit indtog i sundhedssektoren. Et af de mest spændende og omdiskuterede områder er brugen af AI til at tolke medicinske billeder som røntgenbilleder og scanninger. En nylig og banebrydende undersøgelse har sat de mest avancerede AI-modeller op imod menneskelige eksperter i en direkte duel. Udfordringen var den anerkendte New England Journal of Medicine (NEJM) Image Challenge, en slags verdensmesterskab i diagnostik for læger. Spørgsmålet er simpelt, men afgørende for fremtidens medicin: Kan en algoritme overgå en erfaren læges trænede øje? Resultaterne er både imponerende og tankevækkende og afslører AI's nuværende styrker såvel som dens afgørende begrænsninger.

Hvad er NEJM Image Challenge?
Før vi dykker ned i resultaterne, er det vigtigt at forstå testens arena. New England Journal of Medicine Image Challenge er en højt respekteret pædagogisk funktion, som siden 2005 har udfordret læger og medicinstuderende verden over. Hver udfordring består af et klinisk billede – for eksempel et røntgenbillede, et mikroskopifoto eller et billede af et fysisk symptom – ledsaget af en kort beskrivelse af patientens sygehistorie og symptomer. Deltagerne præsenteres derefter for en række multiple-choice svarmuligheder for at stille den korrekte diagnose.
Gennem årene er der blevet opbygget en enorm database med tusindvis af disse sager. Denne database er en guldgrube for forskning, da den ikke kun indeholder billederne og de korrekte svar, men også data om, hvordan tusindvis af sundhedsprofessionelle har svaret. Det giver et unikt indblik i, hvilke sager der er særligt vanskelige. Det er netop dette righoldige datasæt, forskere har brugt til systematisk at evaluere, hvor godt kunstig intelligens klarer sig i en disciplin, der traditionelt har været forbeholdt højt specialiserede mennesker.
Maskine mod Menneske: Studiet der Satte AI på Prøve
I en nylig undersøgelse udvalgte forskere 272 cases fra NEJM Image Challenge-arkivet. Disse cases blev præsenteret for nogle af de mest avancerede multimodale sprogmodeller (LLM'er), der kan behandle både tekst og billeder. Modellerne inkluderede velkendte navne som OpenAI's GPT-4o og GPT-4V, Googles Gemini 1.5 Pro og Anthropic's Claude 3.
På den anden side af konkurrencen stod et hold af menneskelige deltagere med varierende erfaringsniveauer:
- Syv erfarne, men relativt nyuddannede, speciallæger i radiologi.
- To klinikere.
- En radiolog under uddannelse.
- En medicinstuderende.
Målet var at sammenligne AI-modellernes diagnostiske nøjagtighed direkte med menneskernes for at se, hvor teknologien befinder sig i 2024. Alle menneskelige deltagere var "blinde" for de publicerede svar for at sikre en fair sammenligning.
Overraskende Resultater: Hvem Vinder Diagnoseduellen?
Resultaterne viste et nuanceret billede af AI's evner. Den bedst præsterende AI-model, GPT-4o, opnåede en samlet nøjagtighed på 59,6%. Dette resultat var markant bedre end medicinstuderendes, som landede på 47,1%. Det er i sig selv en milepæl: AI har overgået en person, der er godt på vej i sin medicinske uddannelse.
Men her stopper de gode nyheder for AI'en. Da den blev sammenlignet med de uddannede specialister, var billedet et helt andet. GPT-4o blev markant overgået af både radiologen under uddannelse (70,2% korrekt) og de erfarne radiologer (80,9% korrekt). Menneskelig ekspertise og erfaring viste sig altså stadig at være langt overlegen.
Sammenligning af Diagnostisk Nøjagtighed
Tabellen nedenfor giver et klart overblik over, hvordan de forskellige deltagere klarede sig i undersøgelsen.
| Deltager | Korrekt Svarprocent |
|---|---|
| Erfarne Radiologer | 80,9% |
| Radiolog under Uddannelse | 70,2% |
| GPT-4o (Bedste AI) | 59,6% |
| Medicinstuderende | 47,1% |
Tekstens Magt: AI's Skjulte Afhængighed
Den måske mest afslørende del af undersøgelsen kom, da forskerne analyserede, *hvorfor* AI'en svarede, som den gjorde. De opdagede en afgørende faktor: længden og detaljegraden af den medfølgende tekst. AI-modellerne præsterede markant bedre på de opgaver, hvor patientbeskrivelsen var lang og fyldt med kliniske detaljer, laboratoriemålinger og anden relevant information. Menneskernes præstation var derimod upåvirket af tekstens længde; de kunne udlede den nødvendige information fra selve billedet.

Endnu mere forbløffende var det, at AI'ens nøjagtighed næsten ikke ændrede sig, uanset om den fik adgang til det radiologiske billede eller ej. Uden billedet, kun baseret på teksten, opnåede GPT-4o 54,0% korrekthed. Med billedet steg det kun til 59,6%. Dette tyder stærkt på, at AI'en i høj grad baserer sin "diagnose" på at analysere tekstmønstre frem for reelt at "se" og "forstå" de visuelle nuancer i billedet. Den er en ekstremt avanceret tekstanalytiker, men dens visuelle fortolkningsevner er stadig begrænsede i denne komplekse medicinske kontekst.
Hvad Betyder Dette for Fremtidens Sundhedsvæsen?
Denne undersøgelse er en vigtig realitetskontrol. Den viser, at vi er langt fra et scenarie, hvor AI kan erstatte radiologer. Den menneskelige ekspertise, intuition og evne til at syntetisere visuel information med klinisk viden er stadig uovertruffen. AI mangler den dybe kontekstuelle forståelse, som en læge opbygger gennem mange års uddannelse og praksis.
Det betyder dog ikke, at AI ikke har en plads i fremtidens diagnostik. Tværtimod peger resultaterne på, at AI kan blive et utroligt stærkt værktøj til at assistere sundhedspersonale. Den kan bruges til:
- Uddannelse: Som vist i studiet kan AI allerede præstere på niveau med en studerende og kan fungere som et avanceret pædagogisk redskab.
- Second Opinion: For yngre læger eller i situationer med tvivl kan AI hurtigt analysere tekstdata og foreslå mulige diagnoser, som lægen kan overveje.
- Effektivisering: AI kan hjælpe med at opsummere lange patientjournaler og fremhæve nøgleinformation, hvilket frigør tid for lægen til at fokusere på patienten og de komplekse billedanalyser.
Konklusionen er klar: AI er ikke en erstatning for lægen, men en potentiel partner. Fremtiden ligger sandsynligvis i et tæt samarbejde, hvor maskinens evne til at behandle enorme mængder data kombineres med den menneskelige eksperts dømmekraft og erfaring.
Ofte Stillede Spørgsmål (FAQ)
Kan jeg stole på, at en AI stiller min diagnose i fremtiden?
Ikke alene. Som denne undersøgelse viser, er erfarne læger stadig langt mere præcise. AI vil sandsynligvis blive brugt som et støtteværktøj til at hjælpe læger med at træffe bedre og hurtigere beslutninger, men den endelige diagnostiske ansvar vil fortsat ligge hos et menneske.
Hvorfor klarede AI'en sig bedre med mere tekst?
Fordi disse modeller fundamentalt set er "sproglige" modeller. De er trænet på milliarder af tekstsider og er ekstremt gode til at genkende mønstre, sammenhænge og nøgleord i skriftligt materiale. Deres evne til at foretage en ægte visuel analyse af medicinske billeder er stadig under udvikling. En detaljeret tekst gav den simpelthen flere sproglige ledetråde at basere sit gæt på.
Hvad er en multimodal LLM?
En multimodal Large Language Model (LLM) er en type kunstig intelligens, der kan behandle og forstå information fra flere forskellige typer input (modaliteter) på samme tid. Det kan for eksempel være en kombination af tekst, billeder, lyd eller video. Det er denne evne, der gør dem i stand til at forsøge at løse opgaver som NEJM Image Challenge.
Er denne teknologi farlig for patienter?
Som med ethvert nyt medicinsk værktøj er der risici, hvis det bruges forkert. Faren ligger i en overdreven tillid til teknologien eller i at anvende den til opgaver, den endnu ikke er moden til. Studier som dette er afgørende for at forstå AI's begrænsninger, så den kan implementeres sikkert og ansvarligt i klinisk praksis, hvor den kan gøre gavn uden at forårsage skade.
Hvis du vil læse andre artikler, der ligner AI mod Læger: Hvem Stiller den Rigtige Diagnose?, kan du besøge kategorien Sundhed.
