Automatik & Proces Logo

Sidebanner (4)Sidebanner (4)  
Projektleder for EXPLAIN-ME er professor Aasa Feragen, DTU Compute. (Foto: Bax Lindhardt)
  • Projektleder for EXPLAIN-ME er professor Aasa Feragen, DTU Compute. (Foto: Bax Lindhardt)

26.11.2021, 15:14

Mere forståelig AI

Kunstig intelligens, AI, og ikke mindst brugen af AI-algoritmer er i fokus, i forbindelse med et DIREC-projekt, hvor AI-forskere samarbejder med sygehuse om at skabe mere letforståelig og nyttig AI.


AI vinder gradvist større plads i medicinske hjælpeteknologier, såsom billedbaseret diagnose, hvor AI med overmenneskelig præcision kan analysere skanningsbilleder. AI er derimod sjældent designet som en samarbejdspartner for lægepersonalet, hvilket human-AI-projekt ’EXPLAIN-ME’ - der er støttet af det nationale forskningscenter DIREC - vil gøre noget ved. AI-forskerne vil sammen med læger udvikle forklarlig AI, (eller på engelsk Explainable AI - XAI -), der kan give klinikere feedback, når de uddanner sig på hospitalernes træningsklinikker. 

”I den vestlige verden vurderes omkring hver tiende diagnose at være forkert, så patienterne ikke får den rette behandling. Forklaringen kan skyldes manglende erfaring og træning. Vores XAI-model vil hjælpe lægepersonalet med at træffe beslutninger og virke lidt som en mentor, der giver råd og respons, når de træner,” forklarer professor Aasa Feragen, DTU Compute, der er projektleder på DIREC-projektet.

DTU samarbejder med Københavns Universitet, Aalborg Universitet og Roskilde Universitet såvel som med læger på trænings- og simulationscentret CAMES på Rigshospitalet, NordSim på Aalborg Universitetshospital samt kræftlæger på Urologisk Afdeling på Sjællands Universitetshospital i Roskilde.

Forskningslektor og leder af CAMES’ forskningsgruppe inden for AI Martin Grønnebæk Tolsgaard understreger, at mange læger er interesserede i at få hjælp af AI-teknologien til at fastlægge den bedste behandling for patienterne. Og her er forklarlig AI vejen frem:

”Mange af de AI-modeller, der findes i dag, giver ikke særlig god indsigt i, hvorfor de kommer frem til en bestemt beslutning. Det er vigtigt for os at blive klogere på. Hvis man ikke forklarer, hvorfor den kunstige intelligens kommer frem til en given beslutning, så tror klinikerne ikke på beslutningen. Så hvis man vil bruge AI til gøre klinikerne bedre, så er det ikke nok bare at få beslutningerne, men også behov for gode forklaringer, det vil sige XAI," fastslår Martin Grønnebæk Tolsgaard.

Robotkirurgi giver kirurger mulighed for at udføre deres arbejde med mere præcision og kontrol end traditionelle kirurgiske værktøjer. Det reducerer fejl og øger effektiviteten, og forventningen er, at AI vil kunne forbedre resultaterne yderligere. 

I Aalborg skal forskerne udvikle en XAI-model, der støtter lægerne i træningscentret NordSim, hvor både danske og udenlandske læger kan træne kirurgi og operationer i robotsimulatorer med eksempelvis grisehjerter. Modellen skal give løbende feedback til klinikerne, imens de træner en operation, og uden at det forstyrrer, fortæller Mikael B. Skov, professor på Department of Computer Science ved AAU:

”I dag er det typisk sådan, at man først får at vide, hvis man skulle have gjort noget anderledes, når man er færdig med at træne en operation. Vi vil gerne se på, hvordan man kan komme med den her feedback mere kontinuerligt, således, at man bedre forstår, om man har gjort noget rigtigt eller forkert. Det skal helst gøres sådan, at personerne lærer det hurtigere og samtidig begår færre fejl, inden de skal ud og lave rigtige operationer. Vi skal derfor se på, hvordan man kan komme med forskellige typer af feedback, som f.eks. advarsler, uden at det afbryder for meget”.

Læger skal ofte træffe beslutninger under tidspres, f.eks. i forbindelse med kræftdiagnoser, fordi man vil undgå, at kræften spreder sig. En falsk positiv diagnose kan derfor betyde, at patienten får fjernet en rask nyre og påføres andre komplikationer. Selv om erfaringen viser, at AI-metoder er mere præcise i vurderingerne end lægerne, har lægerne brug for en god forklaring på, hvorfor de matematiske modeller klassificerer en tumor som godartet eller ondartet. 

I DIREC-projektet vil forskere fra Roskilde Universitet udvikle metoder, hvor AI analyserer medicinske billeder til brug ved diagnosticering af nyrekræft. Lægerne vil hjælpe dem med at forstå, hvilken feedback der er brug for fra AI-modellerne, så man finder en balance mellem, hvad der er teknisk muligt, og hvad der er klinisk nødvendigt. 

”Det er vigtigt, at teknologien skal kunne indgå i hospitalernes praksis, og derfor har vi især fokus på at designe de her metoder inden for ’Explainable AI’ i direkte samarbejde med de læger, der rent faktisk skal bruge den i deres beslutningstagning. Her trækker vi især på vores ekspertise inden for Participatory Design, som er en systematisk tilgang til at opnå den bedste synergi mellem, hvad AI-forskeren kan komme op med af teknologiske innovationer, og hvad lægerne har brug for,” siger Henning Christiansen, der er professor i datalogi på Institut for Mennesker & Teknologi på Roskilde Universitet.


  • Del denne artikel på Facebook
  • Del denne artikel på Twitter
  • Del denne artikel på LinkedIn
 
Sidebanner (4)Sidebanner (4) Sidebanner (4)Sidebanner (4)  
Sidebanner (4)Sidebanner (4)  
 
Automatik & Proces
 
 
Sydvestvej 110, 1
2600 Glostrup
T. 46139000
M. info@automatik.nu
Udgiver: Teknovation ApS

 
Copyright © Automatik & Proces
All Rights Reserved.
CMS: Scalar Media

Persondata- og cookiepolitik