English version

Disputas: Andrea Storås

Andrea Storås disputerer for ph.d.-graden i ingeniørvitenskap med avhandlingen “Beyond the Black Box: Transparent Machine Learning Systems for Medical Applications”.

Prøveforelesning

Prøveforelesning kl. 10:00: "Evaluation and validation of ML models in the medical context".

Disputas

Kandidaten vil forsvare avhandlingen sin kl. 12:00.

Prøveforelesning og disputas på Zoom

Du kan følge prøveforelesning og disputas på Zoom.

Opponenter

Leder av disputasen

Siri Fagernes, førsteamanuensis, Institutt for informasjonsteknologi, OsloMet

Veiledere

Sammendrag

Kunstig intelligens og maskinlæring (ML) har blitt en del av hverdagen vår. Utviklingen av denne typen teknologi påvirker samfunnet ved å hjelpe oss med en rekke oppgaver.

Helse og medisin er noen områder der ML forventes å spille en viktig rolle i fremtiden.

Studier viser til imponerende resultater når ML-modeller trenes til å løse medisinske oppgaver som typisk utføres av mennesker i dag.

Å implementere ML-systemer i klinikken kan blant annet føre til raskere og mer nøyaktig diagnostisering, tidligere oppdagelse av sykdommer og persontilpasset behandling og pasientoppfølging.

Med tanke på knappheten på helsepersonell, kan ML-systemer forbedre effektiviteten til helsevesenet og la medisinske eksperter fokusere på pasientene og utfordrende medisinske problemstillinger, heller enn administrative og repetitive, enkle oppgaver.

Nye utfordringer med ny teknologi

På den annen side fører ny teknologi også til nye utfordringer. Mangel på transparens i ML-systemer for medisinske anvendelser vil sannsynligvis begrense bruken i klinikken.

ML-modellene er typisk ‘svarte bokser’ som helsearbeidere ikke forstår hvordan virker. I tillegg kan modellene ha blitt utviklet ved hjelp av private datasett der detaljer rundt demografi, alder, kjønn og etnisitet ikke er tilgjengelige.

Dersom datasettet for utvikling av modellen ikke representerer populasjonen modellen kommer til å brukes i, kan modellen begå alvorlige feil eller diskriminere minoriteter.

Videre kan prosessen for å evaluere modellen være mangelfullt beskrevet, noe som vanskeliggjør vurderingen av ML-systemets anvendbarhet.

Denne avhandlingen bidrar til å løse de ovennevnte utfordringene ved å utforske metoder som øker transparensen til medisinske ML-systemer.

I tillegg til å benytte forklaringsmetoder for en rekke medisinske problemstillinger, publiserer vi åpent tilgjengelige medisinske datasett, undersøker teknikker for fremstilling av syntetiske helsedata og samarbeider med medisinske eksperter for å evaluere ML-modellene og forklaringene.

Tilbakemeldinger fra eksperter er viktige for å avdekke forbedringer som er nødvendige for å lykkes i å forklare ML-systemene til helsepersonell.

I tillegg kan man få ny medisinsk kunnskap ved å utforske hvordan ML-modellene virker og analyserer medisinske data.

Viktig å forklare maskinlæring til medisinske fagfolk

Resultatene antyder at ML-systemer mest sannsynlig vil utgjøre et nyttig verktøy i klinikken i framtiden.

Likevel bør eksisterende forklaringsmetoder tilpasses den spesifikke medisinske oppgaven for å møte forventningene til helsepersonell. Å forklare ML-systemer til erfarne eksperter innen fagfeltet kan gi opphav til nye oppdagelser om sykdommer og behandlingen av dem.

Videre gjør det å kombinere kunnskap fra informasjonsteknologi og medisin oss i stand til å finne løsninger på oppgaver som hadde vært umulige å løse uten tverrfaglig samarbeid.

Kontakt

Laster inn ...