– Datamaskinen bruker statistiske metoder for å finne mønstre i store datamengder. Vi sier at maskinen lærer i stedet for å bli programmert, det kalles maskinlæring. Men vi vet ikke alltid hvordan den lærer, og det gjør det vanskelig å avdekke feil, sier Steven Hicks, som har tatt ph.d.-grad i ingeniørvitenskap på OsloMet om emnet.
Å bruke maskinlæring i medisinsk diagnostikk og behandling blir mer og mer vanlig.
Maskinlæring blir for eksempel brukt i bildediagnostikk. Der kan kunstig intelligens se forandringer i radiologiske bilder, og foreslå diagnoser, for eksempel en kreftsykdom. Dette kan bidra til at diagnosene blir stilt raskere og mer nøyaktig enn om det bare gjøres manuelt av en radiolog.
Bør vite mer om hvordan datamaskinen lærer
Det trengs imidlertid bedre innsyn i hvordan maskinlæringsmetodene utvikles, for at vi skal være trygge på at de gir oss best mulig hjelp og fungerer så godt som mulig.
– Forskning på medisinsk kunstig intelligens har i dag vanligvis upresise metodebeskrivelser, private data, lukket kildekode og ufullstendige evalueringer, påpeker Hicks.
– Veldig få detaljer har blitt gjort kjent i medisinske journaler og konferanser, særlig i konferanser for det medisinske fagmiljøet.
Da kan det være vanskelig å forstå hvordan den kunstige intelligensen lærer og hvilke følger det får.
Om det blir kjent, blir det også lettere å korrigere og kritisere resultatene, og lettere for fagfolk i medisinske miljø å bidra til å forbedre metodene.
Flere påpeker problemet med mangel på transparens i medisinsk kunstig intelligens. Mange begynner nå å ta grep.– Steven Hicks
Vil ha åpnere forskning på kunstig intelligens
Steven Hicks’ doktorgradsavhandling i ingeniørvitenskap tar for seg hvordan kunstig intelligens kan brukes på ulike områder innen medisin.
Han ser nærmere på manglende åpenhet innen medisinsk kunstig intelligens-forskning. Målet er å bidra til åpnere og mer offentlig tilgjengelig forskning.
Forsket på åpne løsninger
For å utforske dette, utviklet Hicks selv åpent tilgjengelige løsninger for kunstig intelligens, og gjennomførte eksperimenter og undersøkelser.
Han og kollegene hans samlet og publiserte medisinske datasett, og utviklet modeller for kunstig intelligens på ulike medisinske områder.
De utførte også eksperimenter for å validere datasettene de hadde samlet inn, organiserte konkurranser om medisinske kunstig intelligens-applikasjoner og undersøkte evalueringsmetoder.
Arbeidet ble utført for å få en grundig forståelse av hvordan åpent tilgjengelig kunstig intelligens kan brukes innen hjertemedisin (kardiologi), assistert befruktning (reproduktiv teknologi), mage og tarm (gastroenterologi) og mental helse.
Bør være tilgjengelig for alle
I og med at mye av forskningen hittil hadde vært lukket, ville Hicks gjøre arbeidet mer tilgjengelig for alle, ikke bare for legene.
Altså at alt blir forklart fra datainnsamling til evaluering og testing, slik at det gir en bedre forståelse av hvordan maskinlæring kan brukes, og hvordan den ikke kan og bør brukes.
Hvert steg i maskinlæring har stor effekt på sluttproduktet. Dataene som blir brukt til å trene datamaskinen påvirker selvfølgelig hva den kan bli brukt til, og hvor bra den kan fungere.
Alle fasene i prosessen burde være åpne til analyse for andre, for å kunne se om modellen er god nok til å bli brukt, mener Hicks.
Jobber for mer åpenhet
Derfor jobbet Hicks og kollegene hans for å få til mer transparens i forskningen:
– Vi publiserte data som alle kan bruke, hadde konkurranser for å få til mer sammenlignbarhet, og hadde åpent tilgjengelig dokumentasjon, forteller Hicks.
– Vi publiserte ti datasett gjennom hele perioden min som ph.d.-kandidat, og fikk gode tilbakemeldinger.
– Jeg var nylig på en konferanse i USA hvor en forsker fortalte at hele hans ph.d. var basert på data vi hadde publisert, og alt arbeidet var gjort kun fordi vi hadde publisert store datasett innenfor koloskopi (tarmundersøkelser).
– Det åpner nye muligheter til å bidra for folk som ikke har tilgang til medisinske data, og for samarbeid med leger og sykehus.
Feller i maskinlæring
– Vi ser mange eksempler hvor folk bygger et system som fungerer skikkelig bra, og de kan ha mye data, men når de setter det ut i praksis fungerer det ikke i det hele tatt.
Dette skjer, også utenfor medisin: Et eksempel er fra forsvarsteknologi, der de trente en modell til å se forskjell på amerikanske og russiske tanks. Russiske tanks ble sett på soldager, amerikanske på dager med regn. Modellen lærte å se på lysforskjellen og ikke tanksene i seg selv.
– Dette er feller i maskinlæring som det er viktig å fange opp før du setter ting ut i praksis. Mange begynner nå å ta grep, og det har blitt flere som påpeker problemet med mangel på transparens i medisinsk kunstig intelligens.
Legene vet ofte lite om hvordan kunstig intelligens jobber
Legene vet ofte for lite om hvordan den kunstige intelligensen jobber, og hvordan den finner fram til ting. Det gjør det også vanskelig å stole på resultatene.
– Bare det å gjøre legene mer klar over hvordan den fungerer kan være nyttig. Mange er interessert i kunstig intelligens, men de vet ikke alltid hva det er, bortsett fra at det er en «black box» som de egentlig ikke forstår noe av.
Kunstig intelligens kan assistere legen
– Selv om det er problematiske sider, kan systemene som finnes i dag være til god hjelp med manuell korrigering, nesten som førerassistansesystemer i biler?
– Ja, systemene som brukes i dag er ikke ment for å erstatte noe, men som ekstra hjelp.
– Om legen fanger opp noe som kunstig intelligens ikke finner, og kunstig intelligens fanger opp noe legen ikke finner, så gjør de det bedre sammen enn hver for seg. De kan jobbe side om side. På den måten kan du spare tid og fange opp ting som ellers hadde blitt oversett.
– Det er viktig å ha forståelse av prinsippene. Forstå at dette er noe du kan jobbe med, ikke stole for mye på, men noe du kan samarbeide med.
– Hvilke felt har kommet lengst når det gjelder maskinlæring i medisin i dag?
– Det er i bildediagnostikk, se etter kreftceller, for eksempel. I radiologi er det mye brukt.
Ph.d.-prosjekt
Steven Alexander Hicks: "Transparency in Medical Artificial Intelligence Systems".