Hans forskning hjälper till att utvärdera maskininlärningsmetoder
I Angelos Chatzimparmpas doktorsavhandling vid Linnéuniversitetet har han studerat för att ta fram en förenkling av översikten och hanteringen av maskininlärningsalgoritmer. Detta så att mänskliga experter kan utvärdera hur automatiserade beräkningslösningar uppnår sina resultat.
– Min forskning visar hur användare av maskininlärning kan dra nytta av visuella analysverktyg och system som bidrar med förklarbarhet, ökar tillförlitligheten och leder maskininlärningsmetoderna genom interaktiva visuella representationer, det vill säga speciella typer av diagram och grafer som kan påverkas av användarna, berättar Chatzimparmpas, i pressmeddelandet.
Som en del av doktorandprojektet har Chatzimparmpas tillsammans med sina kollegor tagit fram ett digitalt verktyg för forskare, utövare och studenter som är intresserade av visualisering för maskininlärning. Tillsammans har de även designat och utvecklat ett flertal visuella, analytiska förhållningssätt som gör det möjligt för maskininlärningsexperter och modellutvecklare att förbättra alla steg i ett heltäckande arbetsflöde kring maskininlärning.
För att en tillit ska kunna byggas mellan människan och datorerna är det viktigt att kunna förstå hur en algoritm fungerar och även kunna förklarar hur den kommer till ett visst beslut efter det att en förutsägelse har gjort, menar forskaren och är även kärnan i den utmaning som han har behandlat i sin studie.
– I takt med det ökande användandet av komplexa maskininlärningstekniker för många analytiska uppgifter ökar även behovet av tolkningsbara och förklarliga lösningar. Jag tror att man utan att sticka ut hakan för mycket kan hävda att visuell analys för förklarlig och tillförlitlig maskininlärning kommer att fortsätta att ligga i framkant som forskningsämne inom en överskådlig framtid, fortsätter Chatzimparmpas.