XAI@NTNU

header xai

Intro Xai


Hvorfor XAI?

Forklarbar kunstig intelligens (XAI) er et forskningsfelt med formål å gi AI-systemer evnen til å gi klare og forståelige forklaringer på beslutninger. Det overordnede målet er å tolke eller forklare maskinlæringsmodeller slik at deres prediksjoner og interne mekanismer blir forståelige for mennesker.

Fagfeltet XAI har hatt en eksponensiell utvikling (i antall publikasjoner) siden 2017, og særlig kravet fra AI Act (KI-loven) om at høyrisiko AI-systemer må kunne forklares, har gitt fagfeltet bred oppmerksomhet fra flere sektorer. Domener der bruken av maskinell automatisering og beslutningsstøtte medfører høy risiko, fra medisin til fysiske systemer, har lenge hatt forklaringer blant grunnleggende kriterier for ansvarlighet og sikkerhet. 


 

Innhold

Forklaringer av maskinlæringsmodellers funksjon eller beslutninger kan svare ut ulike behov:

  • Regulatoriske krav. Eksempelvis krever personvernforordningen (GDPR) at automatiserte beslutninger basert på persondata skal forklares for sluttbrukeren.
  • Modellevaluering. Eksempelvis må domeneeksperter ha muligheten til å undersøke om en trent modell har internalisert domenekunnskap, og diskrimineringsvern kan bare ivaretas om man kan undersøke hvilke egenskaper modellprediksjoner baseres på.
  • Modellforståelse. Eksempelvis må utviklere av maskinlæringsmodeller forstå de implisitte antakelsene og representasjonene modellene lager for å vurdere robusthet.
  • Menneskelig autonomi. Eksempelvis må sluttbrukere forstå hva AI-systemer baserer sine handlinger på og hvordan disse kan endres, for å ivareta egne interesser.

Innhold

XAI-METODER 

Det finnes et mangfold av forklaringsmetoder for ulike modellarkitekturer og formål. For å velge riktig XAI-metode må forklaringsbehovet, modellarkitekturen og dataformatet være gitt. Eksempler på forklaringstyper er:

Konseptbaserte forklaringer - en måte å undersøke hvorvidt en modell har internalisert og gjør nytte av abstrakte konsepter som er definert av mennesker. Eksempel: “Hvorvidt dyret har striper er avgjørende for om modellen klassifiserer det som en zebra.”


Feature importance attribution - en rangering av viktigheten til de ulike dataegenskapene for modellens prediksjon, for et enkelt datapunkt eller for hele modellen under ett. Eksempel: “Du fikk ikke lån primært fordi inntekten din er for lav, og litt fordi du har en betalingsanmerkning.”


Kontrafaktiske forklaringer - informasjon om hvordan modellens prediksjon endrer seg hvis det faktiske forhold bak modellens input endrer seg. Eksempel: “Du kan få innvilget lån om du minker ønsket lånebeløp med n kr og samtidig øker inntekten med m kr.”

Tross et mangfold av metoder, gjenstår det uløste problemer. Disse inkluderer å bestemme når en forklaring er utfyllende nok til å gi en representativ forståelse av modellens interne mekanismer. I tillegg kan forklaringer være inkonsekvente og i noen tilfeller også feil, som utfordrer påliteligheten til selve forklaringen og kan føre til en feilaktig forståelse av maskinlæringsmodellen. Standardiserte rammeverk for å evaluere gyldigheten til forklaringer og benchmarks for testing og evaluering av forklaringer er blant de største hovedfokusområdene innen XAI.
 

XAI-Forskere

XAI-Forskere

Vi er flere ved NTNU med XAI i forskningsprofilen, og noen av oss har XAI som hovedprofil. Kjernegruppen i XAI hører til institutt for datateknologi og informatikk, og har følgende aktive forskere og tilknyttede PhD-studenter:
 

Utdanning

Utdanning

Det finnes per i dag ingen XAI-emner på universitetsnivå, men med støtte fra SMN jobber gruppen med å utvikle et innføringsemne til XAI.

Tidligere PhD-studenter

Tidligere PhD-studenter

Felix Tempel - forsvarte PhD i 2025

 

Kimji Nuneza Pellano - forsvarte PhD i 2025

 

Yanzhe Bekkemoen - forsvarte PhD i 2025

 

Vilde Benoni Gjærum - forsvarte PhD i 2023

 

Sindre Remman 

Tidligere XAI-Prosjekter

Tidligere XAI-Prosjekter

Personer xai

NTNU-forskere med XAI som interessefelt

person-portlet

Kerstin Bach
Professor
kerstin.bach@ntnu.no
+47-73597410
+4793032400
Betül Bayrak-Çik
Postdoctoral Fellow
betul.bayrak@ntnu.no
Benjamin Adric Dunn
Associate Professor
benjamin.dunn@ntnu.no
+47-73412837
Helge Langseth
Professor
helge.langseth@ntnu.no
Anastasios Lekkas
Associate Professor
anastasios.lekkas@ntnu.no
+4794101359
Eric Monteiro
Professor
eric.monteiro@ntnu.no
+47-73596751
+4795213088
Stuart Gallina Ottersen
PhD Candidate
stuart.g.ottersen@ntnu.no
Adil Rasheed
Professor
adil.rasheed@ntnu.no
+47-90291771
Benjamin Schöne
Associate Professor
benjamin.schoene@ntnu.no
Tor Thorsrud Sporsem
PhD Candidate
tor.sporsem@ntnu.no
+4792050058
Rebecca Sophia Sylvester
PhD Candidate
sophia.sylvester@ntnu.no
Dorthea M K Vatn
PhD Candidate
dorthea.vatn@ntnu.no
+4792664200