Pålitelig kunstig intelligens
Kunstig intelligens (AI) har etter hvert blitt en naturlig del av arbeidet innen forskning, utdanning og arbeidslivet. En generell utfordring knyttet til AI-systemene er spørsmål om pålitelighet. Det mangler for eksempel vitenskapelige definisjoner og klare kriterier for verdier som rettferdighet, ansvar, trygghet, personvern og andre viktige etiske aspekter, samt uavklarte juridiske spørsmål.
For å møte disse utfordringene og styrke AI-forskning av høy kvalitet ved UiB har Trond Mohn stiftelse og Universitetet i Bergen (UiB) i samarbeid utviklet forskningsprogrammet Trustworthy AI, eller Pålitelig AI.
Programmet publiserte utlysningen høsten 2022 og vi presenterer her vinnerne :
TRUSTworthy AI models to predict progression to complications in patients with Diabetes (TRUST-AI4D)
Dette prosjektet skal utvikle og innføre en bedre, mer rettferdig og trygg maskinlæringsalgoritme for å forutsi komplikasjoner hos pasienter med diabetes.
Prosjektet er et samarbeid mellom Klinisk institutt 2 ved Det medisinske fakultet og Matematisk institutt ved Det matematisk-naturvitenskapelige fakultet. Prosjektet ledes av professor Valeriya Lyssenko, Mohn Research Center for Diabetes Precision Medicine, Klinisk institutt 2.
AI and Education: Layers of Trust (EduTrust AI)
Hovedmålene med prosjektet er å utvikle et rammeverk som fanger opp kompleksiteten og tillitsnivåene for ansvarlig og pålitelig bruk av kunstig intelligens i utdanningen og tar hensyn til de komplekse ansvarlighetsrelasjonene. Prosjektet skal også utvikle ny kunnskap, metoder, retningslinjer og verktøy for mer pålitelige AI-systemer i utdanningssektoren, å oversette innsikter om juridiske, psykologiske og sosiokulturelle determinanter av tillit til juridiske krav i utdanningssektoren, og å gi innspill til et praktisk gjennomførbart rammeverk knyttet til de utfordrende spørsmålene rundt bruken av studentdata og AI-systemer i utdanningen.
Prosjektet er et samarbeid mellom Centre for the Science of Learning & Technology (SLATE), Det psykologiske fakultet og Det juridiske fakultet. Professor Barbara Wasson, SLATE, skal lede prosjektet.
Algorithmic Foundations of Trustworthy AI
Prosjektet skal bygge et nytt teoretisk rammeverk for å forstå, utvikle og designe sosialt ansvarlige algoritmer som innlemmer menneskelige verdier i AI-systemer.
Prosjektet er et samarbeid mellom Institutt for informatikk, Det matematisk-naturvitenskapelige fakultet og Institutt for informasjons- og medievitenskap, Det samfunnsvitenskapelige fakultet. Prosjektleder er professor Fedor V. Fomin, Institutt for informatikk.
Samarbeidsprosjektet Pålitelig KI Synergi – TAIS
For å legge til rette for samarbeid og utnytte synergi mellom de tre prosjektene og annen forskning ved UiB, i Norge og internasjonalt, legger Pålitelig KI Synergi (Trustworthy AI Synergy (TAIS)) til rette for samarbeid på tvers av prosjekter ved å tilby felles møteplasser, være vertskap for internasjonale forskere, støtte tverrfaglige prosjekter og unge forskernettverk, organisering av et internasjonalt symposium, og fremme felles publikasjoner og formidling. Den foreslåtte aktiviteten vil føre til mer betydningsfulle og virkningsfulle resultater, spesielt i det komplekse og vitale domenet til Pålitelig KI.
Prosjektet er et samarbeid mellom prosjektlederne i programmet og UiB AI. Professor Barbara Wasson, SLATE, leder prosjektet.
Fakta om programmet Pålitelig kunstig intelligens
Programperiode 2023-2028
TMF tildeling 20 MNOK
Totalbudsjett 49 MNOK
Prosjektenes nettsider:
Trustworthy AI- Synergy – TAIS, PI Barbara Wasson
TRUST-AI4D, PI Valeriya Lyssenko
EduTrust AI, PI Barbara Wasson
Algorithmic Foundations of Trustworthy AI, PI Fedor Fomin
