Klara setter standarden for ansvarlig KI-bruk i arbeidsinkludering

Publisert

Kommunikasjonssjef Modolf Moen (Arbeid & Inkludering) og jurist Siv Kristin Henriksen (NHO).

Med Klara har Arbeid & Inkludering utviklet et kraftig KI-verktøy for jobbveiledere. Men like viktig som innsikten verktøyet gir, er hvordan det brukes. Nå lanseres omfattende retningslinjer for ansvarlig bruk, utarbeidet i samarbeid med NHO-jurist Siv Kristin Henriksen.

Klara er en spesialbygget KI-assistent som gir jobbveiledere rask og oppdatert innsikt i arbeidsmarkedet. Men verktøyet skal aldri brukes til å vurdere enkeltpersoner eller fatte avgjørelser alene.

– Klara er en rådgiver, ikke en overdommer. All informasjon må vurderes kritisk, og jobbveilederens faglige vurdering er alltid avgjørende, sier kommunikasjonssjef Modolf Moen i Arbeid & Inkludering, som har vært sentral i utviklingen av KI-verktøyet. 

For å sikre ansvarlig bruk har vi utarbeidet tydelige retningslinjer, som blant annet slår fast at Klara ikke skal håndtere personopplysninger, at alle brukere må gjennomgå opplæring, og at verktøyet kun kan brukes til generelle analyser av arbeidsmarkedet.

Innebygde sikkerhetsmekanismer

Klara er utviklet med flere tekniske begrensninger for å forhindre feil bruk.

– Hvis noen forsøker å legge inn personopplysninger, stopper Klara umiddelbart og ber brukeren slette samtalen. I tillegg er det lagt inn automatiske varsler for å hindre feilaktige konklusjoner, forklarer Moen.

Med klare rammer og obligatorisk opplæring setter Klara en ny bransjestandard for ansvarlig KI-bruk i arbeidsinkludering.

– KI gir oss enorme muligheter, men vi må bruke teknologien med klokskap. Det er vi mennesker som tar beslutningene, understreker Moen.