Går saman om å lage retningslinjer for bruk av kunstig intelligens
Dei fem regionale, samfunnsvitskaplege forskingsinstitutta går saman om å utvikle retningslinjer for bruk av kunstig intelligens i forsking.
Tekst: Idun A. Husabø, Vestlandsforsking
– Utviklinga har gått utruleg raskt, og mange forskarar var tidleg ute, seier direktør Anne Karin Hamre ved Vestlandsforsking.
ChatGPT sjokkerte oss alle då språkmodellen vart lagt ut på nettet i november 2022 og vi innsåg kva han var i stand til. Utover i 2023 vart det eine KI-verktøyet etter det andre kjent og kom med i konkurreransen om å gjere alt frå skriving til omsetjing og tekstanalysar leikande lett. Kunstig intelligens har skapt begeistring. Men det har og skapt frykt, til dømes for at «deepfakes», videoar der du kan få kven som helst til å sjå ut som dei seier kva som helst, berre er eit tastetrykk unna.
Kan utføre mange forskingsoppgåver
Forskarar var òg blant dei som tidleg gjekk i gang med å utforske kva ChatGPT og andre KI-baserte verktøy kunne brukast til. Det viser seg at KI kan gjere mange av dei oppgåvene som er ein del av forskarar sin kvardag, som å skissere eit føredrag, skrive ein tekst om eit gitt tema, omsetje lydopptak frå intervju til tekst, eller til og med lage oversikt over forskingslitteraturen på eit nytt felt.
Det vrimlar av tips og råd om korleis KI kan gjere oppgåver meir effektivt enn menneske, men kva følgjer har det for forskarar og forskingsinstitutt at ein brukar KI?
Etiske og juridiske konsekvensar
Ikkje alle former for kunstig intelligens, eller bruk av KI, oppfyller krav til personvern og etikk. Med den brå tilgangen på kunstig intelligens oppstod eit behov for meir kunnskap og føringar – for alle verktøy og bruksområde var kanskje ikkje like harmlause?
– Kunstig intelligens kan heilt klart by på store moglegheiter for oss, men det byr òg på etiske og juridiske konsekvensar. Vi ser behovet for å utvikle køyrereglar og interne retningslinjer for kunstig intelligens, seier Anne Karin Hamre.
Felles arbeid i Fokus-institutta
Trond Runar Hagen i Sintef Digital gav direktørane i Fokus-institutta ei innføring i fordeler og ulemper ved bruk av KI
Også ved andre samfunnsvitskaplege, regionale institutt har ein gått i gang med å få på plass rammer for korleis tilsette kan bruke kunstig intelligens i jobben sin. Institutta Møreforsking, Telemarksforsking, Nordlandsforskning, NorSus og Vestlandsforsking, som har eit løpande samarbeid under paraplyen Fokus, legg no planar for å utforme felles retningslinjer for KI-bruk i forskinga.
Då dei møttest nyleg, inviterte Fokus-direktørane Trond Runar Hagen frå Sintef Digital til å gje ei fagleg innleiing om pluss og minus ved kunstig intelligens.
Mange fallgruver
Mange av utfordringane med KI er kjende, til dømes at dei lett kan produsere falske opplysningar og bilete som kan lure oss, og samstundes verke inn på modellar som ChatGPT. Også andre farar står i kø: Viss ein forskar matar inn konfidensiell informasjon eller eigenprodusert tekst i ein modell som brukar slik input til å trene modellen, betyr det i praksis at ein deler dette med KI-systemet. Ei utfordring er å ha full kontroll over kor opplysningane hamnar og kven som kan få tilgang til dei.
Det er særs alvorleg at dette kan truge personvernet i forskinga. Men minst like alvorleg er det at dette kan gje opphav til problem rundt forskingsetiske omsyn knytt til plagiering, copyright og kjeldekritikk.
Det er òg andre utfordringar ved KI-modellar. Dei kan ha ei slagside og favorisere eller diskriminere visse grupper eller politiske grunnsyn. Eller dei kan – slik ChatGPT vart kjend for – «hallusinere», det vil seie, dikte opp ting som ikkje er sant. Språkmodellar som ChatGPT er nemleg ikkje laga for å fortelje sanninga, men for å berekne kva som er det mest sannsynlege neste ordet i ein setning. Det betyr at KI alltid må ha ein årvaken brukar.
– KI og algoritmane svarar kanskje på andre måtar enn brukar forventar, og resultatet må alltid kvalitetssikrast, understreka Hagen.
Forskingsleiar Hilde G. Corneliussen minner om at retningslinjene skal gje forskarane rom for utforsking av KI i arbeidet.
Ein del av dette problemet er at dei som skapar KI-verktøya, oftast held korta tett til brystet:
– Vi manglar innsyn i modellane og korleis dei er trente, sa Hagen. For brukaren betyr det at ein aldri kan stole blindt på det som kjem ut av desse verktøya.
Felles arbeidsgruppe
Både Vestlandsforsking og Nordlandsforsking har alt hatt arbeidsgrupper som har jobba med digitale verktøy og KI. Hilde G. Corneliussen, som er forskingsleiar for teknologi og samfunn ved Vestlandsforsking og mellom anna har forska på kunstig intelligens i offentleg sektor, har saman med Halvor Dannevig og Hans Jakob Walnum utforma mellombelse retningslinjer for Vestlandsforsking for å støtte dei forskarane som alt er i gang med å utforske KI.
Når innsatsen blir samla, skal det skipast ei intern arbeidsgruppe på tvers av dei fem Fokus-institutta som utviklar eit nytt, felles sett med retningslinjer. Desse vil mellom anna dekke kva forskarane og administrasjonen kan bruke KI til og kor vi må trø varsamt med tanke på juss og etikk. Og som Corneliussen minner om:
– Retningslinjene skal ikkje berre omtale forbod og risiko. Dei skal også omfamne engasjement og gje dei tilsette rom til å bruke KI på ein god og produktiv måte.