Aktuelt

Hvordan vil kunstig intelligens forme verden de neste ti årene?

Dessverre velger ikke menneskeheten alltid det som er til beste for alle, skriver KI-forskeren.

På tampen av 2022 ble Chat GPT lansert, og nettavisene flommer over av artikler og kronikker om hva dette verktøyet betyr for høyere utdanning og samfunnet generelt. Mange er bekymret for nye problemstillinger som følger med stadig mer avanserte former for kunstig intelligens. Utviklingen stopper jo neppe med Chat GPT. Hvordan vil kunstig intelligens forme verden de neste ti årene?

Hilsen fremtidsfilosof

Michael Alexander Riegler, forsker på kunstig intelligens

Det er et vanskelig spørsmål. Det er klart at kunstig intelligens har kommet for å bli og ikke lenger bare er en hype som kanskje eller kanskje ikke resulterer i nyttige resultater.

Etter min mening vil vi ikke plutselig ha bevisste kunstige vesener som løper rundt som i en science fiction-film, i hvert fall ikke ennå.

Likevel tror jeg det vil ha en betydelig innvirkning på samfunnet vårt (lignende eller enda større enn virkningen av mobiltelefoner). Hva vi gjør med denne påvirkningen, vil ha en betydelig konsekvens på fremtiden til vår verden.

Bruk av eksisterende teknologier, for eksempel store språkmodeller (som Chat GPT), kan gjøre oss i stand til å oppnå bemerkelsesverdige ting som vil være til nytte for hele verden. Dessverre velger ikke menneskeheten alltid (eller nesten aldri?) det som er til beste for alle.

Jeg synes KI er en spennende teknologi og ser mange muligheter fra mitt perspektiv som en som jobber med KI nesten hver dag. Omvendt, jo mer avansert det blir, jo mer bekymret er jeg for de negative sidene og mulige anvendelser.

Det er en reell bekymring at kunstig intelligens kan bli misbrukt til ondsinnede formål. Det er ingen tvil om at i nær fremtid vil KI-drevne bots bli brukt til å manipulere opinionen i massiv skala, eller at KI-drevne våpen vil bli brukt i voldelige handlinger. På grunn av den økende avhengigheten av kunstig intelligens på tvers av en rekke bransjer, er det en risiko for at en funksjonsfeil eller et ondsinnet angrep kan få alvorlige konsekvenser.

But it’s not all doom and gloom. Det er fortsatt mulig for KI å bli brukt for godt, og for å forbedre kvaliteten på livene våre. Det er vårt ansvar å sikre at vi bruker kunstig intelligens etisk og ansvarlig, samt å vurdere mulige konsekvenser av beslutningene vi tar. Det vil til syvende og sist være en balansegang mellom fordelene og risikoene ved KI, og det er opp til oss å navigere i dette nye miljøet så effektivt som mulig. Her må vi rett og slett tenke selv.

Hilde Reinertsen, dokumentforsker

Begrepet «kunstig intelligens» får oss lett til å tenke at maskinene vil begynne å tenke som oss mennesker – at de får bevissthet og egenvilje. Det virvler opp fantastiske fremtidsvisjoner fra det utopiske og dystopiske. Disse deler ofte en idé om at «dette endrer alt!». Denne teknologideterminismen speiles også i spørsmålet ditt – bekymringen for hvordan kunstig intelligens vil forme verden fremover. Men selv om vi ikke bør ta for gitt at den endrer samfunnet til det bedre eller verre, bør vi heller ikke bare avfeie det som overdreven tech-prat.

---

Ukens spørsmål

Noen ganger virker det som en får helt ulike svar fra forskere avhengig av hva slags forskere en spør. For å sette galskapen i et tverrfaglig system vil vi i denne spalten stille det samme spørsmålet til tre medlemmer av Akademiet for yngre forskere, fra ulike fagdisipliner. Flere spørsmål – og ikke minst svar – finner du her.

---

Om vi går mer konkret til verks, er kunstig intelligens store dataprogrammer designet av mennesker, som trenes opp til å gjøre automatiserte beslutninger og handlinger. Hovedutfordringen med dette er at beslutningsprosessene de gjennomfører, kan bli så komplekse at ingen vet hvordan den egentlig foregikk. Teknologien blir en «black box» der vi bare kan vite hva som gikk inn og hva som kom ut, ikke hva som skjedde på innsiden. Da må vi bare stole på at oppskriften KI-en fikk, var klokt utformet, og at konklusjonen derfor ble god.

Og her er språkmodellen Chat GPT et godt eksempel. For hva er den egentlig produserer når den svarer på våre spørsmål? Som tekster er svarene velkomponerte og velformulerte – de trefferen sjangeren «leksikonartikkel» eller «studentoppgave» ganske perfekt. På generelle spørsmål om kjente ting er svarene overraskende gode. Men straks vi stiller mer komplekse spørsmål, ber om en uvanlig sammenligning eller trekker inn lokalhistoriske eller dagsaktuelle eksempler, blir det verre. Da bommer den tidvis voldsomt – men like fullt formulert i den samme overbevisende stilen.

Chat GPT gir altså gode svar på lette spørsmål, og dårlige svar på vanskelige spørsmål. Dette gjør at lærere nok ganske raskt vil kunne tilpasse seg, og gi elever og studenter oppgaver der Chat GPT ikke er et særlig godt hjelpemiddel.

Mer alvorlig er det at den aldri viser oss hva svarene bygger på. Da jeg spurte Chat GPT om å inkludere kilder i svaret, oppga den, utrolig nok, fiktive referanser. Disse så ut som vitenskapelige publikasjoner, men da jeg søkte dem opp, fantes de ikke. Dette bekrefter inntrykket av at Chat GPT hermer faktatekster. Den har perfeksjonert kunsten å se ut som objektive tekster som sier noe sant om virkeligheten. Men i virkeligheten er de potensielt ren fiksjon. Dette gjør den faktisk helt ubrukelig, og potensielt direkte villedende.

I møte med Chat GPT og alle andre former for kunstig intelligens som kan komme de neste årene, er det altså avgjørende å øve opp den kildekritiske muskelen, og passe på å bruke den aktivt ikke bare på enkelttekster, men også på algoritmer og digitale plattformer: Hvordan ble denne teksten produsert? Hvem står bak denne plattformen? Hvilke valg og forutsetninger er innbakt i denne språkmodellen? Hvem er ansvarlig for at denne algoritmen ble akkurat slik?

Om vi stiller oss slike spørsmål, vil vi stå bedre rustet til å håndtere teknologien og styre utviklingen på en klok måte.

Siddharth Sareen, forsker på energiomstilling

Dette nivået av maskinlæring og kunstig intelligens (KI) har eksistert i noen år nå. Det som er nytt, er det offentlige engasjementet. Bred diskusjon er nyttig ettersom den hjelper samfunnet med å gjøre status over situasjonen og jobbe mot felles løsninger. Her kan vi lære av hva de som jobber med teknologisk innovasjon har brukt mye tid på å analysere og forstå allerede.

For det første har regulering en tendens til å ligge mye bak innovasjon. Innovasjon er drevet av å gripe verdier og bruke posisjonen som frontløper til å påvirke teknologisk utvikling i ens favør. Regulering forsøker å sikre offentlige fordeler, men går sakte i demokratiske oppsett mens frontløpere er i stand til å «bevege seg raskt og knuse ting».

Så de som forventer at KI-verktøy kan oppdage Chat GPT-bruk, vil garantert bli skuffet. Chat GPT og andre verktøy vil ganske enkelt utvikle seg for å unngå dette. I stedet bør vi nøye vurdere hvilke aspekter av denne utviklingen vi skal omfavne og hvilke vi skal regulere.

For lærere er dette en kjærkommen anledning til å bygge tillit, for å jobbe med mappevurdering inkludert muntlige presentasjoner, og for å gi praktisk veiledning om hvordan man bygger en argumentasjon. For sosialarbeidere og administratorer kan KI hjelpe sårbare mennesker til å uttrykke seg bedre ved å hjelpe dem med å ramme inn input slik at de passer til alle nødvendige maler med letthet.

For eksperter som forebygge svindel, er oppgaven utfordrende, ettersom de må samarbeide med de som bidrar til å bygge kapasitet hos mennesker til å forstå når tekst genereres via maskiner, ikke mennesker. Verktøy som Chat GPT gjør det veldig enkelt å lokke folk til falsk tro raskere enn før.

Om ti år vil styring av KI være et dagligdags tema vi tenker og bryr oss om. Det burde ha skjedd for mange år siden. Utrullingen av Chat GPT har bidratt til å akselerere denne presserende samfunnsdebatten.

Har du spørsmål til forskerne? Send epost til ukens@morgenbladet.no


Mer fra Aktuelt