Kronikk

Giv akt! Robotene er i anmarsj

Hvem holdes ansvarlig når en robot drar i avtrekkeren? Dagens militære strukturer og internasjonale lover må fornyes når kunstig intelligens inntar krigføring.

Den første var kruttet. Den andre var atomvåpen. Nå står vi overfor det mange kaller den tredje revolusjonen i krigføring – dødelige autonome våpen.

Utviklingen av kunstig intelligens er gjennomgripende i samfunnet. Våpenindustrien og militæret er naturligvis ikke uberørt. I motsetning til tidligere våpenrevolusjoner eskalerer ikke bare det dødelige potensialet med dagens teknologiutvikling. Nå blir våpen autonome, og tar selv avgjørelser om å skyte.

Forskere verden over bekymrer seg for ånden man har sluppet ut av flasken ved å la kunstig intelligens styre våpen. I 2015 advarte Stephen Hawking, Bill Gates og Elon Musk sammen med andre forskere og teknologiutviklere mot utviklingen av kunstig intelligens. Nylig har også norske forskere og universitetsledere tatt til orde i et opprop mot dødelige autonome våpen.

Autonome våpen kan ta mange former. Et eksempel er små helikopterdroner som ligner dagens leker. Disse kan utrustes med sprengladninger, og styres av kunstig intelligens som velger mål ut ifra ansiktsgjenkjenning. Grunnteknologien eksisterer alt og er tilgjengelig, den må bare kobles sammen. Det er særlig derfor fagfolkene bak oppropene, brevene og kampanjene uroer seg. De foreslår et internasjonalt forbud mot fult autonome offensive våpen. Personlig mener jeg opprop har begrenset påvirkningskraft. Men jeg er ikke i tvil om at verden trenger nye konvensjoner som regulerer denne typen våpen.

Nå blir våpen autonome, og tar selv avgjørelser om å skyte.

Militært finnes mange fordeler med robotisering og autonomisering av soldaters oppgaver. Lærende soldatmaskiner vil reagere raskere, kunne være mer presise og skåne sivile. De rammes ikke av posttraumatisk stress og risikoen for å måtte ofre egne soldaters liv reduseres. Billigere våpensystemer betyr at forsvarsbudsjettene kan effektiviseres.

Den globale maktbalansen gjør at et internasjonalt forbud er lite realistisk. USA, Frankrike, Russland og Storbritannia er blant de land som har stilt seg tvilende til et slikt forslag. Vi må uansett forberede oss på problemstillingene som følger med denne utviklingen. De etiske og juridiske problemstillingene er radikalt annerledes enn ved konvensjonell krigføring. Hvem har ansvar for handlingene til tenkende våpen? Og hvem har den militære kontrollen over kunstig intelligens i våpensystemene?

I dag håndterer den militære kommandokjeden, lover og konvensjoner fordeling av ansvar, byrder og skyld. Haagkonvensjonene underbygger politisk kontroll og demokratisk innsyn med militæret. Kunstig intelligente våpen er disruptive ved at de endrer ansvarsforholdene i militære operasjoner.

Matematiker Cathy O’Neil omtaler ordinære algoritmer som «weapons of math destruction». Hun sikter til at algoritmer kan skrives på en slik måte at programmererens motiver skjules. Selv for eksperter kan det være vanskelig å forstå hvordan en vanlig algoritme fatter beslutninger. Når ordinære algoritmer er utfordrende, er selvlærende algoritmer enda mer komplekse.

Selvlærende algoritmer i kunstig intelligens øker mulighetene for å skjule informasjon og forhindre innsikt. Selv ikke forskere og programmerere som utvikler særlig komplisert kunstig intelligens, kan forklare hvordan den resonnerer og lærer. Dette er naturligvis intensjonen, ellers ville menneskelig kapasitet vært til hinder for kunstig læring. Like fullt betyr det mindre muligheter for innsyn i og forståelse av systemer som bruker kunstig intelligens. Særlig for oss uten spisskompetanse om algoritmer.

Mindre innsyn og kontroll er problematisk for bruken av samfunnets ytterste maktmidler. Militært medfører kunstig intelligens utfordringer for kommandokjeden når det gjelder ansvar og politisk kontroll. Kan en offiser stilles til rette for handlingene til et selvtenkende våpen? Hvordan skal man ettergå militære avgjørelser tatt av kunstig intelligens når vi ikke kjenner eller forstår hvordan kunstig intelligente våpensystemer fatter beslutninger? Dagens etablerte linjer og konvensjoner er ikke skrevet for roboter.

På nasjonalt nivå og i samarbeid med allierte i Nato må vi ha klare linjer for ansvar. Dagens kommandolinjer håndterer ikke morgendagens utfordringer. Et internasjonalt forbud mot dødelige autonome våpen virker ikke realistisk så vi må forfølge andre spor. Derfor må politikere og militære beslutningstagere revidere lover og konvensjoner som regulerer militære i strid. Internasjonale regelverk som Haagkonvensjonene må omfatte kunstig intelligens. Vi må være proaktive, og til slikt arbeid trengs den skarpeste kompetansen.

Mer fra Kronikk