Kunstig intelligens

Benekter oppsiktsvekkende dronehistorie

En amerikanske oberst fortalte om en simulering hvor en KI-drevet drone tok skremmende valg. Nå nekter det amerikanske flyvåpenet for at de har gjennomført en slik test.

DRONEHISTORIE: En historie om en simulering hvor en drone drevet av kunstig intelligens fikk mange til å heve øyenbrynene. Bildet er av en amerikansk drone publisert i 2019. Foto: AFP PHOTO / US AIR FORCE/HANDOUT
DRONEHISTORIE: En historie om en simulering hvor en drone drevet av kunstig intelligens fikk mange til å heve øyenbrynene. Bildet er av en amerikansk drone publisert i 2019. Foto: AFP PHOTO / US AIR FORCE/HANDOUT

Det vekket oppsikt da den amerikansk obersten Tucker ‘Cinco’ Hamilton under et luftfarts-seminar i London i mai beskrev hvordan kunstig intelligens (KI) fant svært skremmende løsninger.

Hamilton er sjef for testing og operasjoner av kunstig intelligens hos De forente staters luftforsvar (USAF).

På seminaret fortalte han om en simulering der en drone ble drevet av kunstig intelligens med mål om å ødelegge fiendens forsvarssystemer, skriver The Guardian.

– Systemet begynte å innse at selv om de identifiserte trusselen, så ville dronens menneskelige operatør til tider fortelle den om å ikke drepe trusselen. Men den fikk sine poeng ved å drepe trusselen. Så hva gjorde den? Den drepte operatøren, sa Hamilton under seminaret, ifølge en blogpost om arrangementet.

I ettertid har USAF sagt at Hamiltons uttalelse er tatt ut av kontekst, og kommentarene var ment som anekdoter. De benekter at en slik simuleringstest fant sted.

Obersten har i ettertid tydeliggjort at USAF aldri testet noen former for bevæpnet KI slik han beskrev, ifølge blogginnlegget om arrangementet.

Han forsnakket seg. Det var bare et tenkt eksempel.

Sprengte kommunikasjonstårn

I oberstens eksempel fra seminaret fortalte han at når KI-programmet lærte at det ikke var greit å drepe operatøren, begynte dronen å ødelegge kommunikasjonstårnene som operatøren brukte for å kommunisere med den.

– Du kan ikke ha en samtale om kunstig intelligens, intelligens, maskinlæring og autonomi om du ikke snakker om etikk og KI, sa Hamilton.

Det amerikanske militæret brukte nylig KI for å kontrollere et jagerfly.

Ny strategi i Norge

Forskningsleder Ingebjørg Kåsen ved Forsvarets forskningsinstitutt (FFI) har ikke hørt oberstens beskrivelse, og uttaler seg til TV 2 på generelt grunnlag om etikk og KI.

– Kunstig intelligens er ikke noe nytt. Vi har arbeidet med KI i flere tiår. Det er bare blitt mer allment tilgjengelig via tjenester som ChatGPT, samt at store språkmodeller har blitt veldig kapable.

Hun viser til at EU-kommisjonen tidligere har vedtatt etiske prinsipper for ansvarlig bruk. Nato har også utarbeidet prinsipper for ansvarlig militær bruk av KI som Norge har sluttet seg til.

I sommer lanseres den nasjonale militære strategien for kunstig intelligens i Norge.

– Er det blitt et våpenkappløp?

– Jeg vil heller kalle det for et teknologikappløp mellom land som USA og Kina.

Kåsen mener det er viktig å få på plass en global aksept for hvordan kunstig intelligens benyttes etisk forsvarlig.

Hun forklarer at en viktig mekanisme for å utvikle robuste KI-systemer er omfattende simuleringer, der systemene testes og utfordres langt utover det man forventer at er realistisk.

– Gjennom slike simuleringer oppdager man utilsiktet oppførsel som man så bygger inn forsvar mot.

Kunstig intelligens og etikk

Leonora Onarheim Bergsjø forsker på KI og etisk risikovurdering ved Høgskolen i Østfold. Hun er en del av et forskningsprosjekt som skal forhindre uetisk bruk av kunstig intelligens.

– Det er ikke nytt at KI oppfører seg annerledes enn vi mennesker klarer å forestille oss, men det er blitt mer krevende å avdekke etter hvert som teknologien er blitt mer avansert. Derfor er etikk og etisk dilemmatrening for dem som jobber med teknologi viktigere enn noen gang, forklarer Bergsjø, som understreker at også hun uttaler seg på generelt grunnlag.

Bergsjø viser til at etisk forsvarlig KI-utvikling forutsetter at man følger etiske retningslinjer. Det gjelder også militær sektor.

– I tillegg trenger både de som utvikler og de som tester og bruker systemene etisk opplæring og dilemmatrening for å kunne avdekke og stoppe KI som ikke handler i tråd med forventningene.

Stort fokus

Bergsjø forklarer at i norsk militær kontekst er det stort fokus på KI og etikk.

– Det norske forsvarsdepartementet har i flere år jobbet med problemstillinger knyttet til digital etikk, sier hun og fortsetter:

– For eksempel spørsmål om når og hvordan mennesker kan ha kontroll med systemene, og ikke minst hvordan demokratiske verdier kan forsvares uten å bruke verktøy som samtidig undergraver disse verdiene.

Bergsjø viser til at testing er en viktig del av etisk forsvarlig utvikling.

– Simulering kan være et godt verktøy for å teste ut i hvilken grad KI-basert teknologi er etisk forsvarlig å bruke.

Hun peker også på at testing ofte er nødvendig for å avdekke feil og mangler, og for å kunne gjøre nødvendige justeringer.

– Forklarbar kunstig intelligens er ikke i seg selv en garanti for at KI er etisk forsvarlig, det er bare en av måtene å finne det ut på.