Hopp til innhold

Tilbake til arkivet

Knut Ola Naastad Strøm, Luftkrigsskolen Nr. 1 April 2024

Gazastripen, AI og metodisk målbekjempelse: Evangeliet

Det er nå over fem måneder siden Hamas gjennomførte koordinerte terrorangrep mot mål i det sørlige Israel. Det Israelske militæret har svart med massiv voldsbruk. Omfanget av de tidlige motangrepene er oppsiktsvekkende. Det israelske forsvaret hevder selv å ha gjennomført angrep mot over to og et halvt tusen mål inne på Gaza-stripen i løpet av de første fem dagene.

Tema: AI og autonome systemer
Lesetid: 13 min

I de påfølgende ukene fortsatte luftoperasjonene i høyt tempo. Israelerne selv hevdet i starten av november, etter en måned med krig, å ha angrepet over 12 000 mål. Like før jul var det offisielle tallet 22 000.

Til sammenligning angrep israelske luftstyrker 6900 mål i løpet av en måned under Libanon-krigen i 2006. NATO-styrker angrep 5900 mål i løpet av seks måneder i Libya i 2011. De israelske luftoperasjonene på Gazastripen er, med andre ord, av det omfattende slaget. 

Det israelske forsvaret selv hevder at tempoet og omfanget av luftangrepene på Gazastripen muliggjøres av kunstig intelligens. Israelerne påstår å ha utviklet og implementert flere verktøy for metodisk målbekjempelse – «targeting» på godt NATO-norsk. Av disse er det et verktøy israelerne selv har gitt navnet «Habsora» – «Gospel» på engelsk, «Evangeliet» på norsk – som har fått mest oppmerksomhet utenfor Israel. 

Det er selvfølgelig ikke det samme som å si at kunstig intelligente systemer, helt eller delvis, har plukket ut alle de mål israelske styrker har angrepet siden 7. oktober. Det er langt ifra opplagt hvilken rolle og omfang kunstig intelligente datasystemer har i den israelske targeting-prosessen. 

SORTERING AV ETTERRETNINGSDATA

Israelsk bruk av kunstig intelligens i militær sammenheng er heller ikke helt nytt. Allerede i 2021 påstod det israelske forsvaret at kunstig intelligente systemer hjalp dem med raskt å oppdage Hamas-raketter avfyrt mot Israel, samt vurdere hvorvidt disse ville bomme på israelske mål eller burde angripes med mottiltak. Det nye i 2023 og 2024 er altså at israelerne hevder å benytte seg av kunstig intelligente verktøy i targeting­-sammenheng, ikke bare i missil- og rakettforsvar, men også i offensive operasjoner inne på Gaza-stripen. 

Nøyaktig hva dette eller disse verktøyene er, og hvordan de fungerer, vet vi ikke så mye om. De eneste som vet med sikkerhet er israelerne selv, og de uttaler seg kun i svært generelle ordelag. I en pressemelding forteller det israelske forsvaret at Habsora er et automatisert system for rask produksjon av målpakker. De sier at systemet benytter kunstig intelligens til å sortere etterretningsdata, og at det produserer forslag til mål som så videresendes til militære staber for evaluering.

FORHÅNDSPLANLAGTE MÅLPAKKER

Fullt så enkelt er det neppe. Targeting er og forblir en svært kompleks prosess, hvor informasjon samles, sammenstilles og vurderes i flere ledd. Dersom det er slik at israelerne holder seg med et system hvor man bare behøver å trykke på startknappen, før systemet umiddelbart og automatisk begynner å spytte ut ferdige målpakker i høyt tempo, da ligger de lysår foran alle andre vestlige luftforsvar. Vel er det israelske forsvaret teknologisk høykompetent, men at de skal ha den slags evne er helt usannsynlig.

Uansett hvilken type mål israelerne angrep i løpet av de første timene og dagene etter 7. oktober-­angrepet, så er omfanget slik at svært mange av dem – kanskje alle – må ha vært planlagt på forhånd. Og dersom det stemmer at Evangeliet oppdaterer måldata fortløpende, så må grunnlaget likevel være en eller flere targeting-databaser som er bygd opp lang tid i forveien. 

At det israelske forsvaret og etterretningstjenester lager og vedlikeholder slike databaser burde selvfølgelig ikke overraske noen. Israelsk overvåkning av Hamas har vært tung og den har pågått i årevis. Etterretningssvikten i forkant av angrepet i oktober endrer ikke på dét. Det israelske forsvaret holder seg da også i fredstid med en stor targeting-stab. Denne har nettopp dette som sin hovedoppgave: Å bygge forhåndsplanlagte målpakker, som så kan sendes til stridende avdelinger når behovet måtte oppstå.

EVANGELIET

I tillegg til en forhåndsbygget database, så er det også sannsynlig at Evangeliet benytter seg av løpende sensordata. Nøyaktig hva og hvilke data kan vi bare spekulere i, men at det israelske forsvaret holder seg med en lang rekke radar- og lyttesystemer, fly- og UAV-båren, sjø- og bakkebasert SIGINT, IMINT og mer er ingen hemmelighet.

På grunnlag av påståtte uttalelser fra anonyme israelske etterretningsoffiserer hevder også israelske medier at det er snakk om «Evangeliet» i løpet av krigens første to måneder har produsert rundt hundre målpakker per dag. Vi kan ikke kontrollere sannhetsgehalten i dette, men tallet er likevel et nyttig utgangspunkt når vi skal gjøre oss noen tanker om hva kunstig intelligens kan bidra med i targeting-prosesser.

KRITERIER OG ALGORITMER

Det finnes ingen enhetlig definisjon på hva kunstig intelligens er. Eller – det finnes mange. Men de aller fleste av disse definisjonene dekker programvare som lenge har vært i bruk i militær sammenheng, inkludert av det norske forsvaret. Når et radarsystem definerer noen signaler som «clutter», og andre signaler som virkelige objekter, så er dette en form for kunstig intelligens. Programvaren ser på data, vurderer betydningen av disse, og gjør et valg. Det finnes mange andre eksempler.

Når det gjelder metodisk målbekjempelse, så er det likevel ikke bare bruksområdet, men også tekno­logiens natur som gjør Evangeliet interessant. De mest moderne AI-systemene benytter seg vanligvis av maskinlæring. Her er det altså dataprogrammet selv som velger hvilke kriterier det skal benytte når det sorterer data. Dataprogrammet lager seg kriterier for å vurdere et gitt problem. Avhengig av resultatet av hver enkelt vurdering, justerer programmet så egne algoritmer for å gjøre det bedre neste gang. Maskinen lærer på egen hånd.

LÆRING

Når det israelske forsvaret sier at de benytter kunstig intelligens til targeting, så er det ingen fjern tanke at de her sikter til sistnevnte typer systemer: At Evangeliet benytter seg av maskinlæring, og altså er i stand til å se sammenhenger og lage kriterier som menneskelige eksperter ikke har sett eller ikke engang kan se.

Det israelske forsvaret selv hevder at tempoet og omfanget av luftangrepene på Gazastripen muliggjøres av kunstig intelligens

Det vil si, maskinen lærer i hvert fall så lenge den får tilbakemelding på om vurderingene den gjør er riktige eller ikke. Uansett hvor smart et dataprogram som anvender kunstig intelligens måtte være, så vet programmer som benytter maskinlæring fint lite om treffsikkerheten i egne vurderinger. Det gjetter på riktig løsning, hvorpå et menneske må fortelle programmet hvor godt det traff. Først når maskinen får fasit, har den mulighet til å lære av egne feil, justere egne kriterier, og forhåpentligvis treffe bedre på neste runde.

Potensiale for effektivisering

Det israelske systemet identifiserer altså kanskje individuelle mål. Muligens så lager det til og med forslag til fullverdige mål-­pakker? Antall angrep tatt i betraktning, så er det i hvert fall sannsynlig at systemet leverer nok anvendbare måldata til at mengden arbeid reduseres kraftig for de israelske stabsoffiserene som er involvert i targeting­-prosessen. Alternativet vil være å holde seg med targeting- og planstaber i en størrelses­orden som grenser til det absurde.

Potensialet for å effektivisere targeting­-prosesser ved hjelp av datakraft er svært stort. Med dagens norske verktøy og prosesser, hvor mange offiserer med targeting-­kompetanse må Luftforsvarets operasjonssenter eller Forsvarets Operative Hovedkvarter (FOH) holde seg med for å produsere 100 målpakker per døgn, jevnt og trutt, dag etter dag, uke etter uke, måned etter måned? For mange til at det er praktisk gjennom­førbart.

Selv om det israelske forsvaret virker å ha forhåndsplanlagt et stort antall mål, så ser det det altså ut til at Evangeliet bidrar til å opprettholde et svært høyt israelsk operasjons­tempo over tid. Dette rimer også godt med det israelske forsvarets doktrine om massiv gjengjeldelse, først promulgert i kjølvannet av Libanon-krigen i 2006 – at angrep på Israel skal bli møtt med overveldende vold og ødeleggelse av både militære mål og omkringliggende sivil infrastruktur og bebyggelse.

MINIMALT MED VURDERINGER

Når høyt operasjonstempo er et mål i seg selv, så blir verdien på hvert enkelt mål gjerne av sekundær betydning. Selv om Evangeliet skulle evne å foreslå flere titalls mål per dag, så har Israelerne neppe operasjonsstaber store nok til at de har anledning til å foreta særlig mer enn en overfladisk vurdering av alt annet enn de aller viktigste enkeltmålene. Kvalitets­sikring av Evangeliets vurderinger, vurdering av mulige følgeskader, målets betydning og forventet effekt av å ta ut akkurat dette målet – slikt vil måtte komme til kort. Kvantitet trumfer kvalitet.

Det samme gjelder evnen til å gjennomføre Combat Assessment, Battle Damage Assessment og annen oppfølging av enkeltmål i etterkant av at disse er angrepet. Også her er anonyme israelske etterretningskilder sitert på at det nedlegges minimalt til null arbeid i denne delen av targeting-prosessen. Så snart et angrepet er gjennomført flyttes alt fokus over på neste mål på lista.

Om vi skal bruke de israelske opera­sjonene på Gaza-stripen til å si noe om targeting generelt, så er dette kanskje det første åpenbare hovedpoenget: AI kan være arbeidsbesparende, men det erstatter ikke kompetente offiserer.

IKKE FOR STRATEGISKE MÅL

Det synes hevet over enhver tvil at kunstig intelligens kan bidra til å øke tempoet i targetingprosesser. Dette er noe vestlige forsvar generelt, og Luftforsvaret spesielt, må ta inn over seg. Men denne tempoøkningen er ikke gratis. Kunstig intelligente systemer kan automatisere deler av prosessen rundt metodisk målvalg. Men militært personell med targeting-kompetanse vil fortsatt måtte bygge og vedlikeholde datasett og databaser, kvalitetssikre systemets vurderinger, gjennomføre Combat Assessment og vurdere ettervirkninger. Og dersom økt arbeidstempo betyr at antallet mål øker, så øker også arbeidsmengden for militære planstaber. Israelsk operasjonstempo synes å være oppnådd kun ved å ta store snarveier. Dette er, for å si det forsiktig, neppe noe det norske Luftforsvaret bør forsøke å kopiere.

Hovedpoeng nummer to må være at Evangeliet, og tilsvarende AI-baserte systemer, egner seg til målvalg på taktisk og stridsteknisk nivå. Operasjonelle og strategiske vurderinger – altså å vurdere hvordan enkeltangrep og kamphandlinger skal bidra til å nå overordnede mål – må fortsatt tas av mennesker.

Et kunstig intelligent system finner bare de mål som systemets designere har trent det til å lete etter. Å knytte disse målene til overordnede strategier, operasjonelle målsetninger, sjefens intensjon – å stille spørsmål som «hvilken type mål bør angripes», «nøyaktig hvilke mål bør prioriteres», og «hvordan omsetter vi enkeltopera­sjoner i militær og politisk seier» – det kan systemet ingenting om. Et AI-basert targeting-program, opplært til å lete etter fiendens stridsvogner, vil sannsynligvis bli mye flinkere til å finne stridsvogner enn hva et menneske vil. Men det vil ikke ha evne til å si: «Jeg vet at du ba meg lete etter motstand­erens stridsvogner, men jeg tror det er mye lurere å angripe denne radarstasjonen.» I hvert fall ikke enda.

ENDA BEDRE DER VI ALLEREDE ER GODE

Det er en viss ironi i dette, for det er i taktisk maktanvendelse at vestlige forsvar, herunder også det norske, tradisjonelt har vært sterkest. Vestlig militærmakt generelt, og luftmakt spesielt, er «svært» flink til å finne og angripe stridsvogner eller andre enkeltmål. Presist, hurtig og med stor sprengkraft.

Det har vi sett gang på gang i Afghanistan, i Irak, i Libya. Det vestlig forsvar ikke har vært spesielt gode på er å omsette denne evnen i å oppnå langsiktige militære og politiske målsetninger. Hvordan går vi fra å finne og angripe stridsvogner, til å vinne krigen? Det har vi slitt med gang på gang i Afghanistan, i Irak, i Libya, og andre steder.

AI-assistert targeting virker altså å ha potensiale til å gjøre vestlig luftmakt enda bedre til det den allerede er best på. Slike taktisk orienterte targeting-systemer lapper ikke på det som kanskje er vestlig luftmakts største svakhet.

Det er mulig AI i framtida vil kunne utvikle evne til det Clausewitz beskrev som «kunsten å kunne bruke suksess på slagfeltet til å nå politiske målsetninger». Men dersom førsteinntrykket av «Evangeliet» viser seg å holde vann, så er man ikke helt der enda. Det er lite som tyder på at israelsk strategi eller operasjonsdesign på Gazastripen er dramatisk mye mer sofistikert eller effektiv enn ved forskjellige vestlige militære operasjoner i senere år, det være seg israelske, amerikanske eller andre. Kanskje heller tvert imot.

Å BYGGE GODE DATASETT

Det høres kanskje banalt ut, men dette er et helt sentralt poeng: Kunstig intelligente systemer ser ikke den virkelige verden. De ser bare de data mennesker forer de med. Kunstig intelligens kan behandle data – sortere og se etter mønstre – i et omfang, tempo og på måter som mennesker ikke evner. Men systemet er fullstendig blind for informasjon som ikke ligger i datasettet. Dette medfører noen store utfordringer for militære organisa­sjoner som ønsker å benytte slike verktøy.

Systemer som utvikles gjennom maskinlæring må ha forhåndsbygde datasett til opplæring. Systemet lærer gjennom prøving og feiling. Og som hos mennesker som skal lære helt nye ting, så kan det bli ganske mange feil i startfasen. Om man ikke vil at alle disse nybegynnerfeilene skal dukke opp i en skarp operasjon, så må systemet altså læres opp på forhånd. Og om systemet skal kunne operere under skarpe forhold, så må datasettet det trenes på, som et absolutt minimum, være en nær approksimering av de data systemet vil motta under skarpe forhold.

Gode datasett til opplæringsbruk er vanskelige å bygge. Motstanderen ønsker gjerne å forhindre innsamling av data, eller opererer ikke på samme måte i fredstid som vi forventer at de vil gjøre i krise og krig. Det er heller ikke gitt at data innsamlet fra en potensiell motstander er overførbare til en annen. Og geografiske, politiske eller andre forhold bidra til at innsamling forvanskes ytterligere.

Fordi gode datasett er vanskelige å bygge, men samtidig helt essensielle for maskinlæring, så er data som approksimerer virkeligheten svært verdifulle. Sett fra et slikt perspektiv, så er eksempelvis krigen i Ukraina en gullgruve for vestlige etterretningstjenester. Betydningen av å kunne observere og lytte til russiske styrker i full krigsmodus er svært stor.

Så dette er altså hovedpoeng nummer tre: Om man vil bygge og vedlikeholde kunstig intelligente systemer med evne til maskinlæring, så kan ikke verdien av å ha gode datasett overvurderes. Data som rimer godt med den virkelige verden er «utrolig» verdifullt.

TILPASNINGSDYKTIGE KRIGERE

Samtidig så er slike data, ikke minst de som samles under skarpe forhold, ferskvare. Hvorfor? Jo, fordi krigens gang medfører tilpasning og endring hos de krigførende parter. Russiske styrker i Ukraina operer ikke på samme måte i dag som de gjorde i februar 2022. Dette ser vi også på Gazastripen.

Nettopp fordi Hamas i årevis har ­befunnet seg i en løpende konflikt med Israel, inkludert gjennomføring av terrorangrep og rakettangrep fra Gazastripen inn mot Israel, må vi gå ut ifra at israelerne selv har ment at de har hatt et godt nok datasett til å kunne bruke det til å bygge «Evangeliet» med maskinlæring.

Men det er mye som tyder på at Hamas etter hvert har evnet å tilpasse seg israelske operasjonsmønstre. Kampene på Gazastripen trekker i langdrag. Vi ser også eksempler på at kamphandlinger blusser opp igjen i områder israelerne selv påstår å ha klarert. Hamas evne til å tilpasse seg og føre kampen videre er også en indikasjon på at israelsk targeting ikke har maktet å ødelegge Hamasledelsens evne til å utøve eller gjenopprette kommando og kontroll over egne styrker.

Vi vet lite om kvaliteten på israelsk målbekjempelse i dagene og ukene etter 7. oktober, med eller uten hjelp fra kunstig intelligens. Men det er altså godt mulig at kvaliteten uansett svekkes fortløpende, ettersom Hamas tilpasser seg og endrer operasjonsmønster. Et viktig tilleggspoeng her er selvfølgelig også at dersom israelerne virkelig tar lett på etterarbeidet – fortløpende vurdering av effekten av målvalg og angrep – ja, da undergraver de også systemets evne til videreutvikling gjennom maskinlæring.

Her har vi altså et fjerde hovedpoeng: Selv om kunstig intelligens basert på maskinlæring videreutvikler seg og forbedrer egen evne til å finne mønstre i data – maskinen lærer – så er det et åpent spørsmål hvorvidt programvarens evne til å lære holder fart med krigførende parters evne til å finne nye måter å ta livet av hverandre på. Slike systemer må, som et minimum, fores med oppdaterte data og tilbakemeldinger på systemets vurderinger. Og når vestlige luftforsvar inkorporerer kunstig intelligens i egne prosesser for metodisk målbekjempelse, så kan det være smart å ta høyde for at motstanderens kreativitet fortsatt kan stikke kjepper i hjulene for selv de beste targeting-­staber.

AI og autonome systemer