Kunstig intelligens (KI) har de siste årene blitt en integrert del av hverdagen, fra personlige assistenter til avanserte anbefalingssystemer. Nå ser vi en økende trend der disse teknologiene, opprinnelig utviklet for sivile formål, finner veien inn i militære operasjoner.
Ifølge rapporter har integrasjonen av KI i militæret nådd et kritisk punkt. I nyere konflikter, spesielt i det amerikanske forsvaret, brukes KI-systemer til å analysere store mengder data og identifisere potensielle bombemål i et tempo som tidligere var utenkelig. Det rapporteres om systemer som kan identifisere tusen bombemål på 24 timer med én enkelt forespørsel.
Denne utviklingen reiser flere etiske og juridiske spørsmål. Hvem har ansvaret dersom KI-systemene feiltolker data og sivile liv går tapt? Selv om militære doktriner krever menneskelig kontroll, kan den raske beslutningstakingen som KI muliggjør, redusere menneskets rolle til en formalitet. I tillegg er mange KI-systemer komplekse og fungerer som "svarte bokser", noe som gjør det vanskelig å forstå hvordan de kommer frem til sine konklusjoner.
I Norge forsker Forsvarets forskningsinstitutt (FFI) på hvordan KI kan implementeres i forsvarssystemer. Målet er å forstå hvordan slike teknologier kan brukes effektivt og etisk forsvarlig i militære operasjoner.
Det er et økende behov for internasjonale retningslinjer og reguleringer for bruk av KI i krigføring. Dette for å sikre at teknologien brukes på en måte som respekterer internasjonal lov og beskytter sivile liv.