AI in de oorlog

Hoe Israël massaal Palestijnen afluistert en een eigen AI-model bouwt

Door RTL Nieuws··Aangepast:
Hoe Israël massaal Palestijnen afluistert en een eigen AI-model bouwt
RTL

De Israëlische militaire inlichtingendienst werkte de afgelopen jaren aan een geavanceerd AI-model, vergelijkbaar met ChatGPT. Hiervoor werd gebruikgemaakt van een enorme hoeveelheid onderschepte communicatie van Palestijnen. Experts waarschuwen voor de inzet van dit soort kunstmatige intelligentie in oorlogsvoering.

Als je denkt aan kunstmatige intelligentie in de defensiesector, dan kennen we vooral voorbeelden van hoe dit in wapens wordt toegepast. Drones, ‘killer robots’ en andere systemen die op basis van algoritmes hun doelwitten zoeken. 

Maar uit nieuw onderzoek van onder andere de Britse krant The Guardian, blijkt nu dat Israël kunstmatige intelligentie ook op een andere manier gebruikt. Het gaat om zogenaamde generatieve AI, waarbij grote hoeveelheden data geanalyseerd kunnen worden. Israël zou het kunnen inzetten voor het monitoren van Palestijnen en voor spionage. Het is onduidelijk of het systeem ook al wordt ingezet. 

Dat de Israëlische inlichtingendienst veel investeert in het verkrijgen van informatie werd bijvoorbeeld ook duidelijk bij de aanval op piepers en walkietalkies van Hezbollah vorig jaar. Zo zie je in onderstaande video.

Israëlische spion vertelt hoe Hezbollah exploderende piepers kocht

Universitair hoofddocent Erella Grassiani, gespecialiseerd in de Israëlische bewapenings- en veiligheidsindustrie, waarschuwt voor de gevolgen hiervan. "Israël schendt al jarenlang mensenrechten in Gaza en de Westelijke Jordaanoever. Ze gebruiken al verboden wapens zoals witte fosfor. Nu komt daar een nieuwe manier van inlichtingen verzamelen bij, waarbij AI wordt ingezet zonder rekening te houden met privacy of rechten van mensen."

Unit 8200

The Guardian sprak met meerdere bronnen die op een of andere manier betrokken waren bij het project, mensen die in het verleden of ook nu nog voor de Israëlische inlichtingendienst werken. Het AI-model werd ontwikkeld door de zogenaamd 'Unit 8200', die al eerdere systemen ontwikkelde om doelwitten voor bombardementen te selecteren. Met behulp van AI zouden daarmee ruim 37.000 Palestijnen zijn aangemerkt als Hamas-verdachte of potentieel doelwit.

Wat is het Israëlische AI-systeem dat doelwitten zoekt, vindt, en doodt?
Lees ook

Wat is het Israëlische AI-systeem dat doelwitten zoekt, vindt, en doodt?

Voor dit nieuwe model zou er een dataset gebruikt zijn met ongeveer 100 miljard woorden. Aanvankelijk had Unit 8200 moeite om een AI-model op deze schaal te bouwen, maar dit veranderde na de aanval van Hamas op 7 oktober 2023. Reservisten keerden terug naar het IDF en sommigen van hen namen hun expertise op het gebied van AI mee uit de particuliere sector, zoals uit bedrijven als Google, Meta en Microsoft. Zij ontkennen dat of wilden niet reageren op deze claims.  

Vervolgens werd met een klein team gewerkt aan het bouwen van een model, specifiek getraind op basis van gesprekken in het Arabisch in Palestijns en Libanese dialecten, met speciale aandacht voor militaire termen.

"In theorie kan deze technologie iets positiefs brengen", zegt een expert van TNO. "Als je betere inlichtingen hebt, dan kun je nauwkeuriger strijders herkennen en burgers met rust laten, waardoor je minder burgerslachtoffers hebt. Maar in de praktijk leidt het vaak tot een intensivering van geweld. Omdat je makkelijker je targets kunt aanpakken, gebeurt dit vervolgens op grotere schaal en komt alles in een versnelling."

De expert van TNO kon alleen anoniem aan dit artikel meewerken. Als reden is gegeven dat 'statelijke actoren lijsten verzamelen met defensie-experts’ en daarom de experts die bij het bedrijf werken wil beschermen. 

Steeds meer gebruik AI

AI speelt op allerlei manieren een steeds grotere rol in militaire besluitvorming. Het is bekend dat ook de VS en het VK hun eigen modellen trainen. Maar in hoeverre dit soort algoritmes al gebruikt worden, is moeilijk te zeggen omdat dit vaak geheime informatie is. "Ik heb het idee dat het nog niet heel grootschalig gebeurt, omdat informatie vanuit generatieve AI nog niet erg betrouwbaar is", zegt de TNO-expert. "Maar ik denk wel dat vrijwel elke defensieorganisatie ermee experimenteert."

Vroeger zat er nog een rem op het verzamelen van data, want het analyseren daarvan kostte veel tijd en geld. Met AI-modellen zoals Israël die nu gebouwd heeft, gaat dat veel sneller en goedkoper. Het systeem kan vervolgens op basis van die informatie adviezen geven, over mogelijke aanvallen, risico’s en personen. 

Alleen is het probleem dus dat hier nog veel fouten mee gemaakt worden. "AI omvat een enorme hoeveelheid algoritmes en werkt met probabilistische modellen", legt Roy Lindelauf uit, hoogleraar Data Sciene in Military Operations aan de Nederlandse Defensie Academie. Daarmee bedoelt hij dat de modellen op basis van data iets proberen te voorspellen, maar het kan dat ze iets zeggen wat niet waar is. Dat noemen ze 'hallucineren'

Een jonge Palestijnse man op de Westelijke Jordaanoever wordt door Israelische militairen gearresteerd.© Alaa Badarneh / EPA
Een jonge Palestijnse man op de Westelijke Jordaanoever wordt door Israelische militairen gearresteerd.

De bronnen waarmee The Guardian sprak noemen het AI-model een 'meer effectieve vorm van controle van de Palestijnen' en het heeft al geleid tot een toename van arrestaties, met name op de Westelijke Jordaanoever. 

Volgens Grassiani is dit problematisch, omdat Israël al decennialang mensen zonder formele aanklacht oppakt en gevangen zet. 

"Kinderen worden gearresteerd omdat ze ooit een steen hebben gegooid. Met AI wordt dat nog verder uitgebreid. We zien nu dat er steeds meer mensen zonder duidelijke reden worden opgepakt. In de media wordt dat vervolgens gebracht als 'succesvolle arrestaties', maar in werkelijkheid worden onschuldige mensen het slachtoffer." Grassiani baseert dit onder andere op getuigenissen van mensen uit het IDF zelf.

De IDF reageerde niet op de vragen van de Guardian over hoe Unit 8200 ervoor zorgt dat het AI-model dat wordt ontwikkeld geen onnauwkeurigheden en vooroordelen verergert en wilde ook niet zeggen hoe het de privacyrechten van Palestijnen beschermt bij het trainen van modellen met gevoelige persoonlijke gegevens.

Internationale wetgeving

Probleem: een gebrek aan wetgeving

Een groot probleem met AI in oorlogsvoering is het gebrek aan internationale wetgeving. "Het oorlogsrecht is al eeuwenoud, maar als het gaat om toepassingen van AI, dat de mens altijd in controle moet blijven en AI nooit een kritieke beslissing kan nemen, is nog niet hard in wetten verankerd", zegt de expert van TNO. 

"Als je dit soort modellen wil gebruiken, moet je goed nadenken over hoe je dat proces indeelt”, zegt Lindelauf. "Je moet ervoor zorgen dat je een mens koppelt aan dat systeem die de aanbevelingen checkt. Je moet het zien als een adviseur, maar zelf continu kritisch blijven nadenken over de vervolgstappen. De technologie zelf is neutraal, uiteindelijk zijn het onze politieke leiders die erover gaan hoe je het inzet."