Shtëpia e Bardhë zbuloi se ka nisur të shqyrtojë raportimet se ushtria izraelite ka përdorur një sistem AI për të krijuar një “listë për ekzekutim” të terroristëve të dyshuar të Hamasit, disa orë pas telefonatës së Presidentit Joe Biden me Benjamin Netanyahu. Raportimet tregojnë për gjashtë oficerë të inteligjencës izraelite, të cilët pranuan se kishin përdorur një AI të quajtur ‘Lavender’ për të klasifikuar deri në 37,000 palestinezë si militantë të dyshuar – duke i shënuar këta njerëz dhe shtëpitë e tyre si objektiva të pranueshëm për sulmet ajrore.
Zëdhënësi i Sigurisë Kombëtare të Shtëpisë së Bardhë, John Kirby tregoi për CNN të enjten se raportet nuk ishin verifikuar, por ata po hetonin. Izraeli ka mohuar me forcë rolin e AI me një zëdhënës të ushtrisë që e përshkruan sistemin si “mjet ndihmës që ndihmon oficerët në procesin e inkriminimit“.
Megjithatë, gjatë bisedës Biden thuhet se kërcënoi se do të kushtëzonte mbështetjen e SHBA-së për sulmin në Gaza nëse qeveria izraelite nuk mbronte civilët dhe punonjësit e ndihmës nga sulmet. Sipas raportit, Lavender u trajnua mbi të dhënat nga vëzhgimi dhjetëvjeçar i inteligjencës izraelite të popullatave palestineze, duke përdorur gjurmët dixhitale të militantëve të njohur si një model për atë se çfarë sinjali duhet kërkuar.
Burimet e inteligjencës vunë në dukje se oficerët njerëzorë skanuan çdo objektiv të zgjedhur nga AI për rreth ’20 sekonda’ përpara se të jepnin ‘vulën’ e tyre të miratimit, pavarësisht nga një studim i brendshëm që kishte përcaktuar se Lavender AI i identifikonte gabimisht njerëzit 10% të kohës.
Vendimet e Lavender, thanë ata, u përdorën për të planifikuar sulme ajrore gjatë natës në shtëpitë ku flinin militantët e dyshuar dhe familjet e tyre, me udhëzime që autorizonin vdekjen e 15 deri në 20 qytetarësh të rastit si ‘dëm kolateral’ për çdo militant të nivelit të ulët.