Javën e kaluar, u publikuan raportime se Forcat e Mbrojtjes të Izraelit (IDF) po përdorin një sistem të inteligjencës artificiale (AI) të quajtur Habsora për të zgjedhur objektivat për bombardim në luftën kundër Hamasit në Gaza.
Sistemi thuhet se është përdorur për të gjetur më shumë objektiva për bombardime, për të lidhur vendndodhjet me drejtuesit e Hamasit dhe për të vlerësuar paraprakisht numrin e mundshëm të vdekjeve civile.
Kërkimet mbi implikimet sociale, politike dhe etike të përdorimit ushtarak të sistemeve të largëta dhe autonome tregojnë se AI tashmë po ndryshon karakterin e luftës. Sistemet e AI mund t’i bëjnë ushtarët më efikas dhe ka të ngjarë të rrisin shpejtësinë dhe numrin e vdekjeve në luftë. Kur ushtarakët mund të vrasin sipas dëshirës, me pak rrezik për ushtarët e tyre, a do të mbizotërojë mendimi aktual mbi etikën e luftës? Apo rritja e përdorimit të AI do të rrisë gjithashtu dehumanizimin e kundërshtarëve?
AI në luftë
Inteligjenca artificiale ka një ndikim në të gjitha nivelet e luftës, nga mbështetja e “inteligjencës, mbikëqyrjes dhe zbulimit“, si sistemi Habsora i IDF-së, deri te “sistemet e armëve autonome vdekjeprurëse” që mund të zgjedhin dhe sulmojnë objektivat pa ndërhyrje njerëzore. Këto sisteme kanë potencialin për të riformuar karakterin e luftës, duke e bërë më të lehtë hyrjen në një konflikt. Si sisteme komplekse dhe të shpërndara, ato gjithashtu mund ta bëjnë më të vështirë sinjalizimin e qëllimeve të dikujt – ose interpretimin e veprimeve të një kundërshtari – në kontekstin e një konflikti në përshkallëzim.
Për këtë qëllim, AI mund të kontribuojë në keqinformimin ose dezinformimin, duke krijuar dhe përforcuar keqkuptime të rrezikshme në kohë lufte. Sistemet e inteligjencës artificiale mund të rrisin prirjen njerëzore për t’u besuar sugjerimeve nga makineritë, duke hapur pasiguri se sa shumë duhet t’u besohet sistemeve autonome. Kufijtë e një sistemi AI që ndërvepron me teknologjitë e tjera dhe me njerëzit mund të mos jenë të qartë dhe mund të mos ketë asnjë mënyrë për të ditur se kush ose çfarë i ka “autorizuar” rezultatet e tij, pavarësisht sa objektive dhe racionale mund të duken ato.
Mësimi tepër i shpejtë nga makineritë
Ndoshta një nga ndryshimet më themelore dhe më të rëndësishme që ka të ngjarë të shohim të nxitur nga AI është një rritje në shpejtësinë e luftës. Kjo mund të ndryshojë mënyrën se si ne e kuptojmë parandalimin ushtarak, i cili supozon se njerëzit janë aktorët dhe burimet kryesore të inteligjencës dhe ndërveprimit në luftë. Ushtarët i marrin vendimet e tyre përmes asaj që quhet “loop OODA” (për të vëzhguar, orientuar, vendosur, vepruar). Qëllimi është të shmanget ngadalësimi i vendimeve përmes diskutimit të tepruar, dhe në vend të kësaj të përputhet me kohën e përshpejtuar të luftës.
Softueri i shënjestrimit të Izraelit është një shembull i këtij përshpejtimi. Një ish-kreu i IDF-së ka thënë se inteligjenca njerëzore mund të prodhojë 50 objektiva bombardimi në Gaza çdo vit, por sistemi Habsora mund të prodhojë 100 objektiva në ditë, së bashku me rekomandimet në kohë reale se cilat duhet të sulmohen.
A do ta përkeqësojë AI luftën?
Ne jetojmë në një kohë luftërash dhe pushtimesh të padrejta ushtarake, shkelje skandaloze të rregullave të angazhimit dhe një garë armësh fillestare përballë rivalitetit SHBA-Kinë. Në këtë kontekst, përfshirja e AI në luftë mund të shtojë kompleksitete të reja që përkeqësojnë, në vend që të parandalojnë, dëmin. Sistemet e AI e bëjnë më të lehtë për aktorët në luftë që të mbeten anonimë dhe mund ta bëjnë të padukshëm burimin e dhunës ose vendimet që çojnë në të. Nga ana tjetër, ne mund të shohim një shkëputje në rritje midis ushtarakëve, ushtarëve dhe civilëve, dhe luftërave që zhvillohen në emër të kombit të cilit i shërbejnë.