Zhvilluesit kryesorë të inteligjencës artificiale, si OpenAI dhe Anthropic, po hapin një temë delikate për t’i shitur softuer ushtrisë së Shteteve të Bashkuara: ta bëjnë Pentagonin më efikas, pa lejuar që AI i tyre të vrasë njerëz.
Sot, mjetet e tyre nuk po përdoren si armë, por AI po i jep Departamentit të Mbrojtjes një “përparësi të konsiderueshme” në identifikimin, gjurmimin dhe vlerësimin e kërcënimeve, tha shefi dixhital dhe i AI i Pentagonit, Dr. Radha Plumb.
“Ne padyshim po rrisim mënyrat në të cilat mund të përshpejtojmë ekzekutimin e ‘kill chain’ në mënyrë që komandantët tanë të mund të përgjigjen në kohën e duhur për të mbrojtur forcat tona,” tha Plumb. “Kill chain” i referohet procesit të ushtrisë për identifikimin, gjurmimin dhe eliminimin e kërcënimeve, duke përfshirë një sistem kompleks sensorësh, platformash dhe armësh.
Marrëdhënia midis Pentagonit dhe zhvilluesve të AI është një marrëdhënie relativisht e re. OpenAI, Anthropic dhe Meta u tërhoqën nga politikat e tyre të përdorimit në 2024 për të lejuar agjencitë e inteligjencës dhe mbrojtjes amerikane të përdorin sistemet e tyre të AI. Sidoqoftë, ata ende nuk lejojnë që AI i tyre të dëmtojë njerëzit.
“Ne kemi qenë vërtet të qartë se për çfarë do të përdorim dhe për çfarë nuk do të përdorim teknologjitë e tyre,” tha Plumb, kur u pyet se si punon Pentagoni me ofruesit e modeleve të AI. Sidoqoftë, kjo nisi një raund takimi për kompanitë e AI dhe kontraktorët e mbrojtjes. Meta bashkëpunoi me Lockheed Martin dhe Booz Allen, ndër të tjera, për të sjellë modelet e tij Llama AI në agjencitë e mbrojtjes në nëntor. Po atë muaj, Anthropic u bashkua me Palantir. Në dhjetor, OpenAI bëri një marrëveshje të ngjashme me Anduril.
Ndërsa AI gjeneruese dëshmon dobinë e saj në Pentagon, ajo mund të shtyjë Silicon Valley të lirojë politikat e saj të përdorimit të AI dhe të lejojë më shumë aplikime ushtarake.