OpenAI, krijuesi i ChatGPT, ka ndryshuar në heshtje rregullat e përdorimit të tij dhe ka hequr një rresht ku tregohej se chatbot-i dhe mjetet e tjera të AI nuk mund të përdoreshin për qëllime ushtarake – dhe më vonë tregoi se po punon me Departamentin e Mbrojtjes të SHBA.
Ekspertët kanë shprehur më parë frikën se AI mund të përshkallëzojë konfliktet në mbarë botën falë ‘slaughterbots’ të cilët mund të vrasin pa asnjë ndërhyrje njerëzore. Ndryshimi i rregullit, i cili ndodhi pas të mërkurës javën e kaluar, hoqi një fjali që thoshte se kompania nuk do të lejonte përdorimin e modeleve për “aktivitete që kanë rrezik të lartë dëmtimi fizik, duke përfshirë: zhvillimin e armëve, ushtrinë dhe luftën“.
Megjithatë, një zëdhënës i OpenAI tha më vonë se kompania po punon me Departamentin e Mbrojtjes në krijimin e mjeteve të sigurisë kibernetike për të mbrojtur open-source software.
“Politika jonë nuk lejon që mjetet tona të përdoren për të dëmtuar njerëzit, për të zhvilluar armë, për mbikëqyrjen e komunikimeve ose për të lënduar të tjerët ose për të shkatërruar pronë. Megjithatë, ka raste të përdorimit të sigurisë kombëtare që përputhen me misionin tonë. Për shembull, ne tashmë po punojmë me Defense Advanced Research Projects Agency (DARPA) për të nxitur krijimin e mjeteve të reja të sigurisë kibernetike për të siguruar open-source software, nga i cili varen infrastruktura kritike dhe industria. Qëllimi i përditësimit të politikave tona është të ofrojmë qartësi dhe aftësi për të kryer këto diskutime.’
Vitin e kaluar, 60 vende, përfshirë SHBA-në dhe Kinën, nënshkruan një “thirrje për veprim” për të kufizuar përdorimin e inteligjencës artificiale (AI) për arsye ushtarake.