OpenAI po formon një ekip të ri për të zbutur “risqet katastrofike” të lidhura me AI. Në një deklaratë të bërë të enjten, OpenAI thotë se ekipi i gatishmërisë do të “gjurmojë, vlerësojë, parashikojë dhe mbrojë” kundër çështjeve potencialisht të mëdha të shkaktuara nga AI, përfshirë këtu dhe kërcënimet bërthamore.
Ekipi do të punojë gjithashtu për të zbutur “kërcënimet kimike, biologjike dhe radiologjike“, si dhe “replikimin autonom“, ose aktin e një AI që replikohet vetë. Disa rreziqe të tjera që ekipi i gatishmërisë do të trajtojë përfshijnë aftësinë e AI për të mashtruar njerëzit, si dhe kërcënimet e sigurisë kibernetike.
“Ne besojmë se modelet kryesore të AI, të cilat do të tejkalojnë aftësitë aktuale në modelet më të avancuara ekzistuese, kanë potencialin për të ndihmuar gjithë njerëzimin,” shkruan OpenAI në deklaratë. “Por ato paraqesin gjithashtu rreziqe gjithnjë e më të rënda.”
Aleksander Madry, drejtor i Qendrës së MIT për machine-learning, do të drejtojë këtë ekip. OpenAI vëren se ekipi i gatishmërisë do të zhvillojë dhe mbajë gjithashtu një “politikë zhvillimi të informuar për rrezikun”, e cila do të përshkruajë atë që kompania po bën për të vlerësuar dhe monitoruar modelet e AI. CEO i OpenAI, Sam Altman, ka paralajmëruar për potencialin e ngjarjeve katastrofike të shkaktuara nga AI më parë. Gjatë një interviste në Londër, Altman sugjeroi gjithashtu që qeveritë duhet ta trajtojnë AI “po aq seriozisht” sa armët bërthamore.