OpenAI po krijon një ekip të dedikuar për të menaxhuar rreziqet që mund të shfaqen nga sistemet superinteligjente.
Një superinteligjencë është një model hipotetik i AI që është më i zgjuar, më i talentuar dhe inteligjent se njeriu, dhe shkëlqen në fusha të shumta ekspertize në vend të një domeni të caktuar si disa modele të gjeneratës së mëparshme. OpenAI beson se një model i tillë mund të arrijë para fundit të dekadës.
“Superinteligjenca do të jetë teknologjia me më ndikim që njerëzimi ka shpikur ndonjëherë dhe mund të na ndihmojë të zgjidhim shumë nga problemet më të rëndësishme të botës”, tha organizata jofitimprurëse. “Por fuqia e madhe e superinteligjencës mund të jetë gjithashtu shumë e rrezikshme dhe mund të çojë në pafuqinë e njerëzimit apo edhe në zhdukjen e njerëzimit.”
Ekipi i ri do të bashkëdrejtohet nga shkencëtarët drejtues në OpenAI, Ilya Sutskever dhe Jan Leike. Për më tepër, OpenAI tha se do t’i kushtonte 20% të fuqisë së saj llogaritëse për iniciativën, me qëllimin e zhvillimit të një studiuesi të automatizuar për çështjen.
Një sistem i tillë teorikisht do të ndihmonte OpenAI në krijimin e një sistemi superinteligjent të sigurt për t’u përdorur dhe në përputhje me vlerat njerëzore. “Ndërsa ky është një objektiv tepër ambicioz dhe ne nuk jemi të garantuar të kemi sukses, ne jemi optimistë se një përpjekje e përqendruar dhe e bashkërenduar mund ta zgjidhë këtë problem,” tha OpenAI. “Ka shumë ide që janë premtuar në eksperimentet paraprake, ne kemi statistika gjithnjë e më të dobishme për përparimin dhe ne mund të përdorim modelet e sotme për të studiuar shumë nga këto probleme në mënyrë empirike.”