Jan Leike, një studiues kryesor i OpenAI, dha dorëheqjen në fillim të kësaj jave pas largimit të bashkëthemeluesit Ilya Sutskever. Ai postoi të premten në X se “kultura dhe proceset e sigurisë janë më pak të fokusuara në sigurinë se sa në krijimin e produkteve që shkëlqejnë” në kompani.
Deklaratat e Leike erdhën pasi Wired raportoi se OpenAI kishte pushuar të gjithë ekipin e dedikuar për të adresuar rreziqet afatgjata të AI (i quajtur “Superalignment Team“). Leike kishte drejtuar ekipin Superalignment, i cili u formua korrikun e kaluar për të “zgjidhur sfidat kryesore teknike” në zbatimin e protokolleve të sigurisë, pasi OpenAI zhvilloi AI që mund të arsyetojë si një njeri. Ideja fillestare e OpenAI ishte që të ofronte falas modelet e tyre për publikun, por nuk po i ofrojnë shërbimet e tyre për shkak të pretendimeve të kompanisë se lejimi i modeleve të tilla të fuqishme për t’u aksesuar nga kushdo mund të jetë potencialisht shkatërrues.
“Ne jemi shumë vonëpër t’u bërë jashtëzakonisht seriozë në lidhje me implikimet e AI. Ne duhet t’i japim përparësi përgatitjes për ta sa më mirë që mundemi, “tha Leike në postimet vijuese në lidhje me dorëheqjen e tij të premten në mëngjes. “Vetëm atëherë mund të sigurojmë që nga AI të përfitojë i gjithë njerëzimi.”
Postimet e Leike theksojnë një tension në rritje brenda OpenAI. Ndërsa studiuesit garojnë për të zhvilluar inteligjencën e përgjithshme artificiale gjatë menaxhimit të produkteve të konsumit të AI si ChatGPT dhe DALL-E, punonjësit si Leike po ngrenë shqetësime për rreziqet e mundshme të krijimit të modeleve super-inteligjente të AI. Leike tha se ekipi i tij ishte nuk ishte më një prioritetet dhe nuk mund të merrte burimet e nevojshme të kryer punë “të rëndësishme”.
“U bashkua sepse mendova se OpenAI do të ishte vendi më i mirë në botë për të bërë këtë kërkim,” shkroi Leike. “Sidoqoftë, unë nuk jam dakord me udhëheqjen e OpenAI për prioritetet thelbësore të kompanisë për mjaft kohë, derisa më në fund arritëm një pikë thyerjeje.”