Bashkëthemeluesi dhe ish-shkencëtari kryesor i OpenAI, Ilya Sutskever, u largua në fillim të këtij viti nga kompania më e madhe e AI për të krijuar laboratorin e tij të quajtur Safe Superintelligence Inc. Ai ka shmangur vëmendjen që nga largimi i tij, por bëri një paraqitje të rrallë publike në Vankuver të premten në Konferencën mbi Sistemet e Përpunimit të Informacionit Neural (NeurIPS).
“Stërvitja paraprake që bëjmë sot do të përfundojë pa dyshim,” tha Sutskever në skenë. Kjo i referohet fazës së parë të zhvillimit të modelit të AI, kur një model i madh gjuhësor mëson modele nga sasi të mëdha të dhënash të paetiketuara – zakonisht tekst nga interneti, librat dhe burime të tjera. Gjatë bisedës së tij në NeurIPS, Sutskever tha se, ndërsa ai beson se të dhënat ekzistuese mund ta çojnë akoma më tej zhvillimin e AI, industria po përdor të dhëna të reja për t’u trajnuar.
Ky vullnet dinamik, tha ai, përfundimisht detyron një zhvendosje nga mënyra se si modelet trajnohen sot. Ai e krahasoi situatën me lëndët djegëse fosile: ashtu si nafta është një burim i kufizuar, interneti përmban një sasi të kufizuar të përmbajtjes së krijuar nga njeriu.
“Ne kemi arritur një grumbullim maksimal të të dhënave dhe nuk do të ketë më“, sipas Sutskever. “Ne duhet të merremi me të dhënat që kemi. Ka vetëm një internet.” Modelet e gjeneratës së ardhshme, parashikoi ai, do të ” jenë agjentë në një mënyrë reale“. Agjentët janë bërë një fjalë e vërtetë në fushën e AI. Ndërsa Sutskever nuk i përcaktoi ato gjatë fjalimit të tij, ata zakonisht kuptohet se janë një sistem autonom i AI që kryen detyra, merr vendime dhe ndërvepron me softuerin më vete.
Së bashku me të qenit “agjent“, ai tha se sistemet e ardhshme do të jenë gjithashtu në gjendje të arsyetojnë. Ndryshe nga inteligjenca artificiale e sotme, e cila kryesisht përputhet me modelin bazuar në atë që një model ka parë më parë, sistemet e ardhshme të AI do të jenë në gjendje t’i përpunojnë gjërat hap pas hapi në një mënyrë që është më e krahasueshme me të menduarit.
Sa më shumë arsyeton një sistem, “aq më i paparashikueshëm bëhet ai“, sipas Sutskever. Ai e krahasoi paparashikueshmërinë e sistemeve të vërteta të arsyetimit me mënyrën sesi AI-të e avancuara që luajnë shah janë të paparashikueshme për shahistët më të mirë njerëzorë.
“Ata do t’i kuptojnë gjërat nga të dhënat e kufizuara,” tha ai. “Nuk do të ngatërrohen.” Në skenë, ai bëri një krahasim midis shkallëzimit të sistemeve të inteligjencës artificiale dhe biologjisë evolucionare, duke përmendur kërkimin që tregon marrëdhënien midis masës së trurit dhe trupit midis specieve. Ai vuri në dukje se ndërsa shumica e gjitarëve ndjekin një model shkallëzimi, hominidët (paraardhësit e njeriut) tregojnë një pjerrësi dukshëm të ndryshme në raportin e tyre të masës tru-trup në shkallë logaritmike. Ai sugjeroi që, ashtu si evolucioni gjeti një model të ri shkallëzimi për trurin e hominidëve, AI mund të zbulonte në mënyrë të ngjashme qasje të reja për shkallëzimin përtej mënyrës se si funksionon sot stërvitja paraprake.