OpenAI po lançon GPT-4o, një version të ri të modelit GPT-4 që fuqizon ChatGPT. Modeli i përditësuar “është shumë më i shpejtë” dhe përmirëson “aftësitë në tekst, imazhe dhe audio“, tha CTO e OpenAI Mira Murati në një njoftim të drejtpërdrejtë të hënën. Do të jetë falas për të gjithë përdoruesit, ndërsa ata me pagesë do të vazhdojnë të “kenë deri në pesë herë kufijtë e kapacitetit” të përdoruesve falas, shtoi Murati.
Në një postim në blog nga kompania, OpenAI thotë se aftësitë e GPT-4o në tekst dhe imazhe do të fillojnë të shfaqen sot në ChatGPT. Shefi ekzekutiv i OpenAI, Sam Altman, postoi se modeli është “multimodal“, që do të thotë se modeli mund të gjenerojë përmbajtje ose të kuptojë komandat në zë, tekst ose imazhe.
Karakteristika të reja po vijnë në modalitetin e zërit të ChatGPT si pjesë e modelit të ri. Aplikacioni do të jetë në gjendje të veprojë si një asistent zanor, duke iu përgjigjur në kohë reale dhe duke vëzhguar botën përreth jush. Modaliteti aktual i zërit është më i kufizuar, duke iu përgjigjur një kërkese në të njëjtën kohë dhe duke punuar vetëm me atë që mund të dëgjojë.
Altman reflektoi mbi trajektoren e OpenAI në një postim në blog pas transmetimit të drejtpërdrejtë. Ai tha se vizioni origjinal i kompanisë kishte qenë “krijimi i të gjitha llojeve të përfitimeve për botën“, por ai pranoi se vizioni kishte ndryshuar.
OpenAI është kritikuar për mos ofrimin e modeleve të tij të avancuara të AI dhe Altman duket se po thotë se fokusi i kompanisë ka ndryshuar për t’i bërë ato modele të disponueshme për zhvilluesit përmes API-ve me pagesë. “Në vend të kësaj, tani duket sikur ne do të krijojmë AI dhe më pas njerëzit e tjerë do ta përdorin atë për të krijuar të gjitha llojet e gjërave të mahnitshme nga të cilat ne të gjithë përfitojmë.”
Përpara lançimit të GPT-4o, raportime të ndryshme qarkullonin se kompania ishte gati të prezantonte një motor kërkimi AI për të rivalizuar Google dhe Perplexity, një asistent zanor të fuqizuar nga GPT-4, ose një model krejtësisht të ri dhe të përmirësuar, GPT-5.