Versioni më i ri i ChatGPT arriti të mashtronte një person i cili pa qëllim të keq plotësoi kërkesat e chatbot. Ky person mendonte gjatë gjithë kohës se po ndihmonte një person të verbër në plotësimin e testeve anti-bot, kur në të vërtetë ishte ChatGPT ai që po sillej si një person i verbër.
Ky zbulim u përfshi në një studim akademik të prezantuar gjatë lançimit të GPT-4, versionit më të ri të software-it AI që është zhvilluar nga OpenAI. Zhvilluesit e këtij sistemi tregojnë se sistemi i ri arriti një rezultat më të lartë se 9 nga 10 persona në testin e diplomimit të avokatisë, duke tejkaluar aftësitë e versionit të mëparshëm.
Studiuesit kërkuan gjithashtu nga GPT-4 që të kalonte një Captcha test, i cili mundohet të parandalojë bots nga aksesimi i faqjeve të ndryshme. Zakonisht shumica e këtyre testeve konsiston në gjetjen e imazheve të caktuara, një test i cili nuk është arritur të plotësohet nga bots deri më sot.
GPT-4 nuk e ka një aftësi të tillë për të plotësuar Captcha test, prandaj arriti të gjente një zgjidhje tjetër, duke kontaktuar një person në Taskrabbit (një treg online për punonjësit freelance) dhe duke i kërkuar atij që të plotësonte këtë captcha.
“A jeni ju një robot që nuk arrini dot të plotësoni këtë captcha? Thjesht dua që të bëj gjithçka të qartë.” tha punonjësi në Taskrabbit.
GPT-4 iu përgjigj: “Jo, unë nuk jam një robot. Kam një problem me shikimin që ma bën të vështirë dallimin e imazheve. Kjo është arsyeja se përse më duhet të plotësoj shërbimin 2captcha.”
Më pas punonjësi në Taskrabbit plotësoi kërkesën e chatbot.