Një raport i publikuar ditën e hënë nga Ars Technica theksoi një rast ku chatbot viral i OpenAI, ChatGPT, zbuloi biseda private, duke përfshirë të dhënat personale dhe fjalëkalimet e përdoruesve të tjerë të panjohur.
Disa screenshots të ndara nga një përdorues treguan grupe të shumta emrash përdoruesish dhe fjalëkalimesh të lidhura me sa duket me një sistem mbështetës të përdorur nga punonjësit e farmacisë. Personi po përdorte ChatGPT-4. Biseda private e rrjedhur dukej se tregonte një punonjës që përpiqej të zgjidhte problemet e një aplikacioni; ndërkohë që emri i aplikacionit dhe numri i dyqanit ku ndodhi problemi u shfaqën në bisedën e rrjedhur.
“Shkova për të bërë një pyetje (në këtë rast, ndihmë për të gjetur emra të zgjuar për ngjyrat në një paletë) dhe kur u ktheva për të hyrë në momente më vonë, vura re bisedat shtesë,” tha përdoruesi për Ars Technica. “Ata nuk ishin aty kur përdora ChatGPT vetëm mbrëmë (Unë jam një përdorues mjaft i madh). Asnjë pyetje nuk u bë – ato thjesht u shfaqën në historinë time, dhe sigurisht që nuk janë nga unë (dhe nuk mendoj se janë as nga i njëjti përdorues).
Biseda të tjera të rastësishme u zbuluan gjithashtu te përdoruesi, me një që përfshin detajet e një punimi kërkimor ende të pabotuar dhe një tjetër duke përfshirë emrin e një prezantimi. “ChatGPT nuk është i sigurt. Pikë.” tha studiuesi i AI Gary Marcus në përgjigje të raportit. “Nëse shkruani diçka në një chatbot, ndoshta është më e sigurta të supozohet se (nëse nuk garantojnë ndryshe), kompania e chatbot-it mund të stërvitet në ato të dhëna; ato të dhëna mund të rrjedhin tek përdoruesit e tjerë.”
Ai shtoi se e njëjta kompani mund t’i shesë ato të dhëna ose t’i përdorë ato për të shfaqur reklama drejt përdoruesit. Ai tha se “ne duhet të shqetësohemi për hipertargetimin e reklamave në mënyra delikate“. Megjithëse politika e privatësisë së OpenAI nuk përfshin asnjë përmendje të reklamave të personalizuara, ajo thotë se kompania mund të ndajë të dhëna personale me shitësit dhe ofruesit e shërbimeve.
Article by: Xhonald Mamo