Nuk duhet të harroni asnjëherë se çfarëdo gjëje që ju shpërndani me ChatGPT ruhet për të trajnuar gjithnjë e më tepër këtë model. Punonjësit e Samsung mësuan për këtë fenomen në mënyrën më të keqe, pasi bënë leak aksidentalisht të dhëna super sekrete të kompanisë.
Ata shpërndanë me ChatGPT informacione konfidenciale ndërkohë që po e përdornin sistemin AI për ndihmë, pasi sektori i proçesorëve gjysëmkonduktorë të kompanisë i ka lejuar inxhinierët të përdorin AI për të kontrolluar source code.
Mirëpo The Economyst Korea ka raportuar 3 raste të veçanta ku punonjësit e Samsung kanë publikuar pa dashur informacione sensitive me ChatGPT. Në një rast, punonjësi publikoi informacione konfidenciale për të kontrolluar nëse source code kishte gabime. Një tjetër punonjës shpërndau një kod me ChatGPT dhe kërkoi një optimizim të këtij kodi. Punonjësi i tretë publikoi regjistrimin e një mbledhje për të shndërruar temën e diskutuar në shënime.
Këto informacione tashmë janë të ruajtura në ChatGPT, i cili trajnohet mbi këto biseda.
Samsung ka marrë masa të menjëhershme duke limituar përdorimin e ChatGPT deri në 1024 bytes për person, dhe po investigon punonjësit që publikuan këto informacione.
Në udhëzuesin e përdoruesit të ChatGPT paralajmërohet se nuk duhet të shpërndani të dhëna sensitive në biseda.