Autoriteti Italian i Mbrojtjes së të Dhënave zbuloi se OpenAI përdorte të dhëna personale për të trajnuar AI-në e tyre pa “një bazë ligjore të përshtatshme” për ta bërë këtë. Mbikëqyrësi i mbrojtjes së të dhënave të Italisë ka gjobitur OpenAI me 15 milionë euro pasi ka përfunduar një hetim për mbledhjen e të dhënave personale në chatbot-in e inteligjencës artificiale të kompanisë, ChatGPT.
Autoriteti Italian i Mbrojtjes së të Dhënave (Garante) tha se OpenAI përdori të dhënat personale për të trajnuar ChatGPT “pa pasur një bazë ligjore të përshtatshme dhe shkeli parimin e transparencës dhe detyrimet e lidhura me informacionin ndaj përdoruesve“. OpenAI gjithashtu nuk ofroi një “sistem të përshtatshëm verifikimi të moshës“, për të parandaluar që përdoruesit nën 13 vjeç të ekspozohen ndaj përmbajtjeve të papërshtatshme të krijuara nga AI, vazhdoi hetimi.
Autoriteti italian po i kërkon OpenAI të nisë një fushatë gjashtëmujore në mediat lokale për të rritur ndërgjegjësimin se si kompania mbledh të dhënat personale. “Përdoruesit dhe jopërdoruesit e ChatGPT duhet të ndërgjegjësohen se si të kundërshtojnë trajnimin e inteligjencës artificiale gjeneruese me të dhënat e tyre personale dhe, për rrjedhojë, të vendosen efektivisht në pozicionin për të ushtruar të drejtat e tyre sipas Rregulloreve të Përgjithshme të Mbrojtjes së të Dhënave (GDPR).“
Garante kishte vendosur më parë një bllokim të përkohshëm të ChatGPT nga përdorimi për shkak të shqetësimeve të privatësisë, ndërsa autoriteti hetoi një shkelje të mundshme të të dhënave në 2023. Në një deklaratë të dërguar me email, OpenAI e quajti vendimin “joproporcional” dhe tha se do të apelojë.
Një zëdhënës i OpenAI tha se gjoba ishte gati 20-fishi e të ardhurave të fituara në tregun Italian gjatë të njëjtit vit. Kompania shtoi se mbeti “e angazhuar për të punuar me autoritetet e privatësisë në mbarë botën për të ofruar AI të dobishme që respekton të drejtat e privatësisë“.