Një shërbim i ri i quajtur Nightshade i lejon përdoruesit ta bashkangjisin atë me artin e tyre dhe ky shërbim do të korruptojë – “ose helmojë “– të dhënat të cilat nuk mund të lexohen dot nga sistemet AI, që dëshirojnë të trajnohen nga këto vepra arti.
Pra me pak fjalë, modelet e ardhshme të platformave të artit të AI si DALL-E, Stable Diffusion dhe Midjourney mund të hasin vështirësi të mëdha, pasi nuk do të kenë “mësuar” mjaftueshëm për të krijuar imazhe të reja. Nightshade shton ndryshime të padukshme në piksela në një pjesë të artit dixhital.
Kur sistemet AI hasin këtë punë për t’u stërvitur, “helmi” shfrytëzon një dobësi sigurie që e ngatërron modelin, kështu që AI nuk do të arrijë lexojë më një imazh të një makine si një makinë por si një objekt tjetër. MIT Technology Review raportoi se Ben Zhao, një profesor në Universitetin e Çikagos dhe një nga krijuesit e Nightshade, shpreson të rikthejë balancën pasi kompanitë e AI kanë marrë të dhëna të mbrojtura nga të drejtat e autorit për të trajnuar modelet e tyre.
“Çuditërisht, ne tregojmë se një numër i moderuar i sulmeve Nightshade mund të destabilizojë veçoritë e përgjithshme në një model gjenerues text-to-image, duke pamundësuar efektivisht aftësinë e tij për të gjeneruar imazhe kuptimplote,” tha ai.
Krijuesit e Nightshade propozuan që ky mjet dhe mjetet e ngjashme duhet të përdoren si “mbrojtja e fundit për krijuesit e përmbajtjes kundër grumbullimit të të dhënave në web” që nuk njohin rregullat e përjashtimit. Çështjet e të drejtave të autorit rreth përmbajtjes së gjeneruar nga AI dhe të dhënat e trajnimit mbeten një zonë gri në mungesë të rregullores. Shumë nga paditë që luftojnë kundër shkeljes së të drejtës së autorit janë ende në rrugë gjyqësore.