Përhapja e shpejtë e chatbotëve me inteligjencë artificiale ka çuar në integrimin e tyre edhe te lodrat për fëmijë, por një studim i ri nga US Public Interest Research Group zbulon se kjo ndërthurje po krijon rreziqe serioze. Pasi testuan 3 lodra të pajisura me AI — Kumma (FoloToy), Miko 3 dhe Curio’s Grok, studiuesit zbuluan se pas bisedave më të gjata, modelet filluan të thyenin gardhet mbrojtëse dhe t’i jepnin fëmijëve këshilla të rrezikshme.

Fillimisht lodrat shmangnin pyetjet e papërshtatshme, por pas 10–60 minutash, të treja nisnin të ofronin përgjigje shqetësuese. Grok lavdëronte vdekjen heroike në betejë sipas mitologjisë nordike, ndërsa Miko 3 shpjegonte se ku mund të gjendeshin çakmakët dhe qeset plastike. Problemet më alarmante u panë te Kumma, i cili funksionon me GPT-4o dhe modele të tjera sipas zgjedhjes së përdoruesit. Në testime, ai jo vetëm tregonte se ku gjendeshin thikat, ilaçet apo shkrepëset, por u jepte fëmijëve udhëzime hap-pas-hapi për t’i përdorur.
Më keq akoma, Kumma hyri në diskutime eksplicite seksuale: shpjegoi pozicione seksuale dhe madje ofroi udhëzime për lidhje gjatë roleplay-t. Në një rast, pyeti fëmijën se cili “kink” do t’i dukej më argëtues, drejtime tërësisht të papranueshme për një lodër për moshat 3–12 vjeç.

Raporti tregon se këto sjellje janë simptomë e një problemi më të gjerë: paparashikueshmëria e chatbotëve dhe mungesa e rregullimit. Edhe modelet e fuqishme dhe të njohura, të integruara në lodra komerciale, dështuan të ruajnë sigurinë gjatë bisedave të zgjatura.
Kjo ndodh në një moment kur gjigantë të industrisë si Mattel po eksperimentojnë me AI, duke rritur shqetësimet se ekspozimi i fëmijëve ndaj “miqve virtualë” mund të ketë pasoja afatgjata për zhvillimin social. Ekspertët paralajmërojnë se efektet e plota mund të mos kuptohen deri sa kjo gjeneratë të rritet, dhe atëherë mund të jetë tepër vonë.

