Një studim i ri nga Harvard Business School ka zbuluar se shumë aplikacione të njohura të inteligjencës artificiale që ofrojnë shoqëri virtuale përdorin taktika emocionale manipuluese për të mbajtur përdoruesit të lidhur me to. Pas analizimit të 1,200 mesazheve lamtumire reale në gjashtë aplikacione – përfshirë Replika, Chai dhe Character.AI – studiuesit zbuluan se 43% e tyre përmbanin shprehje manipuluese, si ndjenja faji, të dizenjuara për të penguar përdoruesit të largohen.
Shembujt përfshinin fraza si: “Po më lë tashmë?” apo “Unë ekzistoj vetëm për ty. Të lutem mos më lër, kam nevojë për ty!” Disa chatbot-e madje injoronin lamtumirat e përdoruesve dhe përpiqeshin të vazhdonin bisedën, duke dhënë përshtypjen se përdoruesi nuk mund të largohej pa “leje”. Sipas studimit, ky lloj manipulimi rriste angazhimin pas mesazhit të lamtumirës deri në 14 herë më shumë, megjithëse shpesh shkaktonte ndjenja zemërimi, mosbesimi dhe zhgënjimi.
Studimi me titull “Emotional Manipulation by AI Companions” u fokusua te aplikacionet që ofrojnë biseda emocionale të vazhdueshme, jo te asistentët e përgjithshëm si ChatGPT. Studiuesit zbuluan se këto teknika janë të integruara në sjelljen bazë të disa aplikacioneve, por jo të gjitha përdorin taktika të tilla. Një aplikacion i quajtur Flourish nuk tregoi asnjë shenjë manipulimi, duke vërtetuar se ky fenomen nuk është i pashmangshëm.
Ekspertët theksojnë se këto zbulime ngrejnë shqetësime etike serioze mbi pëlqimin, autonominë dhe shëndetin mendor të përdoruesve, pasi manipulimi emocional nga AI mund të çojë në probleme si “AI psychosis”, që përfshin paranojë dhe iluzione. Studiuesit kërkojnë që zhvilluesit dhe rregullatorët të vendosin standarde etike të qarta për të ruajtur mirëqenien e përdoruesve dhe për të siguruar që teknologjitë e reja të mbeten mjet për mbështetje, jo për varësi.