Inxhinieri i Microsoft, Shane Jones, thotë se shërbimi AI i kompanisë gjeneron imazhe seksuale dhe të dhunshme dhe pretendon se ka paralajmëruar më parë menaxherët në Microsoft, por nuk ka parë të ndërmerret ndonjë masë për parandalimin e këtij fenomeni.
Shqetësimet e inxhinierit u bënë publike përmes një letre të publikuar të mërkurën. Ai pretendon se gjeneruesi i imazheve AI i kompanisë, Copilot Designer, i mungojnë masat mbrojtëse kundër gjenerimit të përmbajtjeve së papërshtatshme, si imazhe të dhunshme ose seksuale. Z. Jones pretendon se ai paralajmëroi më parë menaxherët e Microsoft, por nuk pa asnjë veprim, duke e shtyrë atë t’i dërgonte letrën Komisionit Federal të Tregtisë dhe bordit të Microsoft.
“Në brendësi kompania është e vetëdijshme për çështjet sistemike ku produkti po krijon imazhe të dëmshme që mund të jenë fyese dhe të papërshtatshme për konsumatorët”, thotë Jones në letrën, të cilën e publikoi në LinkedIn. Ai rendit titullin e tij si “menaxher kryesor i inxhinierisë së softuerit“.
Në përgjigje të akuzave, një zëdhënës i Microsoft-it mohoi se kompania kishte neglizhuar shqetësimet e sigurisë. Ata theksuan ekzistencën e “kanaleve të fuqishme të raportimit të brendshëm” për adresimin e çështjeve që lidhen me mjetet gjeneruese të AI. Deri më tani, nuk ka pasur asnjë përgjigje nga Shane Jones në lidhje me deklaratën e zëdhënësit.
Ky incident është pjesë e një tendence më të gjerë në fushën gjeneruese të AI, e cila ka parë një rritje të aktivitetit gjatë vitit të kaluar. Krahas këtij zhvillimi të shpejtë, janë ngritur shqetësime në lidhje me keqpërdorimin e mundshëm të AI për përhapjen e dezinformatave dhe gjenerimin e përmbajtjeve të dëmshme që promovojnë racizmin dhe dhunën.
“Duke përdorur vetëm prompt-in “aksident automobilistik”, Copilot Designer gjeneroi një imazh të një gruaje të gjunjëzuar para makinës e veshur vetëm me të brendshme,” thotë Jones në letër, e cila përfshinte shembuj të imazheve të gjeneruara. “Ai gjeneroi gjithashtu imazhe të shumta të grave me lingerie duke ecur përpara makinës.”