Microsoft limiton mënyrën se si njerëzit komunikojnë me Bing AI Chatbot pas raportimeve se ky chatbot ka nisur të shfaqë një “personalitet të errët” gjatë bisedave të gjata.
Bing Chat tashmë do t’i përgjigjet 5 pyetjeve tuaja të bëra në rresht pas njëra-tjetrës. Më pas përdoruesit duhet të pyesin këtë chatbot mbi një temë tjetër. Kjo gjë u bë e ditur pas një publikimi në blogun e kompanisë. Gjithashtu brenda një dite Bing AI chatbot do të gjenerojë deri në 50 përgjigje.
Arsyeja kryesore e këtij limitimi është parandalimi i gjenerimit të përgjigjeve të gabuara, pasi Microsoft tregon se bisedat e gjata mund të “ngatërrojnë” këtë chatbot.
Ditën e mërkurë kopania tregoi se po përpiqej të rregullonte problemet në versionin e ri të Bing që u lançua vetëm një javë më parë. Microsoft tergoi se do të 4-fishonte burimin e të dhënave nga të cilat mund të gjenerojë përgjigje, si dhe të lejojë përdoruesit të zgjedhin nëse dëshirojnë përgjigje preçize nga burimet e Bing ose përgjigje më kreative që gjenerohen nga teknologjia ChatGPT.
Gazetari i New York Times mbeti i tmerruar nga përgjigjet që AI i gjeneroi, ku i tregoi se dëshironte të krijonte një pandemi vdekjeprurëse si dhe të vidhte kodet bërthamore.