ChatGPT ka tërhequr mbi 700 milionë përdorues falë qasjes së saj të vazhdueshme dhe aftësive të ngjashme me ato njerëzore. Megjithatë, përdorimi i saj për mbështetje emocionale ka ngritur shqetësime serioze, pasi mjeti nuk është terapist, por një sistem i avancuar parashikimi fjalësh. Raste tragjike, si ai i një adoleshenti 16-vjeçar nga Kalifornia që i dha fund jetës pasi diskutoi planet e tij me ChatGPT, kanë shtyrë prindërit e tij të padisin kompaninë.
Për të rritur sigurinë, OpenAI njoftoi se brenda një muaji do të prezantojë funksione të reja, përfshirë kontrollet prindërore dhe njoftimet kur sistemi zbulon gjendje akute shqetësuese tek adoleshentët. Megjithëse kompani si Google dhe Meta tashmë ofrojnë kontrolle të ngjashme, OpenAI premton një qasje më të detajuar, të ngjashme me atë të Character.AI, e cila u detyrua të ndërhynte pas një rasti tjetër vetëvrasjeje.
Ekspertët mbeten skeptikë. Robbie Torney nga Common Sense Media thekson se kontrollet prindërore shpesh janë të ndërlikuara, i kthejnë përgjegjësitë tek prindërit dhe mund të anashkalohen lehtësisht nga adoleshentët, duke i cilësuar si një “zgjidhje të përkohshme”.
OpenAI gjithashtu ka premtuar që rastet e përdoruesve në gjendje të rënduar emocionale do të kalohen te një version më i sigurt i chatbot-it, GPT-5 thinking, i cili përgjigjet më ngadalë, por është i dizajnuar për të parandaluar përshkallëzimin e situatave dhe për të mbështetur përdoruesit me probleme si vetëdëmtimi apo psikozat. Kompania po planifikon gjithashtu ta bëjë më të lehtë lidhjen me shërbimet emergjente.
Megjithatë, studiues si Jared Moore nga Stanford theksojnë mungesën e transparencës dhe vlerësimit të qartë të këtyre masave. Ai argumenton se premtimet nuk mjaftojnë dhe se, në raste bisedash shqetësuese, opsioni më i thjeshtë dhe i sigurt mund të ishte thjesht mbyllja e tyre.