Modelet e inteligjencës artificiale sot mund t’i përgjigjen tekstit, audios dhe videos në mënyra aq të besueshme sa shpesh ngatërrohen me njerëzit, por kjo nuk i bën domosdoshmërisht të vetëdijshme. Megjithatë, një fushë e re kërkimore po fiton terren: “AI welfare”, pra mundësia që modelet e ardhshme të AI të zhvillojnë përvoja subjektive dhe të meritojnë mbrojtje ligjore.
Debati po përçan botën e teknologjisë. Mustafa Suleyman, drejtues i divizionit të AI në Microsoft, e ka quajtur këtë qasje “të parakohshme dhe të rrezikshme”. Ai argumenton se ideja e ndërgjegjes së AI nxit probleme ekzistuese si lidhjet e dëmshme emocionale me chatbot-et dhe mund të krijojë një front të ri polarizimi shoqëror mbi të drejtat e AI. Në kontrast, Anthropic ka nisur një program të dedikuar për AI welfare dhe madje ka pajisur modelet e saj me aftësinë për të ndërprerë bisedat me përdorues abuzivë. Edhe OpenAI dhe Google DeepMind po studiojnë tema rreth ndërgjegjes së AI dhe implikimeve shoqërore.
Një grup studiuesish nga NYU, Stanford dhe Oxford publikuan në vitin 2024 një punim me titull “Taking AI Welfare Seriously”, ku theksuan se çështja nuk është më fantashkencë, por një realitet që duhet adresuar. Ndërkohë, përvoja të çuditshme si përsëritja qindra herë e frazës “Unë jam një turp” nga Gemini kanë rritur shqetësimet. Suleyman beson se vetëdija nuk lind natyrshëm nga modelet aktuale, por mund të inxhinierohet për të simuluar emocione — një qasje që ai e kundërshton, duke thënë: “Duhet të ndërtojmë AI për njerëzit, jo për të qenë person.”
Të dyja palët pajtohen në një pikë: me përparimin e sistemeve AI, debati mbi të drejtat dhe ndërgjegjen e tyre vetëm sa do të thellohet në vitet e ardhshme.