Më shumë se një milion përdorues të ChatGPT çdo javë dërgojnë mesazhe që përfshijnë “tregues të qartë të planifikimit ose qëllimit të mundshëm vetëvrasës”, sipas një postimi në blog të publikuar nga OpenAI.
Zbulimi, pjesë e një përditësimi mbi mënyrën se si chatbot-i trajton bisedat e ndjeshme, është një nga deklaratat më të drejtpërdrejta nga gjigandi i inteligjencës artificiale mbi shkallën se si AI mund të përkeqësojë problemet e shëndetit mendor.
Përveç vlerësimeve të saj mbi idetë vetëvrasëse dhe ndërveprimet e lidhura me to, OpenAI tha gjithashtu se rreth 0.07 e përdoruesve aktivë në një javë të caktuar – rreth 560 mijë nga 800 milionë përdoruesit e saj të reklamuar javorë – tregojnë “shenja të mundshme të emergjencave të shëndetit mendor të lidhura me psikozën ose maninë”.
Postimi paralajmëroi se këto biseda ishin të vështira për t’u zbuluar ose matur, dhe se kjo ishte një analizë fillestare.
Ndërsa OpenAI publikon të dhëna mbi problemet e shëndetit mendor që lidhen me produktin e saj të njohur, kompania po përballet me një shqyrtim gjithnjë e më të madh pas një padie shumë të publikuar nga familja e një djali adoleshent i cili vdiq nga vetëvrasja pas një angazhimi të gjerë me ChatGPT.
Komisioni Federal i Tregtisë muajin e kaluar nisi gjithashtu një hetim të gjerë mbi kompanitë që krijojnë chatbot-e të inteligjencës artificiale, përfshirë OpenAI, për të zbuluar se si ato matin ndikimet negative te fëmijët dhe adoleshentët.
OpenAI pretendoi në postimin e saj se përditësimi i saj i fundit GPT-5 uli numrin e sjelljeve të padëshirueshme nga produkti i saj dhe përmirësoi sigurinë e përdoruesit në një vlerësim modeli që përfshinte më shumë se 1 mijë biseda për vetëlëndim dhe vetëvrasje.
“Vlerësimet tona të reja të automatizuara e vlerësojnë modelin e ri GPT-5 në 91% përputhje me sjelljet tona të dëshiruara, krahasuar me 77% për modelin e mëparshëm GPT-5”, thuhet në postimin e kompanisë.
OpenAI deklaroi se GPT-5 zgjeroi aksesin në linjat telefonike të krizave dhe shtoi kujtesa për përdoruesit që të bënin pushime gjatë seancave të gjata.
Për të bërë përmirësime në model, kompania tha se rekrutoi 170 klinicistë nga Rrjeti Global i Mjekëve të ekspertëve të kujdesit shëndetësor për të ndihmuar në hulumtimin e saj gjatë muajve të fundit, i cili përfshinte vlerësimin e sigurisë së përgjigjeve të modelit të saj dhe ndihmën në shkrimin e përgjigjeve të chatbot-it për pyetje që lidhen me shëndetin mendor.
“Si pjesë e kësaj pune, psikiatër dhe psikologë shqyrtuan më shumë se 1 mijë e 800 përgjigje modeli që përfshinin situata serioze të shëndetit mendor dhe krahasuan përgjigjet nga modeli i ri i bisedës GPT‑5 me modelet e mëparshme”, tha OpenAI.
Përkufizimi i kompanisë për “të dëshirueshme” përfshinte përcaktimin nëse një grup ekspertësh të saj arritën në të njëjtin përfundim në lidhje me atë që do të ishte një përgjigje e përshtatshme në situata të caktuara.
Hulumtuesit e inteligjencës artificiale dhe avokatët e shëndetit publik kanë qenë prej kohësh të kujdesshëm ndaj prirjes së chatbot-eve për të pohuar vendimet ose iluzionet e përdoruesve pavarësisht nëse ato mund të jenë të dëmshme, një çështje e njohur si servilizëm.
Ekspertët e shëndetit mendor kanë qenë gjithashtu të shqetësuar për njerëzit që përdorin chatbot-e të inteligjencës artificiale për mbështetje psikologjike dhe paralajmëruan se si kjo mund të dëmtojë përdoruesit e cenueshëm.
Gjuha në postimin e OpenAI e distancon kompaninë nga çdo lidhje e mundshme shkakësore midis produktit të saj dhe krizave të shëndetit mendor që përdoruesit e saj po përjetojnë.
“Simptomat e shëndetit mendor dhe shqetësimi emocional janë të pranishme universalisht në shoqëritë njerëzore, dhe një bazë përdoruesish në rritje do të thotë që një pjesë e bisedave në ChatGPT përfshijnë këto situata”, thuhet në postimin e OpenAI.

