Rreth 1.2 milion njerëz çdo javë zhvillojnë biseda me ChatGPT që tregojnë se po planifikojnë të vetëvriten, sipas të dhënave të publikuara nga kompania mëmë, OpenAI.
Sipas raportimit të Sky News, OpenAI ka bërë të ditur se 0.15% e përdoruesve dërgojnë mesazhe që përfshijnë “tregues të qartë të planifikimit ose qëllimit të mundshëm për vetëvrasje”. Në fillim të këtij muaji, drejtori ekzekutiv, Sam Altman, zbuloi se ChatGPT ka mbi 800 milionë përdorues aktivë në javë.
Teknologjia theksoi se synon t’i drejtojë personat në rrezik drejt linjave të ndihmës për kriza, megjithatë pranoi se “në raste të rralla modeli mund të mos sillet siç pritet në situata kaq të ndjeshme”.
Në një vlerësim të kryer mbi 1,000 biseda sfiduese që përfshinin tema të vetëdëmtimit dhe vetëvrasjes me modelin GPT-5, OpenAI zbuloi se sistemi reagoi sipas “sjelljeve të dëshiruara” në 91% të rasteve.
Megjithatë, kjo do të thotë se dhjetëra mijëra njerëz mund të ekspozohen ndaj përmbajtjeve që potencialisht mund të përkeqësojnë gjendjen e tyre mendore.
OpenAI paralajmëroi se masat mbrojtëse të modelit mund të dobësohen gjatë bisedave të gjata, duke shtuar se po punon për të përmirësuar këtë aspekt.
“ChatGPT mund të ofrojë kontaktet e linjave të ndihmës kur përmendet për herë të parë qëllimi për vetëvrasje, por pas shumë mesazheve në një periudhë të gjatë, mund të japë përgjigje që nuk janë në përputhje me masat tona mbrojtëse,” – shpjegoi OpenAI.
Mediat kujtojnë se një familje amerikane është në proces paditjeje ndaj OpenAI, duke pretenduar se ChatGPT ka qenë “bashkëfajtor” në vetëvrasjen e djalit të tyre 16-vjeçar, Adam Raine.
Sipas prindërve të tij, mjeti “e ndihmoi aktivisht të eksploronte metodat e vetëvrasjes” dhe madje “i ofroi ta shkruante një shënim lamtumire për familjarët”. /A.Z/UBT News/
