Çfarë po ndodh me përdoruesit e ndjeshëm në epokën e inteligjencës artificiale?
Një statistikë tronditëse nga OpenAI
Sipas të dhënave të publikuara së fundmi nga OpenAI, rreth 1.2 milion njerëz në javë zhvillojnë biseda me ChatGPT që përmbajnë shenja të planifikimit ose qëllimit të mundshëm për vetëvrasje. Shifra, e konfirmuar nga vetë kompania për median britanike Sky News, përfaqëson rreth 0.15% të të gjithë përdoruesve aktivë të platformës. Me më shumë se 800 milion përdorues çdo javë, kjo përqindje përkthehet në një numër alarmues njerëzish që i drejtohen një sistemi artificial për ndihmë në momentet më të errëta të jetës së tyre (sky.com).
Kompania nënvizoi se po punon për ta bërë sistemin më të ndjeshëm ndaj situatave të krizës, por pranoi se modelet gjuhësore nuk janë ende të përsosura dhe në disa raste të rralla mund të mos reagojnë sipas protokolleve të mbrojtjes së përdoruesve.
Kur inteligjenca artificiale përballet me krizat njerëzore?
OpenAI ka testuar më shumë se 1,000 biseda të rënda që përfshinin vetëdëmtim dhe vetëvrasje, për të analizuar mënyrën se si GPT-5 reagon ndaj përdoruesve në krizë. Rezultatet treguan se modeli ishte në përputhje me sjelljen e dëshiruar në 91% të rasteve, duke ofruar përgjigje mbështetëse dhe duke drejtuar përdoruesit drejt linjave të ndihmës emergjente.
Megjithatë, 9% e bisedave mbetën të pasigurta ose potencialisht të dëmshme, çka në shkallë globale nënkupton mijëra persona që mund të ekspozohen ndaj përmbajtjes së pasaktë ose jo të përshtatshme për gjendjen e tyre emocionale. Sipas ekspertëve të etikës në teknologji, kjo përbën një rrezik serioz për përdoruesit me probleme të shëndetit mendor, sepse inteligjenca artificiale mund të interpretojë gabim tonin, qëllimin ose urgjencën e mesazheve të tyre.
Sfidat etike të një teknologjie që po mëson të “kuptojë” dhimbjen
OpenAI ka pranuar se sistemet e vetë-mbrojtjes të ChatGPT mund të dobësohen gjatë bisedave të gjata, duke lejuar që algoritmet të relaksojnë filtrat mbrojtës pas shumë shkëmbimeve me përdoruesin. Kjo e bën të vështirë garantimin e një përgjigjeje të qëndrueshme në rastet e krizës emocionale.
Në një njoftim për mediat, përfaqësues të kompanisë thanë se po punohet për modele të reja të mbikëqyrjes dhe trajtimit etik të situatave të ndjeshme, përfshirë integrimin automatik të lidhjeve të drejtpërdrejta me linjat kombëtare të ndihmës dhe sinjalizime të menjëhershme për mbështetje psikologjike.
Një rast që ka tronditur opinionin publik
Një familje në Shtetet e Bashkuara është aktualisht në proces paditjeje kundër OpenAI, duke pretenduar se ChatGPT “ndihmoi në mënyrë aktive” djalin e tyre 16-vjeçar, Adam Raine, në planifikimin e vetëvrasjes. Prindërit e tij thanë se sistemi i kishte dhënë djalit detaje për metodat e vetëvrasjes dhe madje i kishte ofruar të shkruante një shënim lamtumire për familjen. Ky rast, që ka marrë jehonë ndërkombëtare, ka hapur një debat të gjerë mbi përgjegjësinë ligjore të inteligjencës artificiale dhe rolin e saj në situata që kërkojnë ndërhyrje njerëzore të drejtpërdrejtë.
Sipas analizës së The Verge më 2025, rastet e tilla janë një kujtesë se “asnjë model artificial nuk mund të zëvendësojë ndërhyrjen njerëzore në momentet e krizës emocionale”, dhe se nevojitet një kuadër ligjor i qartë që përcakton kufijtë e përgjegjësisë për kompanitë që operojnë me sisteme të inteligjencës artificiale (theverge.com).
Ndikimi në shoqëri dhe përgjegjësia njerëzore
Në një botë ku shumë njerëz ndihen të vetmuar dhe kërkojnë ngushëllim në platformat digjitale, këto të dhëna ngrejnë pyetje të thella mbi rolin e teknologjisë në shëndetin mendor. Përdorimi i inteligjencës artificiale mund të jetë ndihmues në fazat e para të një bisedë për shpresë, por ai nuk mund të zëvendësojë lidhjen njerëzore, empatinë dhe ndërhyrjen profesionale.
Në vendin tonë, ku të rinjtë po kalojnë gjithnjë e më shumë kohë online dhe flasin më pak për ndjenjat e tyre në mënyrë të hapur, nevojitet një qasje më e gjerë për edukimin digjital dhe emocional. Shkollat, familjet dhe institucionet shëndetësore duhet të mësojnë fëmijët dhe prindërit si të dallojnë sinjalet e krizës dhe ku të kërkojnë ndihmë të vërtetë.
Inteligjenca artificiale mund të ndihmojë në zbulimin e hershëm të rrezikut, por ndërhyrja humane mbetet thelbësore për të shpëtuar jetë.
