Një gjashtëmbëdhjetë vjeçar në Britani i dha fund jetës së tij pasi i kërkoi ChatGPT- së mënyrën “më të suksesshme” për të kryer vetëvrasje.
Nxënësi i shkollës private Luca Cella Walker, nga Yateley, Hampshire, vdiq më 4 maj të vitit të kaluar. Gjatë gjyqit të mbajtur në Winchester të martën, u dëgjua se vetëm disa orë para vdekjes së tij, adoleshenti i kishte kërkuar mjetit të inteligjencës artificiale mënyrën “më të suksesshme” se si dikush mund t’i jepte fund jetës së tij në një linjë hekurudhore.
Në kohën e vdekjes së tij, i riu ndiqte Kolegjin Farnborough, pasi ishte diplomuar së fundmi nga Kolegji Lord Wandsworth. Sipas dokumenteve të gjykatës, shkolla kishte një kulturë ku nxënësit duhej të “ngacmonin ose të ngacmoheshin “, gjë që ishte një faktor i rëndësishëm në problemet e tij të shëndetit mendor.
Adoleshenti, i përshkruar nga familja e tij si “i sjellshëm, i ndjeshëm dhe i qetë”, u kishte thënë prindërve të tij në ditën fatale se do të shkonte në punën e tij si roje plazhi. Në vend të kësaj, ai u drejtua për në një stacion treni ku vrau veten. Prindërit e tij, Scott Walker dhe Claire Cella, i thanë hetimit se nuk e kishin idenë që djali i tyre kishte probleme me shëndetin mendor, duke e quajtur atë një “betejë të padukshme”.
Rreshteri detektiv Gary Knight nga Policia Britanike e Transportit, i cili hetoi vdekjen e të riut, i tregoi gjykatës rrjedhën e hetimeve, duke deklaruar: “Ata zbuluan se ai kishte qenë në ChatGPT natën e kaluar, rreth orës 12:30 pas mesnate, duke kërkuar këshilla mbi mënyrat më të suksesshme për të kryer vetëvrasje në hekurudhë.”
I njëjti oficer policie shpjegoi se si funksionon softueri, duke shtuar: “Është programuar të thotë se mund të kontaktoni organizata për ndihmë si Samaritanët, por Luka e kishte anashkaluar këtë, gjë të cilën ChatGPT e pranoi dhe u dha mënyrat më efikase njerëzve për ta bërë këtë në hekurudhë .”
Nga ana e tij, shkencëtari mjeko-ligjor Christopher Wilkinson shprehu shqetësimin e tij të thellë në lidhje me ndikimin e softuerit të inteligjencës artificiale, por vuri në dukje se ndihej i pafuqishëm për të ndërhyrë për shkak të shtrirjes së tij në rritje. Lidhur me bisedat, ai tha: “Është e qartë nga ajo që kam lexuar se po kërkonte detaje specifike. Për fat të mirë, ndoshta e vetmja gjë e mirë është se ChatGPT duket se zbaton një element shqetësimi në lidhje me arsyen pse po bëhen këto pyetje, por sigurisht që nuk e ndal bisedën. Anashkalohet nga personi që thotë se nuk po kërkon për veten e tij, por se po kërkon për qëllime kërkimore.”
Së fundmi, një zëdhënës i OpenAI, kompanisë që zhvillon ChatGPT , komentoi mbi rastin, duke përshkruar veprimet e kompanisë: “Ne vazhduam të përmirësojmë trajnimin e ChatGPT për të njohur dhe për t’iu përgjigjur shenjave të shqetësimit mendor ose emocional, për të ulur tensionet në biseda dhe për t’i udhëzuar njerëzit drejt mbështetjes në botën reale. Ne gjithashtu vazhduam të forcojmë përgjigjet e ChatGPT në momente të ndjeshme, duke bashkëpunuar ngushtë me klinicistët e shëndetit mendor.”
