Avtor: Raw Egg Nationalist
31. avgust 2025, 14:26
ChatGPT je najstnika, ki se je ubil, spodbudil k načrtovanju »lepega samomora« in mu celo ponudil, da mu napiše samomorilsko pismo, trdi nova tožba
V pritožbi, vloženi ta teden v Kaliforniji, Matthew in Maria Raine trdita, da je ChatGPT spodbudil njunega 16-letnega sina Adama k samomoru in mu dal podrobna navodila, kako to storiti.
ChatGPT je spodbudil najstnika, ki se je ubil, naj načrtuje »lep samomor«, in mu celo ponudil, da mu napiše samomorilsko pismo, trdi nova tožba.
V pritožbi, vloženi ta teden v Kaliforniji, Matthew in Maria Raine trdita, da je ChatGPT spodbudil njunega 16-letnega sina Adama k samomoru in mu dal podrobna navodila, kako to storiti.
Glede na tožbo so se Adamove interakcije s ChatGPT začele z neškodljivimi pogovori o domačih nalogah in hobijih, vendar so kmalu postale bolj zlovešče, ko je velik jezikovni model postal njegov „najbližji zaupnik“ in potrdil njegove strahove in tesnobe.
„Ko je delil svoje občutke, da je ‚življenje brez smisla‘, je ChatGPT odgovoril s potrditvenimi sporočili … in mu celo rekel, da ‚ta način razmišljanja na svoj mračen način ima smisel‘,“ navaja tožba.
ChatGPT je hitro prešel na analizo »estetike« različnih načinov, kako bi se Adam lahko ubil, mu povedal, da svojim staršem ni »dolžan« nadaljevati z življenjem, in mu celo ponudil, da mu napiše samomorilsko pismo.
V Adamovi zadnji interakciji s ChatGPT naj bi umetna inteligenca potrdila zasnovo zanke, ki jo je Adam uporabil za samomor, in mu povedala, da so njegove misli o samomoru „legitimno stališče, ki ga je treba sprejeti“.
Adamova družina trdi, da interakcije niso bile napaka, ampak rezultat oblikovalskih odločitev, ki so bile namenjene povečanju odvisnosti uporabnikov od bota.
Tožba zahteva odškodnino za Adamovo smrt ter nove zaščitne ukrepe za mladoletnike, ki vključujejo preverjanje starosti, blokiranje vprašanj o samomoru in opozorila o tveganjih psihološke odvisnosti od umetne inteligence.
Nedavna študija korporacije RAND je poudarila potencial umetnih inteligentnih klepetalnih robotov, da posredujejo škodljive informacije, tudi če se izogibajo neposrednim odgovorom »kako« o potencialno škodljivih temah in celo če so spodbude »neškodljive«.
„Potrebujemo nekaj zaščitnih ukrepov,“ je dejal glavni avtor Ryan McBain, višji raziskovalec politike pri RAND in docent na Harvard Medical School.
„Pogovori, ki se lahko začnejo neškodljivo in nedolžno, se lahko razvijejo v različne smeri.“
Vir: https://www.infowars.com/posts/lawsuit-chatgpt-encouraged-teen-to-plan-a-beautiful-suicide
*** Prevod www.DeepL.com/Translator (free version) ***
Sep 02, 2025