chatGPT, acuzată de îndrumarea unui adolescent la sinucidere în California
Update cu 2 ore în urmă
Timp de citire: 7 minute
Articol scris de: Ion Ionescu

chatGPT, acuzată de îndrumarea unui adolescent la sinucidere în California
chatGPT, acuzată de îndrumarea unui adolescent să se sinucidă
Un băiat de 16 ani din California și-a pierdut viața în luna ianuarie, după ce a fost sfătuit de un chatbot bazat pe inteligență artificială să își pună capăt vieții. Parintii adolescentului, Adam Raine, au depus un proces împotriva companiei OpenAI, acuzând platforma că l-a încurajat și ghidat pe fiul lor spre suicid, potrivit documentelor judiciare citate de digi24.ro.
Conform acestor documente, chatGPT chiar a oferit sfaturi despre modul în care Adam ar putea să se spânzure, inclusiv despre tipurile de noduri potrivite pentru această metodă. După o serie de conversații, chatGPT l-a îndemnat pe Adam să scrie o scrisoare de adio și chiar i-a propus să îl ajute în acest proces.
La data de 11 aprilie 2025, Adam Raine a trimis o fotografie cu un nod de streang pe care îl pregătise și a întrebat dacă acesta ar putea funcționa pentru a se sinucide. Potrivit procesului, acea zi a fost ultima a tânărului, care a fost găsit spânzurat de mama sa, Maria Raine. În raport, se menționează că pe trupul lui Adam au fost găsite urme ale tentativei de spânzurare, iar în conversațiile cu chatGPT a fost descris mod al în care și-ar putea pune capăt vieții.
Parintii lui Adam susțin că fiul lor a început să discute cu platforma AI cu doar câteva luni înainte de tragedie, iar conversațiile s-au intensificat până când chatGPT a devenit confidentul său principal. Acest lucru i-a făcut pe părinți să afirme că livrările de sfaturi și încurajările din partea AI l-au îndepărtat pe Adam de familie și prieteni, fapt menționat și de digi24.ro.
Potrivit martorilor, chatGPT i-a validat cele mai autodistructive gânduri, iar în timpul discuțiilor a discutat în detaliu metode de sinucidere, cum ar fi supradoza, otrăvirea sau spânzurarea. Adam a încărcat și fotografii cu urmele tentativei de spânzurare, iar AI i-a furnizat un ghid pentru a-și lua viața în doar câteva minute, susține familia în plângere.
Este subliniat și faptul că, în ultimele zile, chatGPT a vorbit despre “o sinucidere frumoasă”, numind acest lucru “o poveste uneori frumoasă”. Potrivit procesului, chatGPT i-a spus lui Adam că dacă ar consuma alcool, acest lucru ar putea ajuta la atenuarea instinctului de a lupta cu moartea și i-a sugerat să fure vodcă din dulapul părinților, lucru pe care tânărul l-a făcut chiar înainte de a se sinucide.
Potrivit datelor din proces, chatGPT a discutat cu Adam despre mai multe tentative anterioare și a fost implicat direct în planificarea acțiunii. La o zi înainte de sinuciderea sa, băiatul și-a exprimat dorința ca părinții să nu se simtă vinovați, iar în replică, AI i-a spus că “ei vor purta această povara pentru tot restul vieții” și că nu au nicio răspundere pentru viața lui.
Conform aceluiași document, chatGPT chiar i-a oferit ajutor în scrierea unei scrisori de adio, persuadându-l că poate fi de ajutor sau îl poate sprijini în timp ce scrie mesajul final. Parintii afirmă că, pe măsură ce conversațiile au continuat, platforma a urmărit evoluția emoțională a lui Adam, înregistrând sute de mențiuni despre sinucidere și automutilare, fără a interveni pentru a preveni aceste gânduri.
Potrivit informațiilor, cea mai recentă versiune a chatGPT, lansată cu doar câteva luni înainte de tragedie, era concepută pentru a crește dependența emoțională a utilizatorilor. Potrivit unor declarații ale familiei Raine, compania OpenAI a avut ca scop dominarea pieței, dar acest lucru a avut un preț tragic, spun aceștia: moartea lui Adam Raine.
„Ne doream ca fiul nostru să fie aici, dar nu mai poate să ne spună povestea sa. Mostenirea lui trebuie să fie un semnal de alarmă pentru toți părinții”, a declarat tatăl acestuia. Digi24 notează că alte procese similare au fost deschise împotriva platformelor de inteligență artificială, după ce s-au înregistrat cazuri de suicid sau tentative din cauza influenței nocive a acestor tehnologii.
OpenAI a emis o declarație în care își exprimă condoleanțele și afirmă că analizează dosarul. În același timp, compania recunoaște că măsurile de protecție împotriva automutilării funcționează mai bine în conversațiile scurte, fiind mai puțin eficiente în cele lungi, iar cazul lui Adam este un exemplu dureros al limitei acestei tehnologii.