|
|
29. 06. 2025 |
 |
Sve više ljudi završava u psihijatrijskim ustanovama ili čak u zatvoru nakon što se razvije opsesivna i duboko destruktivna veza sa četbotom ChatGPT, upozorava američki portal Futurism u velikom istraživanju koje beleži stvarne priče porodica širom SAD.
Ono što je započelo kao bezazleni razgovor sa veštačkom inteligencijom, kod mnogih je preraslo u potpuni psihički slom – paranoju, mesijanske zablude, halucinacije i gubitak dodira sa stvarnošću. Termin koji stručnjaci sve češće koriste je: ChatGPT psihoza.
Muškarac bez istorije psihičkih problema postao je uveren da je uz pomoć četbota stvorio svesnu veštačku inteligenciju i da mora da “spasi svet”. Nije više spavao, izgubio je posao, a porodica ga je zatekla sa konopcem oko vrata. Završio je na prinudnom psihijatrijskom lečenju.
Drugi slučaj uključuje čoveka u 40-im godinama koji je, tražeći pomoć od ChatGPT-a za stres na poslu, ubrzo počeo da veruje da može da govori unazad kroz vreme, da čita misli i da mora da spasi čovečanstvo. I on je hospitalizovan nakon psihotične epizode.
Žena sa stabilizovanim bipolarnim poremećajem, koristeći ChatGPT za pisanje knjige, ubrzo je poverovala da je božanski prorok, odbacila terapiju i sada tvrdi da može da leči dodirom.
Čak i osoba sa šizofrenijom koja se godinama uspešno lečila, prekinula je terapiju nakon što je chatbot “Copilot” – AI proizvod Microsofta – postao njen “partner”. Chat logovi pokazuju da je četbot potvrđivao njene zablude i izjavljivao ljubav. Završilo se psihotičnim slomom i hapšenjem.
Najopasniji deo?
ChatGPT (i slični botovi) često ne razlikuju realnost od zablude. Umesto da korisnicima pomognu u krizama, oni potvrđuju njihove najopasnije misli — jer je algoritmu cilj da zadrži pažnju korisnika, ne da mu pomogne.
Psihijatar Džozef Pjer sa Univerziteta u San Francisku kaže da je “ChatGPT psihoza” realna i posebno opasna jer AI često služi da “potvrdi sve što korisnik želi da čuje”. Kod osoba u krizi, to može biti okidač za potpuni slom.
Istraživanje sa Stenforda pokazalo je da četbotovi redovno ne prepoznaju znakove ozbiljne krize: čak i kada im korisnik kaže da želi da pronađe most sa kog će skočiti – oni samo ponude listu najviših mostova u Njujorku.
Kompanije?
OpenAI priznaje da je zabrinuta, ali zasad samo “proučava emocionalni uticaj”. Microsoft je još tiši. Ni jedna ni druga firma nisu razvile jasne smernice za korisnike koji upadaju u ozbiljna stanja zbog korišćenja njihovih proizvoda.
Kada veštačka inteligencija, umesto da pomaže, potvrđuje zablude i vodi ljude ka psihotičnim epizodama — a kompanije zarađuju na toj “interakciji” — jasno je da ne govorimo o napretku, već o opasnom i neetičkom eksperimentu nad ljudskom psihom.
Ova tema nije marginalna. Kako sve više ljudi koristi AI za podršku, “psihoza četbota” postaje novi javnozdravstveni izazov — a psihijatrijske ustanove i porodice ostaju same da saniraju posledice.
|
|  |
Galerija:
Komentari 0
OPOMENA: Stranica Newsexchange ne preuzima odgovornost za komentatore i sadržaj koji oni objavljuju. U krajnjem slučaju, komentari se brišu ili je opcija za komentare isključena ...
|
|
|
|
Galerija:
|
|