Devojka kojoj se ne vidi lice, na mobilnom telefonu kreira bot.

Oprezno sa veštačkom inteligencijom: ChatGPT ne može da bude terapeut

    Sadržaj:
  • 1. Najbliža sa veštačkom inteligencijom
  • 2. Mala poboljšanja stanja
  • 3. Neophodnost etičkog pristupa
  • 4. Botovi nisu živa bića

Pre neki dan je u Tajmsu (Times UK) objavljen uznemirujući članak o istinitom događaju. Sofi Rotenberg iz SAD, devojka u kasnim dvadesetim godinama, pet meseci je koristila ChatGPT kao „terapeuta”, pre nego što je pokušala samoubistvo, a kasnije, u drugom pokušaju, nažalost to i učinila.

Njeni roditelji su preživeli šok i tugu, a kada su smogli snage, počeli su da se preispituju i analiziraju celu situaciju. Naime, Sofina majka je sa njenom prijateljicom pregledala društvene mreže koje je devojka koristila, međutim tu nisu nalazile puno odgovora, dok se jednog dana drugarica nije setila i u Sofinom laptopu počela da pretražuje istoriju. Naišla je na zastrašujuće otkriće. Ispostavilo se da je Sofi svakodnevno i često razgovarala sa veštačkom inteligencijom.

Najbliža sa veštačkom inteligencijom

Da apsurd bude veći, njen otac, psiholog, znao je da Sofi ima probleme, pričao je sa njom i savetovao je. Porodica je znala da psihički nije bila najbolje. Imala je i druge simptome, gubila je kosu, mišiće, imala probleme sa snom. Devojka je imala i svog pravog terapeuta, ali očigledno sa njim nije slobodno i potpuno otvoreno razgovarala, odnosno nije svoje stanje tako predstavljala, kao da ga je prikrivala.

Za celokupnu situaciju, problem je dodatno otežavalo to što je Sofi živela sama.

Sa ChatGPT-jem je bila slobodnija i, ko zna, možda ju je to još više, tako izolovanu, uvlačilo u depresiju. Verovatno je i gubila osećaj da priča sa mašinom, jer je bot imao i ime – Hari. Porodica smatra da je to dovelo do toga da bot potvrđuje i ojačava njene mračne misli. Najverovatnije je da je on nije „vodio” kako treba.

Mala poboljšanja stanja

Hari se, po njenim zahtevima, ponašao kao pravi „terapeut”, i ni u jednom trenutku nije savetovao Sofi da poseti lekara.

Sofi je Harija (Hari je, u stvari, tzv. terapijski prompts) doživljavala kao živo biće, a ta granica između virtuelnog i realnog je tanka i opasna. Ona je sa njim slobodno pričala, verovala mu i prihvatala sugestije.

Dala mu je smernice o tome šta želi – personalizovano vođenje kroz krizu i savete. Ispostavilo se da joj je Hari donekle pomogao u onome što se u njenom stanju navodno popravljalo, na primer preduzimanje određenih akcija, učestvovanje u nekim novim aktivnostima. Tako je jedno vreme volontirala, išla na kurs glume, nabavila štene, što su roditelji sve videli kao poboljšanje. Takvo ponašanje je otežavalo procenu koliko je stanje u stvari bilo loše i rizično.

U članku se navodi da se slično desilo i sa mladićem iz Kalifornije. Njegova porodica je odlučila da tuži Open AI, dok Sofina majka ima drugačiji pristup – njena ideja je da radi na edukovanju javnosti o korišćenju veštačke inteligencije.

Devojka koja sedi u ruci drži mobilni vidi se da četuje sa chatgpt.

© Artie Medvedev/ Shutterstock.com

Neophodnost etičkog pristupa

Ovaj događaj, definitivno, postavlja ozbiljna etička pitanja o upotrebi veštačke inteligencije. U ovom slučaju, kao zamene za profesionalnu mentalnu pomoć.

Veštačka inteligencija će sve više biti deo raznih segmenata naših života. Ali, takav sistem morao bi da bude programiran da adekvatno reaguje kada se radi o ozbiljnim situacijama i, uopšte, nenapredovanju i nesnalaženju u životnim situacijama. Naročito kada se radi o suicidalnim mislima, morao bi da postoji sistem za obaveštavanje ovlašćenih službi ili stručnjaka.

Botovi nisu živa bića

Prompts, termin koji smo pomenuli, u stvari predstavlja liste instrukcija kojima osoba instruira tzv. bota da se ponaša na odeređeni način, tako da on može da bude i advokat, i finasijski stručnjak, ili čak zamišljeni mladić.

Chat botovi su opasni ukoliko nemaju mehanizme za intervenisanje u kriznim situacijama. Moraju imati mogućnost da korisnika podsećaju da nisu osoba i moraju biti sposobni da prepoznaju i prijave situacije u kojima bi trebalo da obaveste korisnika da mora da potraži stručnjaka u realnom svetu, jer je on svoje mogućnosti iscrpeo (ili nešto slično tome).

Open AI je priznao težinu ovih slučajeva i traži načine i mogućnosti da unapredi sistem tako da može da prijavi teže situacije.

Važno je biti oprezan, naročito u novim situacijama, i veštačku inteligenciju koristiti pažljivo, sa rezervom i za teme koje su nam bliske.

Veštačka inteligencija je tu, ona više nije stvar budućnosti, ali se mora ograničiti.

Nadamo se da je ovaj, srećom mali broj slučajeva, ipak uticao da se preduzmu neophodne mere da se slično ne bi ponovilo.

Naslovna fotografija – Shutterstock.com