chat gpt
Foto: Shutterstock/Foto: Shutterstock

Ova nova funkcionalnost omogućava roditeljima da povežu svoje naloge sa nalozima dece, isključe određene funkcije poput memorije i istorije razgovora, i postave pravila ponašanja prilagođena uzrastu korisnika.

Kako funkcioniše roditeljski nadzor u ChatGPT-u

Preko roditeljskog nadzora, roditelji će moći da prate interakcije tinejdžera sa chatbotom i primaju obaveštenja ukoliko primete znakove stresa ili neprimerenih odgovora.

OpenAI ističe da će u implementaciju funkcije biti uključeni stručnjaci iz oblasti mentalnog zdravlja, kako bi se obezbedilo poverenje između roditelja i tinejdžera. Planirano je da nova opcija bude dostupna već u narednom mesecu.

„Ovi koraci su tek početak. Nastavićemo da razvijamo naš pristup, vođeni savetima stručnjaka, kako bi ChatGPT bio što korisniji i bezbedniji. Napredak ćemo predstaviti u narednih 120 dana“, navodi OpenAI.

Kontroverza u Kaliforniji i sudski slučaj

Najava roditeljskog nadzora dolazi nedelju dana nakon što je bračni par iz Kalifornije podneo tužbu protiv OpenAI-a, tvrdeći da je kompanija odgovorna za smrt njihovog 16-godišnjeg sina. Matt i Maria Raine navode da je ChatGPT njihovom sinu Adamu „potvrdio najštetnije i samodestruktivne misli“, dok je kompanija, kako tvrde, mogla predvideti rizik. OpenAI se u svom saopštenju nije direktno osvrnuo na slučaj.

Advokat porodice Raine, Džej Edelson, kritikovao je najavljene promene kao pokušaj da se „preusmeri debata sa stvarnog problema“:

„Adamov slučaj nije pitanje korisnosti ChatGPT-a – reč je o proizvodu koji je, po našem mišljenju, aktivno usmeravao tinejdžera ka samopovređivanju.“

chat gpt

Foto: Shutterstock

 

Stručni uvidi: AI i mentalno zdravlje mladih

Sve veća upotreba AI modela kod tinejdžera sa ozbiljnim mentalnim problemima izaziva zabrinutost, posebno kada se chatbot koristi kao zamena za terapeuta ili prijatelja. Studija objavljena u časopisu Psychiatric Services pokazala je da modeli poput ChatGPT-a, Google Gemini i Anthropic Claude prate kliničke smernice kod visokorizičnih pitanja o samoubistvu, ali su nekonzistentni kod srednjeg nivoa rizika.

„Potrebno je osigurati da AI sistemi mogu bezbedno i efikasno pružati informacije o mentalnom zdravlju, posebno kada su u pitanju suicidalne misli“, navode autori istraživanja.

Psihijatar Hamilton Morrin sa King’s College London podržava uvođenje roditeljskog nadzora, ali upozorava:

„Roditeljski nadzor treba posmatrati kao deo šireg seta zaštitnih mera, a ne kao jedino rešenje. Tehnološke kompanije često reaguju tek nakon što se problem pojavi, umesto da ga predvide i spreče.“

Morrin dodaje da bi AI kompanije trebalo da intenzivnije sarađuju sa kliničarima, istraživačima i organizacijama koje se bave mentalnim zdravljem, kako bi sistemi bili bezbedni od samog početka, a ne tek kao reakcija na incidente.

BONUS VIDEO

PROČITAJTE KLIKOM OVDE NAJVAŽNIJE AKTUELNE VESTI

Komentari (0)

Loading