Menadžerica u kompaniji za umjetnu inteligenciju OpenAI izazvala je nedavno zaprepaštenost napisavši da je upravo imala „prilično emotivnu, intimnu konverzaciju“ s naširoko prisutnim chatbotom svoje tvrtke.
Nisam ranije probala terapiju, ali ovo je vjerovatno to – objavila je Lillian Weng na društvenoj mreži X (nekadašnji Twitter), izazivajući bujicu negativnih komentara koji je optužuju kako potcjenjuje težinu psihičke bolesti.
Međutim, njezino viđenje interakcije sa chatbotom ChatGPT može se objasniti jednom verzijom placebo efekta, piše MedicalXpress.
Istraživači iz Masachusetskog instituta za tehnologiju (MIT) i Državnog sveučilišta Arizone zatražili su od više od 300 sudionika studije da stupe u interakciju s programima umjetne inteligencije za psihičko zdravlje i pripremili ih za ono što mogu očekivati.
Nekima je rečeno kako je chatbot suosjećajan, drugima da je manipulativan, a trećoj grupi da je neutralan.
Bilo je mnogo vjerojatnije da će oni kojima je rečeno da je chatbot brižan vidjeti svog chatbot-terapeuta kao dostojnog povjerenja.
Iz ove studije se vidi kako je umjetna inteligencija do neke mjere stvar subjektivnog shvaćanja.
Nove kompanije već godinama nude programe umjetne inteligencije koji pružaju terapiju, društvo i drugu podršku psihičkom zdravlju – i to je veliki biznis.
Međutim, ima mnogo kontroverzi u tom poslu.
Kao i u slučaju svakog drugog sektora koji bi umjetna inteligencija mogla poremetiti, kritičari su zabrinuti kako će roboti zamijeniti ljudsku radnu snagu umjesto da joj budu dopuna.
Što se psihičkog zdravlja tiče, vlada zabrinutost da roboti vjerovatno neće dobro uraditi posao.
Doprinoseći općem strahu zbog umjetne inteligencije, neke aplikacije na polju psihičkog zdravlja imale su loše trenutke u nedavnoj prošlosti.
Korisnici „Replike“, popularnog virtualnog prijatelja ponekad reklamiranog kako pomaže psihičkom zdravlju, dugo su se žalili da taj program može biti opsjednut seksom i okrutan.
Američka neprofitna kompanija „Koko“ je u veljači izvela eksperiment s 4.000 korisnika nudeći savjetovanje pomoću modela GPT-3, zaključujući kako automatski odgovori jednostavno ne funkcioniraju kao terapija.
-Simulirana empatija je vrlo čudna, prazna – napisao je osnivač te tvrtke Rob Moris.
Njegovi nalazi su slični nalazima istraživača iz MIT-a i Sveučilišta Arizone, koji su rekli kako su neki sudionici iskustvo s chatbotom opisali kao „razgovor sa zidom“.
Međutim, Moris je bio prinuđen braniti se nakon rasprostranjenih kritika na račun eksperimenta, uglavnom zbog toga što nije bilo jasno da li su korisnici bili svjesni svog sudjelovanja.
Ideja chatbota kao terapeuta je tijesno vezana s početcima te tehnologije iz 60-ih. Prvi chatbot ELIZA razvijen je kao simulacija jednog tipa psihoterapije.
ELIZA je korištena kod polovine sudionika novog istraživanja, a GPT-3 kod druge polovine. Iako je efekt bio mnogo jači sa GPT-3, korisnici pripremljeni za pozitivnost ipak su generalno smatrali kako je ELIZA dostojna povjerenja.
-Način na koji je umjetna inteligencija predstavljena društvu ima značaj jer mijenja način na koji se umjetna inteligencija doživljava – kaže se u studiji. Možda je poželjno da se korisnik pripremi da ima niža ili negativnija očekivanja.