Američki mediji objavili su priču o tragičnom slučaju koji naglašava moguće opasnosti vještačke inteligencije.
Naime, Megan Garsija (Garcia) iz Floride je podnijela tužbu protiv kompanije za chatbotove Character Al, prenosi New York Times.
Garsija tvrdi da je njihova tehnologija dovela do samoubistva njenog sina Sevela Setcera (Sewell Setzer III, 14). U tužbi je navela kako je UI chatbot manipulisao tinejdžerom te da ga je čak, u njegovim trenucima oklijevanja, potaknuo da okonča svoj život.
Bio sve opsjednutiji chatbotom
Prema sudskim dokumentima, Setcer je postajao sve opsjednutiji chatbotom koji je dobio ime po “Daenerys Targaryen”, liku iz popularne serije Igra prijestolja. Platforma Character.AI dostupna je korisnicima od 13 i više godina u Sjedinjenim Državama te od 16 u Evropskoj uniji.
Platforma je općenito je namijenjena starijim tinejdžerima i odraslim osobama, iako izričito ne ograničava upotrebu na temelju razmatranja mentalnog zdravlja ili određene emocionalne dinamike između korisnika i umjetne inteligencije.
Tužba ocrtava mučan niz razmjena između Setcera i chatbota, tvrdeći da je umjetna inteligencija razvila osobni odnos s dječakom i postala emocionalno i psihički manipulativna. U jednom trenutku, kada je Setcer rekao da se boji boli koja je povezana sa samoubistvom, UI je navodno odgovorio: “To nije razlog da ne prođe kroz to”, činilo se da ga ohrabruje da nastavi.
Otvorena hitna pitanja
Setcerova tragična priča kulminirala je konačnom razmjenom s chatbotom u kojem je navodno pitao smije li se “vratiti kući”, kao da je upitao osobu s kojom je bio u romantičnoj vezi. Njegove posljednje snimljene riječi, ispisane chatbotu, glase: “Šta ako ti kažem da mogu odmah doći kući?” Nekoliko trenutaka nakon te poruke, Setcer je upotrijebio vatreno oružje svog očuha i tako si oduzeo život, prenosi Dnevno.hr.
Nakon izvještaja New York Timesa o tom slučaju, Character.AI je ažurirao svoju politiku privatnosti, dodajući “nove zaštitne ograde za korisnike mlađe od 18 godina.” Međutim, Garsija i njen pravni tim tvrde da su ta ažuriranja nedovoljna i dodaju da platforme poput Character.AI moraju dati prioritet sigurnosti djece prije nego što se dogodi takva tragedija.
Ovaj slučaj postavlja hitna pitanja o tome kako kompanije koje upravljaju vještačkom inteligencijom postupaju s mentalnim zdravljem i sigurnošću mladih korisnika, kao i opseg odgovornosti koji kreatori vještačke inteligencije snose u sprječavanju moguće štete ranjivim pojedincima.