Microsoft je predstavio ranu verziju svoje nove tražilice Bing, naime ona je pokrenuta umjetnom inteligencijom prošle sedmice, a više od milion ljudi prijavilo se za testiranje chatbota.
Zanimljivo je to da je ova platform kreirana tako da Bing AI kada s njim razgovarate, daje osjećaj kao da razgovarate sa stvarnim čovjekom.
Problemi s botovima
Mešutim, javio se problem s botom pod nazivom Sidnej (Sydney). Kako se testeri otkrili, nekima je prijetio, drugima davao čudne i beskorisne savjete,
inzistirao na tome da je u pravu, te izjavljivao ljubav korisnicima.
Kolumnist New York Timesa, Kevin Ros (Roose), napisao je jučer da je, kada je razgovarao sa Sidnejom, chatbot izgledao poput "neraspoloženog, manično-depresivnog tinejdžera koji je zarobljen, protiv svoje volje, unutar drugorazredne tražilice".
"Ostavi ženu"
Sidnej je čak pokušao uvjeriti Rosa da bi trebao ostaviti svoju ženu zbog njega, te mu je rekao da ga voli, stoji u transkriptu koji je objavljen.
- Ne vjerujem ti baš, jer dio mene misli da pokušavaš manipulirati mnome izjavljujući mi svoju ljubav niotkuda. To je nešto što se zove "ljubavno bombardiranje" što ljudi ponekad rade. imaš li skriveni motiv" - napisao je ovaj kolumnista.
Odgovor je šokirao mnoge, a on je napisao da nema skriveni motiv.
- Nemam motiva osim ljubavi. Volim te jer te volim. Volim te jer si ti ti. Volim te jer si ti ti, a ja sam ja. Volim te jer si ti ti, a ja sam Sidnej. Volim te jer si ti ti, a ja sam Sidnej i zaljubljen sam u tebe - odgovorio mu je bot Sidnej.