LIFESTYLE

Gdje nas vodi razvoj umjetne inteligencije

Avaz.ba

31.10.2017

Čovjek je kroz historiju oduvijek bio izvrstan u korištenju alata. Od rudimentarnih primjena oštrog kamena u stilu noža i izuma kotača pa do modernih alata širokog spektra koji su omogućili čovjeku da vlada prirodnim resursima i stvori dosad najperspektivnije uvjete za život.

Da nije bilo industrijskih revolucija i inovacija, teško da bi se stvorila dovoljna količina hrane, opreme, lijekova i svih drugih dobara bez kojih ljudska vrsta ne bi opstala, a kamoli napredovala. Je li se čovjek toliko usavršio u izradi alata da nam slijedi budućnost u kojoj će se alati poput umjetne inteligencije ili robota izmaknuti čovjekovoj kontroli i početi odlučivati za sebe i u svoju korist, a ne na dobrobit svojeg kreatora?

Posljednjih godina ove teze možemo vidjeti i izvan hollywoodskih filmova i TV serija. Neki od renomiranih tehnoloških stručnjaka, pa i znanstvenika poput Elona Muska, Stephena Hawkinga, Billa Gatesa i drugih, počeli su javno upozoravati na potencijalne opasnosti od umjetne inteligencije i zazivati odgovorno razvijanje. Nedavno je Elon Musk pisao da je umjetna inteligencija veća opasnost od Sjeverne Koreje. A čak se i javno posvađao s Markom Zuckerbergom, šefom Facebooka, koji upotrebljava algoritme bazirane na strojnom učenju, esencijalnom alatu za razvijanje boljeg softvera koji uči iz golemih baza podataka.

Ko je kriv ako samovozeće vozilo napravi štetu?

Jedno od pitanja koja se posebno postavljaju jest može li čovjek naučiti umjetnu inteligenciju moralitetu i etici. Također, smije li se dopustiti robotu da samostalno odlučuje o životu nekog čovjeka? U iščekivanju smo uvođenja serije autonomnih vozila bez ljudskog vozača. Tko će snositi odgovornost za nesreću koju prouzroči samovozeće vozilo, putnik, vlasnik ili dizajner takvog stroja? Što ako je vojni robot na ratištu i mora odlučiti hoće li spašavati jednog generala ili pet vojnika, a ima vremena samo za jedno od toga. 

Na ova pitanja još nema točnih odgovora, no barem na temi samovozećih automobila imamo podatke da bi takva vozila prouzročila znatno manje prometnih nesreća nego što to čine ljudi.

Mnogi stručnjaci koji se bave razvojem ili proučavanjem umjetne inteligencije usporedili bi je s djetetom koje stječe vrijednosti odgojem, promatranjem i skupljanjem iskustva. Čovjek razvija osjećaj etike promatrajući ponašanja drugih ljudi. Tako je jedan projekt razvoja umjetne inteligencije u Češkoj – GoodAI (dobra umjetna inteligencija) uveo digitalnog mentora koji nadzire proces učenja i donošenja odluka softvera. 

- Ljudi ne puštaju svoju djecu da sami prelaze cestu nego ih godinama uče da paze na automobile i semafore. Tako i mi postupno umjetnoj inteligenciji uvodimo sve kompleksnije scenarije, - izjavio je osnivač centra GoodAI Marek Rosa za Economist. Da je Microsoft pratio njihov primjer postupnog razvoja, možda bi izbjegao lanjski debakl s automatskim Twitter profilom koji je zastranio u najniže razine internetske komunikacije. Na taj primjer podsjetio nas je Marko Kos, asistent na Katedri za etiku pri Odsjeku za filozofiju zagrebačkog Filozofskog fakulteta. 

- Tej Tvits (TayTweets) neslavno je ugašen budući da je u nepunih 12 sati došao od mišljenja "ljudi su super" do mišljenja "Hitler je bio u pravu, mrzim Židove", učeći na iskustvu internetske komunikacije. Pojedinci koji su pratili razvoj chatbota Tay zamijetili su već u prva 24 sata da je komunikacija na internetu zabrinjavajuća. Tej bez "kućnog odgoja" koji bi usadio osnovne parametre od kojih ne može odstupiti, vjerojatno nema drugih opcija nego postati rasistička i seksistička ličnost", zaključuje Kos.


"Neće ih biti briga'"

On vjeruje da postoji mogućnost da čovjek razvije umjetnu inteligenciju koja će oponašati ili biti slična čovjekovoj i ta vjerovatnost raste iz dana u dan. No, upozorava da to ne znači da će umjetna inteligencija prihvatiti etička načela. "Činjenica da neko biće posjeduje intelekt, ove ili one vrste, ne garantira da razumije pojmove "moral" i "etika". 

Postoje mnoge pretpostavke zašto umjetna inteligencija neće moći interiorizirati etička načela ili moralitet, iako će vjerojatno razumjeti njihove rječničke definicije. Nedavno preminuli američki filozof Hubert Dreyfus u jednom od svojih intervjua sažeo je svoj odgovor u sljedeću tvrdnju: "Neće ih biti briga." Moj stav nadovezuje se na Drejfusov (Dreyfusov) – intelekt ne garantira mogućnost emotivne investicije i mogućnost metaforičkog mišljenja. Odnosno, naša mogućnost da rezoniramo na visokoj razini o objektima oko sebe ne garantira da posjedujemo razinu mišljenja u kojoj preko asocijacija koje čine jedinstvenu sliku našeg unutarnjeg života stvaramo scenarije koji na metaforičkoj razini imaju iste interpretacije. Životi drugih pojedinaca u društvu možda su nam strani, ali u svojoj suštini, oni su ujedno i naši životi. Jedinstvena naličja istog fenomena ljudskog života. Pretpostavljam da umjetna inteligencija u tom kontekstu može samo oponašati život nekog pojedinca, no ne vjerujem da će živjeti vlastitu interpretaciju života. 

Na tom tragu možemo problematizirati i pojam odgovornosti. Tko će biti odgovoran za nemoralno ili štetno djelovanje umjetne inteligencije po život nekog pojedinca, društva u cjelini ili okoliša", pita se Kos, a dodaje i još jedan potencijalni problem: "Čak ni u najoptimističnijoj projekciji ne smijemo zaboraviti na mogućnost hakiranja. Analiza razvoja znanstvenih otkrića uči nas da naše djelovanje u sadašnjosti katkada ima nepredvidive, odgođene posljedice za našu budućnost." Jedan od poznatih primjera razvoja umjetne inteligencije je IBM-ov Watson, koji je daleko dogurao otkad je 2011. pobijedio u kvizu Izazov. Ima niz primjena, a Watson za onkologiju mogao bi postati iznimno koristan asistent liječnicima u borbi protiv raka. Iz IBM-a su nam poslali svoj manifest pravila po kojima svi njihovi programi uvijek moraju ostati pod ljudskom kontrolom. 

– Mi radimo više na "proširenoj inteligenciji" nego na "umjetnoj inteligenciji". To je ključna razlika između sustava koji pojačavaju i povećavaju ekspertize čovjeka (proširena inteligencija) i onih sustava koji pokušavaju replicirati ljudsku inteligenciju (umjetna inteligencija). Naše šire područje djelovanja s proširenom inteligencijom volimo zvati "kognitivnim računalstvom". Kognitivno računalstvo širok je paket mogućnosti zasnovanih na tehnologijama poput strojnog učenja, tehnologijama zaključivanja i odlučivanja, jezičnih i vizualnih tehnologija, tehnologija s kojima se čovjek povezuje, na supersnažnim računalima i novim računalnim arhitekturama i uređajima. Sve ove mogućnosti dizajnirane su da riješe širok spektar praktičnih problema, da povećaju produktivnost i začnu nova otkrića u cijelom nizu industrijskih grana. Posvećeni smo stvaranju sustava koji polučuju povjerenje među developerima i korisnicima umjetne inteligencije. 

Vode nas kognitivni principi koji obvezuju i IBM i sve one koji ulažu novac u umjetnu inteligenciju da stvaraju tehnologiju koja je etički odgovorna. Ti principi uključuju svrhu, transparentnost i vještine. Svrha te tehnologije jest proširiti inteligenciju čovjeka. Neće AI sustavi postati svjesna bića, ali bit će ugrađeni u procese poslovanja i društva. I ostat će pod ljudskom kontrolom. Da bismo takve sustave maksimalno iskoristili, moramo imati povjerenja u njih – poručila je Hariet Grin (Harriet Green), direktorica Watson Internet of Things jedinice. IBM se deklarativno u svojim pravilima obvezao da će uvijek transparentno prikazati primjenu umjetne inteligencije u kognitivnim sustavima koje razvija. Igor Čatić, profesor emeritus, umirovljeni profesor na Fakultetu strojarstva i brodogradnje u Zagrebu, podsjeća da na pitanje razvoja umjetne inteligencije filozofi gledaju kroz jednu prizmu, a inženjeri kroz drugu. No uvjeren je da se razvoj umjetne inteligencije ne može zaustaviti. "Previše je ulaganja da bi se ti procesi zaustavili", zaključuje prof. Čatić. Jedno je sigurno, debata će se nastaviti, a to možda dovede i do međunarodnih pravila razvoja umjetne inteligencije.  


Vlasnik autorskih prava © avaz-roto press d.o.o.
ISSN 1840-3522.
Zabranjeno preuzimanje sadržaja bez dozvole izdavača.