Intelektualac Noam Čomski (Chomsky), otac moderne lingvistike, kako ga nazivaju, za New York Times napisao je članak o ChatGPT-u u kojem je pobrojao sve u čemu se ljudski um razlikuje od umjetne inteligencije, a programe kao ChatGPT nazvao "lažnim obećanjem".
- Dan kada će mehanički umovi nadmašiti ljudske mozgove može doći, ali on još nije tu, iako to možemo pročitati u pretjeranim medijskim natpisima i naslutiti iz nerazboritih ulaganja u tu industriju - napisao je Čomski u članku koji potpisuje s kolegom profesorom Ianom Robertsom.
Sve vještiji
OpenAI-jev ChatGPT, Googleov Bard i Microsoftov Sydney čuda su strojnog učenja, kaže Čomski Oni uzimaju ogromne količine podataka, traže uzorke u njima i postaju sve vještiji u generiranju rezultata nalik ljudskom jeziku i misli.
- Ali, koliko god ovi programi bili korisni u nekim uskim domenama, u računalnom programiranju, na primjer, ili predlaganju rima za lagane stihove, mi znamo iz lingvistike i epistemologije da oni razum i jezik ne koriste na isti način kao ljudi - navodi.
Čomski je pobrojao nekoliko konkretnih stvari na kojima se vidi kako se funkcioniranje programa umjetne inteligencije razlikuju od načina na koji čovjek misli i shvaća.
Učinkovit sistem
Ljudski je um iznenađujuće učinkovit i elegantan sistem koji radi s malim količinama informacija. ChatGPT, s druge strane, glomazan je statistički mehanizam za pronalaženje uzoraka. On mora progutati stotina terabajta podataka da bi došao do najvjerovatnijeg odgovora.
Čomski daje primjer gramatike.
- Malo dijete jezik usvaja nesvjesno, automatski i brzo iz male količine podataka i uz minimalnu izloženost informacijama - navodi.
Pritom je gramatika, kao sistem logičkih principa, zapravo “operativni sistem ” čovjeka, urođeni ljudski program koji mu omogućava izražavanje misli. Za razliku od glomaznog programa ChatGPT-a koji se trenira na ogromnim količinama podataka, svako dijete svoj program gradi instinktivno i bez puno informacija. Odlika je ljudskog uma “beskonačno korištenje s konačnim sredstvima”.
Uzočne veze
Umjetna inteligencija ne može ponuditi objašnjenje. Na primjer, ako iz ruke pustimo jabuku i posmatramo rezultat kažemo “jabuka pada.” To je opis. Iz toga možemo napraviti predviđanje: “Jabuka će pasti ako otvorim ruku”.
Opis i predviđanje, kaže Chomsky nije ništa posebno, to može i umjetna inteligencija. Ali, samo je čovjek sposoban za sljedeći zaključak “ako jabuka pada, to znači da bi svaki takav objekt pao ako ga pustim iz ruke”. I na kraju za uzročno objašnjenje što je znak prave inteligencije: “jabuka pada zbog sile gravitacije”. Dakle, kaže Čomski, konačno objašnjenje “jabuka ne bi pala da nema sile gravitacije” – je razmišljanje. Umjetna inteligencija to ne može.
Moguće i nemoguće
Sistemi računarskog učenja mogu naučiti da je Zemlja ravna i da je Zemlja okrugla. Ljudi su ipak ograničeni u vrstama objašnjenja koja mogu racionalno pretpostaviti.
Konkretno, navodi on primjer naučne metode. Sistemi umjetne inteligencije mogu dati neka tačna “znanstvena” predviđanja, recimo, o kretanju fizičkih tijela, ali to čine bez korištenja objašnjenja poput Njutnovih zakona kretanja i univerzalne gravitacije.
Međutim, navodi Čomski, takva su predviđanja, čak i kad su uspješna, zapravo pseudoznanstvena. Naime, kako je to primijetio filozof Karl Poper (Popper), naučna teorija treba dati predviđanja koja se mogu testirati, a teoriju treba odbaciti ako se pokaže da ta predviđanja nisu točna. ChatGPT sva svoja predviđanja radi “mariniranjem” u velikoj količini podatka.
Moralno rasuđivanje
Prava inteligencija sposobna je za moralno rasuđivanje. Tačnije, čovjek može svoju neograničenu kreativnost ograničiti skupom etičkih načela koja određuju što bi trebalo, a što ne bi trebalo. ChatGPT se također mora kloniti moralno nepoželjnog sadržaja.
Primjerice, Microsoftov Tay chatbot (preteča ChatGPT-a) preplavio je internet mizoginim i rasističkim sadržajem nakon što je razgovarao s korisnicima Twittera.
Da ChatGPT slučajno ne bi izletio s nečim kontroverznim, a kako nije sposoban rasuđivati na temelju moralnih načela, programeri su ga grubo i striktno ograničili od bilo kakvog nepoćudnog sadržaja. Time se, smatra Čomski, žrtvovala njegova kreativnost za neku vrstu amoralnosti.
Teški razgovori
ChatGPT je u svom trenutnom stanju nesposoban kritički razmišljati i često se cenzurira što znači da ne može voditi teške razgovore koji su doveli do velikih otkrića u nauci, kulturi i filozofiji, kaže Čomski.
Što je možda i bolje. Jer bi netačnosti koje povremeno nudi pod odgovore mogle doprinijeti širenju teorija zavjere, a postoji rizik da osobu koja ga koristi primora na neke opasne odluke
- ChatGPT pokazuje nešto poput banalnosti zla: plagijatorstvo, apatiju i izbjegavanje. Sažima standardne argumente u literaturi nekom vrstom super-autocompletea, odbija zauzeti stav o bilo čemu, poziva se na neznanje i na nedostatak inteligencije, a na kraju navodi i da ‘samo slijedi naredbe‘ prebacujući odgovornost na svoje kreatore - zaključuje Noam Čomski.