Tim programera kompanije Open AI, koji stoji iza Chat GPT-4, pozvao je na regulisanje vještačke inteligencije, uz tvrdnju da je potreban ekvivalent Međunarodnoj agenciji za atomsku energiju da bi se čovječanstvo zaštitilo od rizika da slučajno stvori nešto što bi moglo da ga uništi.
U kratkoj objavi na sajtu Open AI, kompanije koja je razvila napredni sistem vještačke inteligencije, njeni suosnivači pozivaju međunarodnog regulatora da počne da radi na tome kako da "vrši inspekciju sistema, zahtijeva revizije, testira usaglašenost sa bezbjednosnim standardima i postavlja ograničenja na stepene primjene i nivoe bezbjednosti" kako bi se smanjio "egzistencijalni rizik" koji takvi sistemi mogu predstavljati, prenosi Gardijan.
Moćnije tehnologije
- Moguće je da u narednih 10 godina sistemi vještačke inteligencije nadmaše nivo vještina stručnjaka u većini domena i da obavljaju isto toliko produktivnih aktivnosti kao jedna od najvećih korporacija današnjice - pišu oni.
Prema njihovim riječima "u pogledu potencijalnih prednosti i nedostataka, superinteligencija će biti moćnija od drugih tehnologija sa kojima se čovječanstvo moralo boriti u prošlosti".
Možemo imati dramatično prosperitetniju budućnost, ali moramo da upravljamo rizikom da bismo tamo stigli, poručili su tvorci Chat GPT.
Kratkoročno gledano, oni pozivaju na "izvijestan stepen koordinacije" među kompanijama koje rade na najsavremenijim istraživanjima vještačke inteligencije, kako bi se osiguralo da se razvoj sve moćnijih modela nesmetano integriše u društvo, uz davanje prioriteta bezbjednosti.
Potencijalni rizici
Ta koordinacija bi prema njihovom prijedlogu mogla da dođe kroz projekat koji vodi vlada, na primjer, ili kroz kolektivni ugovor za ograničavanje rasta sposobnosti vještačke inteligencije.
Istraživači decenijama upozoravaju na potencijalne rizike od superinteligencije, ali kako se razvoj vještačke inteligencije ubrzao, ti rizici su postali konkretniji, navodi Gardijan.