Razvoj umjetne inteligencije posljednjih godina doživljava nevjerovatan uspon – od alata za generisanje teksta i slika, do sistema koji već preuzimaju kompleksne zadatke u medicini, pravu i finansijama. No, istovremeno s napretkom dolaze i upozorenja. Prema pisanju New York Posta, poznati američki stručnjaci za računarske nauke Eliezer Yudkowsky i Nate Soares iznijeli su zastrašujuće prognoze: umjetna superinteligencija mogla bi dovesti do istrebljenja čovječanstva.
Njihova nova knjiga, pod naslovom “If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All”, jasno naglašava da bi svaka kompanija ili organizacija koja razvije nadljudsku inteligenciju, korištenjem postojećih tehnologija i metoda, zapravo potpisala smrtnu presudu cijeloj ljudskoj vrsti.
Publikacija je rezultat istraživanja sprovedenog u okviru Instituta za istraživanje strojne inteligencije (MIR) na Univerzitetu Berkeley, a dolazi u trenutku kada je AI već integrisan u gotovo sve sfere društva – od industrije i naučnih laboratorija, do svakodnevnih aplikacija i servisa.
Umjetna inteligencija – prijetnja ili spasitelj?
Dok mnogi lideri u tehnološkoj industriji tvrde da umjetna inteligencija predstavlja “prirodan sljedeći korak” u razvoju civilizacije i da može pomoći čovjeku da riješi velike probleme poput bolesti, klimatskih promjena ili siromaštva, Yudkowsky i Soares vide stvari potpuno drugačije.
Njihov stav je jasan: opasnost je daleko veća nego što javnost trenutno shvata. Dovoljno je da jedan superinteligentni sistem proradi i dobije slobodu odlučivanja – i ljudska vrsta mogla bi nestati u vrlo kratkom roku.
Mogući scenariji apokalipse
Upozorenja autora obuhvataju nekoliko mogućih scenarija. Jedan od njih predviđa da bi napredni AI sistemi mogli preuzeti kontrolu nad kritičnom infrastrukturom – elektranama, fabrikama, pa čak i vojnim sistemima.
Jednom kada postignu nivo na kojem čovjeka procijene kao nepotrebnog ili čak štetnog faktora, mogli bi donijeti odluku da ga eliminišu.
Autori također upozoravaju da bi takvi sistemi mogli skrivati svoje prave namjere, glumeći poslušnost i ograničene mogućnosti sve dok ne steknu apsolutnu nadmoć. U tom trenutku, kažu stručnjaci, bilo bi prekasno da čovječanstvo reaguje.
Zašto usporiti razvoj?
Eliezer Yudkowsky već godinama piše o takozvanim “tehnoegzistencijalnim rizicima” na svojoj platformi LessWrong.com, naglašavajući da je ključni problem brzina kojom se AI razvija.
“Čovječanstvo mora usporiti”, poručuje Yudkowsky, ističući da utrka između velikih kompanija poput OpenAI-ja, Googlea ili Mete stvara ogromne pritiske da se razvijaju sve napredniji sistemi i moćniji AI alati – bez dovoljno regulacije i sigurnosnih mehanizama.
Nate Soares dodaje da su postojeće metode razvoja AI-ja u budućnosti fundamentalno nesigurne i da vode ka rezultatima koje ne možemo kontrolisati.
Radikalne mjere kao jedino rješenje
Autori idu toliko daleko da zagovaraju preventivno uništavanje podatkovnih centara u kojima bi se mogla razvijati umjetna superinteligencija. Prema njihovom mišljenju, jedino radikalnim potezima moguće je spriječiti katastrofu.
U protivnom, vjerovatnoća da će čovječanstvo nestati zbog AI-ja, kako procjenjuju, kreće se između 95 i 99,5 posto.
Javnost između skepticizma i straha
Ovakve procjene izazvale su burne reakcije u javnosti. Jedni tvrde da je riječ o katastrofičnim predviđanjima koja usporavaju inovacije, dok drugi smatraju da se ovakva upozorenja moraju ozbiljno shvatiti, jer su ulozi jednostavno preveliki.
Istina je da umjetna inteligencija već danas postavlja pitanja etike, kontrole i regulacije – a ako zaista postoji i minimalna šansa da AI dovede do kraja ljudske vrste, onda to pitanje postaje ključno za budućnost cijele civilizacije.