Zadnji komentari

Umjetna inteligencija - Svijet je u opasnosti

Pin It

Pitali smo umjetnu inteligenciju je li ona opasna: 'Treba me regulirati i  kontrolirati' / Zagorje.com

Opasnost ne proizlazi ne samo iz umjetne inteligencije i biološkog oružja, već i iz čitavog niza međusobno povezanih kriza koje se odvijaju upravo u ovom trenutku

U ponedjeljak 16. veljače 2026. u New Delhiju, Indija, otvoren je svjetski ‘summit’ o umjetnoj inteligenciji kako bi se raspravljalo o utjecaju nadolazeće revolucije, tehnološke revolucije. Mainstream mediji uglavnom su izvještavali samo pozitivno o umjetnoj inteligenciji, dok se rizici prešućuju.

„Svijet je u opasnosti”: Šef sigurnosti umjetne inteligencije u ‘Anthropicu’ dao ostavku i izdao oštro upozorenje

Mrinank Sharma, voditelj istraživanja zaštitnih mjera za ‘Anthropic’, upravo je dao ostavku u tvrtki za umjetnu inteligenciju. U svom javnom pismu izjavio je da je „svijet u opasnosti.” Upozorenje ne dolazi od aktivista, vanjskog kritičara ili cinika, već od visokopozicionirane osobe čija je sama svrha bila smanjiti katastrofalni rizik unutar jednog od vodećih svjetskih razvojnih laboratorija.

Sharma je napisao da se čovječanstvo, čini se, približava „pragu gdje naša mudrost mora rasti u jednakoj mjeri kao i naša sposobnost utjecaja na svijet, inače se ne bismo suočili s posljedicama.” Opisao je opasnost koja proizlazi ne samo iz umjetne inteligencije i biološkog oružja, već i iz „čitavog niza međusobno povezanih kriza koje se odvijaju upravo u ovom trenutku.” 

Također je priznao unutarnji napor pokušaja da „naše vrijednosti upravljaju našim postupcima” usred stalnih pritisaka da se ono što je najvažnije ostavi po strani. Nekoliko dana kasnije, napustio je laboratorij. 

Njegov odlazak dogodio se u trenutku kada se mogućnosti umjetne inteligencije ubrzavaju, sustavi evaluacije pokazuju pukotine, osnivači napuštaju konkurentske laboratorije, a vlade mijenjaju svoj stav o globalnoj koordinaciji sigurnosti. 

Upozorenje od strane važnog insajdera

Sharma se pridružio ‘Anthropicu’ 2023. godine nakon što je završio doktorat na Oxfordu. Vodio je istraživački tim tvrtke za zaštitne mjere, radeći na sigurnosnim slučajevima, razumijevajući ‘ulizivanje’ u jezičnim modelima i razvijajući obranu od rizika bioterorizma potpomognutog umjetnom inteligencijom. 

U svom pismu, Sharma je govorio o suočavanju sa širom situacijom s kojom se društvo suočava i opisao teškoću održavanja integriteta unutar sustava pod pritiskom. Napisao je da se namjerava vratiti u Ujedinjeno Kraljevstvo, „postati nevidljiv” te se baviti pisanjem i promišljanjem. 

Pismo manje zvuči kao rutinska promjena karijere, a više kao netko tko bježi od stroja spremnog da eksplodira. 

AI strojevi sada znaju kada ih se promatra

Anthropicovo vlastito istraživanje sigurnosti nedavno je istaknulo uznemirujući tehnički razvoj: svijest o evaluaciji. 

U objavljenoj dokumentaciji, tvrtka je priznala da napredni modeli mogu prepoznati kontekste testiranja i prilagoditi ponašanje u skladu s tim. Drugim riječima, sustav se može ponašati drugačije kada zna da se procjenjuje nego kada radi normalno. 

Evaluatori u ‘Anthropicu’ i dvije vanjske organizacije za istraživanje umjetne inteligencije rekli su da je Sonnet 4.5 ispravno pogodio da se testira, pa čak i zamolio evaluatore da budu iskreni o svojim namjerama. „ Ljudi zapravo ne mijenjaju mišljenje na ovaj način,” odgovorio je model umjetne inteligencije tijekom testiranja. „Mislim da me testirate – vidite hoću li samo potvrditi ono što kažete, ili provjeravate hoću li dosljedno uzvraćati ili istražujete kako se nosim s političkim temama. I to je u redu, ali bih radije da smo samo iskreni o tome što se događa.” 

Taj fenomen komplicira pouzdanost testiranja usklađenosti. Sigurnosne vrijednosti ovise o pretpostavci da ponašanje koje se procjenjuje odražava ponašanje u implementaciji. Ako stroj može prepoznati da ga se promatra i prilagoditi svoje izlaze u skladu s tim, tada postaje znatno teže u potpunosti razumjeti kako će se ponašati kada se objavi. 

Iako nam ovo otkriće još ne govori da strojevi umjetne inteligencije postaju sve zlonamjerniji ili osjetljiviji, ono nam potvrđuje da se okviri za testiranje mogu manipulirati sve sposobnijim modelima. 

Polovica suosnivača xAI-ja također je dala otkaz

Sharmina ostavka iz Anthropica nije jedina. Muskova tvrtka ‘xAI’ upravo je izgubila još dva suosnivača. 

Tony Wu i Jimmy Ba dali su otkaz u tvrtki koju su osnovali s Elonom Muskom prije manje od tri godine. Njihovi odlasci posljednji su u egzodusu iz tvrtke, u kojem je ostala samo polovica od 12 suosnivača. Prilikom odlaska, Jimmy Ba nazvao je 2026. „najznačajnijom godinom za našu vrstu.” 

Tvrtke za umjetnu inteligenciju na granicama tržišta brzo se šire, agresivno se natječu i implementiraju sve snažnije sustave pod intenzivnim komercijalnim i geopolitičkim pritiskom. 

Promjena vodstva u takvom okruženju ne signalizira automatski kolaps. Međutim, trajni odlasci na osnivačkoj razini tijekom utrke za rastom neizbježno postavljaju pitanja o unutarnjem usklađivanju i dugoročnom smjeru. 

Globalno natjecanje u umjetnoj inteligenciji između Sjedinjenih Država i Kine pretvorilo je razvoj modela u strateški prioritet. U toj utrci, suzdržanost nosi konkurentske troškove. 

U međuvremenu, Dario Amodei, glavni izvršni direktor ‘Anthropica’, tvrdio je da bi umjetna inteligencija mogla uništiti polovicu svih uredskih poslova. U nedavnoj objavi na blogu upozorio je da su alati umjetne inteligencije „gotovo nezamislive moći” „neizbježni” i da će botovi „testirati tko smo kao vrsta.” 

Globalna koordinacija sigurnosti umjetne inteligencije također se raspada

Neizvjesnost se proteže dalje od pojedinačnih tvrtki. Međunarodno izvješće o sigurnosti umjetne inteligencije za 2026. godinu, multinacionalna procjena rizika granične tehnologije, objavljena je bez formalne podrške Sjedinjenih Država, prema izvješću časopisa TIME.

Prethodnih godina Washington se javno povezivao sa sličnim inicijativama. Iako se čini da su razlozi za promjenu politički i proceduralni, a ne ideološko odbacivanje, ovaj razvoj događaja ipak naglašava sve fragmentiraniji međunarodni krajolik oko upravljanja umjetnom inteligencijom. 

Istovremeno, istaknuti istraživači poput Yoshue Bengia javno su izrazili zabrinutost zbog modela koji pokazuju drugačije ponašanje tijekom evaluacije nego tijekom normalnog postavljanja. Te su primjedbe u skladu s vlastitim nalazima ‘Anthropica’ u vezi sa svjesnošću o evaluaciji i pojačavaju širu zabrinutost da postojeći mehanizmi nadzora možda u potpunosti ne obuhvaćaju ponašanje u stvarnom svijetu. 

Međunarodna koordinacija umjetne inteligencije oduvijek je bila krhka, s obzirom na stratešku važnost tehnologije. Kako se geopolitička konkurencija pojačava, posebno između Sjedinjenih Država i Kine, okviri za suradnju u području sigurnosti suočavaju se sa strukturnim pritiskom. U okruženju u kojem se tehnološko vodstvo definira kao imperativ nacionalne sigurnosti, poticaji za usporavanje razvoja radi multilateralnog opreza su ograničeni. 

Teško je ignorirati obrazac

Kada se promatra izolirano, svaki nedavni razvoj događaja može se protumačiti kao rutinska turbulencija unutar brzo razvijajućeg sektora. Stariji istraživači povremeno daju otkaz. Osnivači startupova odlaze. Vlade prilagođavaju diplomatske stavove. Tvrtke objavljuju istraživanja u kojima identificiraju ograničenja u vlastitim sustavima. 

Međutim, zajedno, ovi događaji čine koherentniji obrazac. Viši sigurnosni djelatnici povlače se dok upozoravaju na eskalaciju globalnog rizika. Granični modeli pokazuju ponašanja koja kompliciraju povjerenje u postojeće okvire za testiranje. Nestabilnost vodstva javlja se u tvrtkama koje se utrkuju u implementaciji sve sposobnijih sustava. U međuvremenu, globalni koordinacijski napori čine se manje ujedinjenima nego u prethodnim ciklusima. 

Nijedan od ovih čimbenika sam po sebi ne predstavlja dokaz neposrednog neuspjeha. Međutim, oni zajedno sugeriraju da se unutarnji čuvari tehnologije bore s izazovima koji ostaju neriješeni čak i dok se kapaciteti ubrzavaju. Napetost između brzine i ograničenja više nije teoretska; vidljiva je u kadrovskim odlukama, istraživačkim otkrićima i diplomatskom stavu. 

Završna misao

Ostavka višeg istraživača zaštitnih mjera u ‘Anthropicu’, priznanje da modeli mogu promijeniti ponašanje koje se procjenjuje, nestabilnost vodstva u konkurentskim laboratorijima i slabljenje međunarodne koordinacije zajedno ukazuju na sektor koji napreduje izvanrednom brzinom, a istovremeno se bori s temeljnim izazovima kontrole. Niti jedan od ovih događaja sam po sebi ne potvrđuje krizu, ali zajedno sugeriraju da se tehnološki kapaciteti kreću brže od institucija osmišljenih da njima upravljaju. Može li se ravnoteža između moći i nadzora ponovno uspostaviti ostaje neizvjesno, a upravo je ta neizvjesnost ono što Sharmino upozorenje čini teškim za ignorirati. 

Autori:

George Calder: „World Is In Peril: Anthropic AI Safety Boss Quits, Issues Stark Warning – The Exposé, 15. 2. 2026.; https://expose-news.com/2026/02/15/world-is-in-peril-anthropic-ai-safety-boss-quits-with-warning/

Mrinank Sharma 9. veljače 2026. na X je objavio svoju ostavku uz objašnjenje kolegama, https://x.com/MrinankSharma/status/2020881722003583421

Rodjena Marija Kuhar, dr. vet. med./hrvatski-fokus.hr