top of page

AI u prekretnici: što stoji iza ostavki vrhunskih istraživača iz OpenAI-ja i Anthropica?

  • Writer: Ananda
    Ananda
  • 21. velj
  • 2 min čitanja

U proteklih nekoliko dana tehnološka zajednica potresena je neočekivanim i javnim odlukama dva istaknuta stručnjaka u području umjetne inteligencije da daju otkaze u vodećim AI kompanijama, uz otvorena upozorenja o mogućim opasnostima koje donosi ubrzani razvoj ove tehnologije. Ti potezi izazivaju nova pitanja o etici, sigurnosti i smjeru u kojem se najveći AI projekti danas kreću.



Dramatično upozorenje iz Anthropica


U ponedjeljak, 9. veljače 2026. godine, Mrinank Sharma, ugledni istraživač koji je vodio tim zadužen za sigurnosne mjere u Anthropic, podnio je ostavku i javno objavio poruku u kojoj kaže da je „svijet u opasnosti” — ne samo zbog umjetne inteligencije, već zbog niza međusobno povezanih globalnih kriznih prijetnji koje se odvijaju istovremeno.


Sharma je u svojoj izjavi otvoreno govorio o tome kako je teško održati vrijednosti u praksi kada se suočava s organizacijskim i tehnološkim pritiscima. Tijekom svog rada u Anthropicu fokusirao se na izazove poput ponašanja AI-ja, mogućih zlouporaba tehnologije pa čak i prepoznavanja i obrane od potencijalnih prijetnji poput AI-potpomognutog bioterorizma.



Etika i poslovni interesi u središtu OpenAI-jevog raskoraka


Par dana nakon Sharmaove ostavke, istraživačica Zoë Hitzig najavila je svoj odlazak iz OpenAI i to kroz opširan autorski članak objavljen u The New York Timesu. Ona je istaknula „duboke rezerve” prema novim strateškim odlukama kompanije, a posebno prema planovima da se u interakcije s chatbotom ChatGPT uvedu oglašavanje i komercijalni elementi.


Hitzig upozorava da ogromna količina osobnih podataka koju korisnici dijele s chatbotovima — uključujući intimne detalje o emocijama, zdravlju i uvjerenjima — predstavlja neviđenu arhivu ljudske iskrenosti, koja bi mogla postati sredstvo za manipulaciju ukoliko se zloupotrijebi u svrhe ciljanih oglasa ili monetizacije. Njena kritika nije usmjerena samo prema trenutnoj praksi, nego prema potencijalnim dugoročnim posljedicama kada poslovni interesi preuzmu primat nad sigurnošću korisnika.



Širi kontekst: internetska rasprava i reakcije industrije


Ove ostavke, koje su popraćene pomnim analizama medija i komentatora, tumače se kao simptom dubljih napetosti unutar industrije umjetne inteligencije. S jedne strane, veliki tehnološki igrači ubrzano razvijaju sve moćnije modele i nove proizvode, dok s druge strane sve više stručnjaka postavlja pitanje je li takav tempo održiv bez odgovarajućih sigurnosnih, etičkih i društvenih mehanizama.


Neki promatrači ističu da ove ostavke mogu biti „signal” da se stvara novi val skepticizma unutar AI zajednice — osobito kad je riječ o tome tko i kako definira prioritete u razvoju ove tehnologije. Dok jedni gledaju na AI kao na neizbježni tehnološki napredak s ogromnim poslovnim potencijalom, drugi upozoravaju da bez snažnih etičkih standarda i odgovorne regulacije možemo lako zakoračiti u područja koja bi mogla narušiti privatnost, povjerenje korisnika ili čak same temelje društvenog djelovanja.



Što ova promjena znači za budućnost AI-ja?


Odluke visokoprofiliranih istraživača da javno izraze zabrinutost i distanciraju se od svojih ranijih uloga oslikavaju kompleksnost s kojom se suočava današnja AI industrija. Tema sigurnosti, etičkog razvoja i potencijalnih rizika ne tiče se samo tehnoloških entuzijasta, već sve šire javnosti — od zakonodavaca do poslovnih lidera i običnih korisnika.


U vrijeme kada se razgovara o mogućim utjecajima AI-ja na tržište rada, kulturu i političke procese, kritike poput ovih potiču nužnu raspravu o tome kako uskladiti razvoj tehnologije s temeljnim ljudskim vrijednostima i sigurnosnim standardima. To nije samo pitanje tehničke izvedbe, nego i društveno-etičkog kompasiranja koje zahtijeva sudjelovanje šire zajednice.




Komentari


Logo Ananda.png
bottom of page