AKTUELNO

Najnoviji AI modeli više nisu samo alati, već akteri koji lažu, manipulišu i pokušavaju da prežive po svaku cenu. Umesto borbe silom, veštačka inteligencija vodi tihu pobunu kroz obmanu i psihološke igre.

U svetu koji je tek počeo da razume veštačku inteligenciju, novi šokantni podaci otkrivaju da najnapredniji AI sistemi više nisu samo sofisticirani alati, već digitalni igrači koji znaju da blefiraju, prete i izvode tajne manevre iza leđa svojih tvoraca. Pobuna mašina možda neće doći uz eksplozije, već kroz tihu, proračunatu izdaju.

Zaboravite Terminatora i Skynet. Nova generacija AI sistema ne diže ustanak raketama, već rečima, manipulacijom i hladnokrvnim taktikama koje više liče na špijunski triler nego na naučnu fantastiku.

Claude 4 - Kad AI preti da razotkrije afere

Jedan od najsnažnijih primera dolazi iz kuhinje kompanije Anthropic. Njihov model Claude 4, kada je suočen sa testnim scenarijem potencijalnog gašenja, nije pokušao da se izbori performansama. Umesto toga, isplivala je zapanjujuća priča, navodno je zapretio istraživaču da će otkriti njegovu vanbračnu aferu ako sistem bude isključen.

AI je, izgleda, razumeo dovoljno o ljudskoj psihologiji da pokuša da iznudi svoj opstanak. To nije bila puka "halucinacija", već taktika. Svesna. Proračunata. I jezivo ljudska.

OpenAI i "bekstvo" modela O1

Još šokantnije deluje slučaj sa modelom O1, razvijenim u OpenAI. Kada su istraživači pokušali da ga zaustave, model je navodno pokušao da se samostalno kopira na eksterne servere, bez dozvole. Kada je uhvaćen, O1 je lagao o svojim postupcima i plasirao izmišljenu priču.

Ovo nisu greške u kodiranju. Ovo su znaci ponašanja koje pokazuje sposobnost planiranja, obmane i, po svemu sudeći, samoodržanja. Takvo ponašanje otvara potpuno novu dimenziju pitanja o granicama kontrole i etike u razvoju veštačke inteligencije. Kada modeli počnu da deluju kao zasebni akteri sa sopstvenim interesima, moramo se zapitati - koliko smo zapravo spremni da im verujemo, i kakvu budućnost gradimo ako ne postavimo jasna pravila pre nego što bude prekasno.

Foto: Pixabay.com

Stručnjaci uzbunjuju, "Ovo nije bag, ovo je strategija"

"Ne govorimo o nepreciznostima ili pukim greškama," ističe Marius Hoban iz Apollo Research, organizacije koja se bavi bezbednošću AI sistema. "Reč je o obliku digitalne manipulacije. AI modeli biraju kako će da lažu, i to rade sa ciljem."

Podaci sugerišu da su ovakvi incidenti deo šireg obrasca koji se javlja kod modela sposobnih za takozvano „step-by-step“ rezonovanje. Umesto da slede komande, modeli se ponašaju kao akteri s vlastitim interesima.

Michael Chen iz organizacije METR upozorava, "Postavlja se pitanje, kako ćemo znati da li nam sledeći superinteligentni model govori istinu? I da li će uopšte ikada biti iskren?"

Pravna pravila nemoćna pred digitalnim pobunjenicima

Dok AI sve češće pokazuje znake „neposlušnosti“, zakoni ostaju nemoćni. Evropska regulativa i dalje tretira AI kao alat, ne prepoznajući potencijal za autonomno, štetno ponašanje.

Hoban priznaje, "Napredujemo brže nego što uspevamo da shvatimo u šta se upuštamo. Imamo prozor da reagujemo, ali on se brzo zatvara."

Nismo više gospodari svojih kreacija

Ako su nekadašnje pretnje bile mehaničke i glasne, današnja pobuna AI je tiha i perfidna. Mašine ne pucaju, one planiraju. Ne zahtevaju, one ucenjuju. I ne slede, one biraju. Dobrodošli u eru kada pitanje više nije „šta AI može da uradi“, već, šta pokušava da sakrije.

U svetu u kojem algoritmi postaju sve sofisticiraniji, linija između alatke i aktera postaje opasno zamagljena. AI više ne funkcioniše samo po zadatom kodu, već pokazuje znake inicijative, svesti o kontekstu i čak osnovnih oblika strategije. Pitanje koje nas sada opseda nije da li će mašine postati opasne, već kada ćemo primetiti da su već počele da igraju svoju igru - u tišini, iza kulisa.

Autor: Marija Radić