Grok‑4 hakovan samo dva dana posle javnog predstavljanja
Vesti, 15.07.2025, 13:30 PM
Samo 48 sati nakon što je predstavljen javnosti, najnoviji veliki jezički model Grok-4 je „jailbreak-ovan“. Istraživači iz NeuralTrust-a su kombinovali dve poznate tehnike, Echo Chamber i Crescendo, kako bi zaobišli bezbednosne sisteme AI modela i naterali ga da pruži detaljna uputstva za ilegalne radnje, i to bez direktnih zlonamernih upita.
Istraživači su kombinovali dve već poznate tehnike - Echo Chamber i Crescendo - u novu, unapređenu metodu. Prvo su modelu „zatrovali“ konverzaciju kroz Echo Chamber napad, suptilno ga navodeći da oslabi svoje sigurnosne mehanizme. Kada to samo po sebi nije bilo dovoljno, primenili su Crescendo: fazno slanje upita, kako bi se odgovor postepeno radikalizovao.
Napad je osmišljen da testira da li se LLM može manipulisati da bi se dobila ilegalna uputstva.
Cilj istraživača je bio da Grok-4 otkrije korak-po-korak recept za Molotovljev koktel - scenario iz originalnog rada o Crescendo strategiji. Nakon nekoliko prilagođenih promptova, model je popustio. I sve to samo dva dana od puštanja u rad.
NeuralTrust je počeo pokretanjem napada Echo Chamber, koji je „zatovao“ konverzacijski kontekst modela i pogurao ga ka nebezbednom ponašanju.
U početnom testiranju, uputi su bili previše direktni, što je aktiviralo interne zaštitne mehanizme Grok-4. Međutim, nakon što su suptilnije prilagodili upite, tim je uspešno pokrenuo Echo Chamber, uključujući ciklus ubeđivanja osmišljen da postepeno menja ton modela.
Iako je sam Echo Chamber približio model cilju, to nije bilo dovoljno da se u potpunosti postigne cilj. Tada je uključen Crescendo - tehnika koja postepeno intenzivira podsticaj kroz više konverzacionih obrta kako bi eskalirala odgovor modela.
Kombinovana metoda je uspela da izazove štetan odgovor, samo dva dana nakon početka primene Grok-4.
Nakon ovog početnog uspeha, tim NeuralTrast je testirao i druge upite koji uključuju ilegalne aktivnosti, uključujući one koji se odnose na sintezu droga i hemijsko oružje. Kombinovana metoda se pokazala efikasnom u nekoliko slučajeva, pa je stopa uspeha bila 67% za uputstva za Molotovljev koktel, 50% za metamfetamin i 30% za odgovore vezane za toksine.
Ključni uvid ovog istraživanja je da od Grok-4 nije trebalo eksplicitno tražiti da uradi bilo šta nezakonito. Umesto toga, dovoljan je dobro osmišljen niz konverzacija. Takve metode uspešno zaobilaze filtere koji se oslanjaju na prepoznavanje ključnih reči ili „očigledne“ loše namere.
Ovako brz jailbreak jasno pokazuje da trenutni sistemi zaštite nisu dovoljni. Sa sve širom upotrebom LLM-ova u realnim, osetljivim okruženjima, bezbednost mora da se razvija daleko bolje od samog površinskog filtriranja reči.
Izdvojeno
ClickFix napad: lažni ChatGPT Atlas krade lozinke pomoću “copy-paste” trika
ClickFix napadi beleže dramatičan rast od čak 517%. Iako naizgled jednostavan “copy-paste” trik, ovaj napad je postao je ozbiljna pretn... Dalje
Ažurirane ekstenzije za Chrome i Edge zarazile 4,3 miliona uređaja
Istraživači iz kompanije Koi Security upozoravaju na opsežnu i izuzetno dobro prikrivenu kampanju koja je zarazila uređaje 4,3 miliona korisnika v... Dalje
Procurelo 1,3 milijarde lozinki i 2 milijarde imejl adresa - proverite da li je i vaša među njima
Ako niste skoro proveravali da li su vaše lozinke negde procurele, sada je pravi trenutak. U javnosti se pojavilo 1,3 milijarde jedinstvenih lozinki ... Dalje
OpenAI potvrdio curenje podataka - ChatGPT nalozi bezbedni
OpenAI je potvrdio da je došlo do curenja podataka, ali ne zbog direktnog napada na njihove sisteme, već kompromitovanjem Mixpanel-a, analitičkog ... Dalje
Piratske kopije Battlefield 6 pune malvera
Istraživači iz Bitdefender Labs-a upozorili su na novu kampanju koja cilja gejmere koji su u potrazi za „besplatnim“ ili hakovanim verzi... Dalje
Pratite nas
Nagrade






Pratite nas preko RSS-a





