Anthropic je upozorio da će njihov nadolazeći model Claude Mythos biti "hakerski wunderwaffe".

Anthropic, OpenAI i druge tehnološke tvrtke razvijaju modele umjetne inteligencije koji bi mogli dramatično povećati prijetnju velikih kibernetičkih napada na korporativne, vladine i općinske sustave. Fokus je na Anthropicovom još neobjavljenom modelu umjetne inteligencije Claude Mythos. Prema Axiosu, tvrtka već upozorava visoke američke dužnosnike da njegovo objavljivanje 2026. značajno povećava vjerojatnost napada ovog opsega.

Anthropic je upozorio da će njihov nadolazeći model Claude Mythos biti "hakerski wunderwaffe".

Mythos se opisuje kao sustav koji omogućuje AI agentima da autonomno, s visokom preciznošću i sofisticiranošću, prodru u korporativne, vladine i općinske sustave. Izvršni direktor Axiosa Jim VandeHei izvijestio je u svom biltenu za rukovoditelje da izvor upoznat s budućim AI modelima predviđa da bi se veliki kibernetički napad mogao dogoditi već 2026. godine, navodeći tvrtke kao posebno ranjivu metu.

Prije Fortune studirao Procurili materijali s bloga Anthropic o Claudeu Mythosu opisuju AI model kao sustav koji "trenutno značajno nadmašuje bilo koji drugi AI model u kibernetičkim mogućnostima". Također se navodi da Mythos "najavljuje nadolazeći val AI modela sposobnih iskoristiti ranjivosti na načine koji će daleko nadmašiti napore kibernetičke obrane". Rizik pogoršavaju zaposlenici koji koriste AI agente ne shvaćajući da bi to moglo olakšati kibernetičkim kriminalcima pristup internim sustavima njihovih tvrtki.

Krajem 2025. godine, Anthropic nepokriveni Prvi dokumentirani slučaj kibernetičkog napada koji je uglavnom izvela umjetna inteligencija. Kineska skupina koju podržava država koristila je AI agente za autonomno hakiranje otprilike 30 ciljeva diljem svijeta. Umjetna inteligencija samostalno je provela 80% do 90% taktičkih operacija. To se dogodilo prije dramatičnog napretka agentskih sustava i pojave novih, opasnih načina njihovog korištenja.

Nove AI modele karakterizira veća sposobnost podrške autonomnom radu AI agenata. To su sustavi koji omogućuju agentima da samostalno razmišljaju, djeluju, rasuđuju i improviziraju bez pauze ili umora. Opseg napada sada je prvenstveno određen računalnim resursima napadača, a ne veličinom njihove grupe. Sada jedna osoba prima prilika izvršavati kibernetičke napade koji su prije zahtijevali cijele timove.

Istovremeno, ranjivost tvrtki raste. Zaposlenici sve više koriste Claude, Copilot i druge modele temeljene na agentima, često od kuće, te stvaraju vlastite AI agente. U mnogim slučajevima, ovi agenti dobivaju nekontrolirani pristup internim radnim sustavima, stvarajući još jednu ulaznu točku za kibernetičke kriminalce. U industriji se ova neovlaštena ili nekontrolirana upotreba AI naziva "mračna AI".

Istraživanje Dark Readinga pokazalo je da 48% stručnjaka za kibernetičku sigurnost vjeruje da će umjetna inteligencija temeljena na agentima biti glavni vektor napada u 2026. godini. Ova prijetnja rangirana je iznad deepfakeova i svih ostalih rizika uključenih u istraživanje. Svaki zaposlenik u svakoj tvrtki diljem svijeta sada mora razumjeti rizik korištenja AI agenata u blizini osjetljivih informacija. Tehnički tim tvrtke Axios smatra ovo najvećom prijetnjom s kojom se tvrtka danas suočava. Praktični zaključak je jasan: rad s AI agentima zahtijeva sigurno, izolirano okruženje.

Izvor:


Izvor: 3dnews.ru

Dodajte komentar