Společnosti Anthropic, OpenAI a další technologické společnosti vyvíjejí modely umělé inteligence, které by mohly dramaticky zvýšit hrozbu rozsáhlých kybernetických útoků na firemní, vládní a obecní systémy. Důraz je kladen na dosud nevydaný model umělé inteligence Claude Mythos od společnosti Anthropic. Podle společnosti Axios společnost již nyní varuje vysoké americké představitele, že jeho vydání v roce 2026 výrazně zvyšuje pravděpodobnost útoků tohoto rozsahu.

Mythos je popisován jako systém, který umožňuje agentům umělé inteligence autonomně, s vysokou přesností a sofistikovaností pronikat do firemních, vládních a obecních systémů. Generální ředitel společnosti Axios Jim VandeHei ve svém newsletteru pro manažery uvedl, že zdroj obeznámený s budoucími modely umělé inteligence předpovídá, že k velkému kybernetickému útoku by mohlo dojít již v roce 2026, a jako obzvláště zranitelný cíl uvádí podniky.
Dříve Fortune studoval Uniklé materiály z blogu Anthropic o Claude Mythosovi popisují model umělé inteligence jako systém, který „v současné době výrazně překonává jakýkoli jiný model umělé inteligence v kybernetických schopnostech“. Dále se v nich uvádí, že Mythos „předznamenává přicházející vlnu modelů umělé inteligence schopných zneužívat zranitelnosti způsoby, které daleko předčí úsilí v oblasti kybernetické obrany“. Riziko zhoršují zaměstnanci, kteří používají agenty umělé inteligence, aniž by si uvědomovali, že by to mohlo usnadnit kyberzločincům přístup k interním systémům jejich společností.
Na konci roku 2025, Anthropic nezakryté První zdokumentovaný případ kybernetického útoku, který byl z velké části proveden umělou inteligencí. Státem podporovaná čínská skupina použila agenty umělé inteligence k autonomnímu hacknutí přibližně 30 cílů po celém světě. Umělá inteligence nezávisle provedla 80 % až 90 % taktických operací. K tomu došlo před dramatickým pokrokem v oblasti agentních systémů a vznikem nových, nebezpečných způsobů jejich použití.
Nové modely umělé inteligence se vyznačují vyšší schopností podporovat autonomní provoz agentů umělé inteligence. Jedná se o systémy, které agentům umožňují myslet, jednat, uvažovat a improvizovat samostatně bez zastavení nebo únavy. Rozsah útoku je nyní určen primárně výpočetními zdroji útočníků, spíše než velikostí jejich skupiny. Nyní jedna osoba obdrží příležitost provádět kybernetické útoky, které dříve vyžadovaly celé týmy.
Zároveň roste zranitelnost firem. Zaměstnanci stále častěji používají modely založené na agentech Claude, Copilot a další, často z domova, a vytvářejí si vlastní agenty s umělou inteligencí. V mnoha případech tito agenti získají nekontrolovaný přístup k interním pracovním systémům, čímž vytvářejí další vstupní bod pro kyberzločince. V oboru se toto neoprávněné nebo nekontrolované používání umělé inteligence označuje jako „temná umělá inteligence“.
Průzkum agentury Dark Reading zjistil, že 48 % odborníků na kybernetickou bezpečnost se domnívá, že umělá inteligence založená na agentech bude v roce 2026 hlavním vektorem útoku. Tato hrozba se řadí před deepfake a všechna ostatní rizika zahrnutá v průzkumu. Každý zaměstnanec v každé společnosti na celém světě nyní musí pochopit riziko používání agentů umělé inteligence v blízkosti citlivých informací. Technický tým společnosti Axios to považuje za největší hrozbu, které společnost v současnosti čelí. Praktický závěr je jasný: práce s agenty umělé inteligence vyžaduje bezpečné a izolované prostředí.
Zdroj:
Zdroj: 3dnews.ru
