Mae Anthropic, OpenAI, a chwmnïau technoleg eraill yn datblygu modelau AI a allai gynyddu'r bygythiad o seiber-ymosodiadau ar raddfa fawr ar systemau corfforaethol, llywodraethol a bwrdeistrefol yn sylweddol. Y ffocws yw model AI Claude Mythos Anthropic, sydd heb ei ryddhau eto. Yn ôl Axios, mae'r cwmni eisoes yn rhybuddio uwch swyddogion yr Unol Daleithiau y bydd ei ryddhau yn 2026 yn cynyddu'r tebygolrwydd o ymosodiadau o'r maint hwn yn sylweddol.

Disgrifir Mythos fel system sy'n galluogi asiantau AI i dreiddio systemau corfforaethol, llywodraethol a bwrdeistrefol yn annibynnol, gyda chywirdeb a soffistigedigrwydd uchel. Adroddodd Prif Swyddog Gweithredol Axios, Jim VandeHei, yn ei gylchlythyr gweithredol fod ffynhonnell sy'n gyfarwydd â modelau AI yn y dyfodol yn rhagweld y gallai seiberymosodiad mawr ddigwydd mor gynnar â 2026, gan nodi busnesau fel targed arbennig o agored i niwed.
Fortune yn flaenorol astudio Mae deunyddiau a ollyngwyd o'r blog Anthropic am Claude Mythos yn disgrifio'r model AI fel system sydd "ar hyn o bryd yn sylweddol well na unrhyw fodel AI arall o ran galluoedd seiber." Mae hefyd yn nodi bod Mythos "yn cyhoeddi ton sydd ar ddod o fodelau AI sy'n gallu manteisio ar wendidau mewn ffyrdd a fydd yn llawer gwell na ymdrechion seiberamddiffyn." Mae'r risg yn cael ei gwaethygu gan weithwyr sy'n defnyddio asiantau AI heb sylweddoli y gallai hyn hwyluso mynediad seiberdroseddwyr i systemau mewnol eu cwmnïau.
Ar ddiwedd 2025, Anthropig dadorchuddio Yr achos cyntaf wedi'i ddogfennu o seiber-ymosodiad a gyflawnwyd yn bennaf gan AI. Defnyddiodd grŵp Tsieineaidd a gefnogir gan y wladwriaeth asiantau AI i hacio tua 30 o dargedau ledled y byd yn annibynnol. Cynhaliodd yr AI 80% i 90% o'r gweithrediadau tactegol yn annibynnol. Digwyddodd hyn cyn y datblygiad dramatig mewn systemau asiantau a dyfodiad ffyrdd newydd, peryglus o'u defnyddio.
Nodweddir modelau AI newydd gan allu uwch i gefnogi gweithrediad ymreolaethol asiantau AI. Systemau yw'r rhain sy'n caniatáu i asiantau feddwl, gweithredu, rhesymu, ac ysgogi'n annibynnol heb oedi na blinder. Mae maint ymosodiad bellach yn cael ei bennu'n bennaf gan adnoddau cyfrifiadurol yr ymosodwyr, yn hytrach na maint eu grŵp. Nawr, mae un person yn derbyn cyfle cynnal seiberymosodiadau a oedd yn flaenorol yn gofyn am dimau cyfan.
Ar yr un pryd, mae bregusrwydd cwmnïau yn tyfu. Mae gweithwyr yn rhedeg Claude, Copilot, a modelau eraill sy'n seiliedig ar asiantau fwyfwy, yn aml o gartref, ac yn creu eu hasiantau AI eu hunain. Mewn llawer o achosion, mae'r asiantau hyn yn cael mynediad heb ei reoli i systemau gwaith mewnol, gan greu pwynt mynediad arall i seiberdroseddwyr. Yn y diwydiant, cyfeirir at y defnydd heb awdurdod neu heb ei reoli hwn o AI fel "AI tywyll".
Canfu arolwg Dark Reading fod 48% o weithwyr proffesiynol seiberddiogelwch yn credu mai AI sy'n seiliedig ar asiantau fydd y fector ymosod mwyaf cyffredin yn 2026. Mae'r bygythiad hwn yn uwch na ffugiadau dwfn a phob risg arall a gynhwysir yn yr arolwg. Mae angen i bob gweithiwr ym mhob cwmni ledled y byd nawr ddeall y risg o ddefnyddio asiantau AI ger gwybodaeth sensitif. Mae tîm technegol Axios yn ystyried mai dyma'r bygythiad mwyaf sy'n wynebu'r cwmni heddiw. Mae'r casgliad ymarferol yn glir: mae gweithio gydag asiantau AI yn gofyn am amgylchedd diogel ac ynysig.
Ffynhonnell:
Ffynhonnell: 3dnewyddion.ru
