Anthropic-ի Կլոդ Առասպելների բացահայտումից հետո վերլուծությունը զգուշացնում է, որ AI-ի ավելի մեծ սպառնալիքը հին մարտավարության արագությունն ու մասշտաբն է

Ինքնակառավարվող կիբերհարձակումների մտավախությունները մեծացան այս ամիս այն բանից հետո, երբ Anthropic-ը 2026 թվականի ապրիլի 7-ին հայտարարեց, որ իր Claude Mythos մոդելը ինքնավար կերպով բացահայտել եւ շահագործել է զրոյական օրվա խոցելիությունները յուրաքանչյուր խոշոր օպերացիոն համակարգում եւ վեբ բրաուզերում՝ շղթայելով bugs բարդ հաջորդականությունների մեջ, գրելով բրաուզերի շահագործում եւ մշակելով հեռավոր կոդի կատարման շահագործում։
Այնուամենայնիվ, նոր վերլուծությունը պնդում է, որ ավելի անմիջական վտանգը ավելի քիչ նման է գիտաֆանտաստիկ եւ ավելի շատ նման է ծավալի խնդրի. գեներատիվ AI-ն հայտնի հարձակման գրքերը դարձնում է ավելի արագ, ավելի էժան եւ հասանելի ավելի շատ օպերատորների համար։ Հոդվածը պնդում է, որ AI-ի գործունեության գլոբալ աճը զարմանալի է, բայց հաճախ սխալ է հասկացվում։
CrowdStrike-ը հայտնել է, որ 2024-2025 թվականներին AI-ով աշխատող հակառակորդների հարձակումների 89 տոկոս աճ է գրանցվել, սակայն մեծ մասը ապավինում է ծանոթ մարտավարությանը, տեխնիկային եւ ընթացակարգերին, այլ ոչ թե նոր մեթոդներին։ Այս տեսանկյունից AI-ի առաջնային ներդրումն այսօր արդյունավետությունն է՝ ավելացնելով արագությունը, ծավալը եւ աղմուկը, հատկապես հետախուզության եւ առաքման մեջ։
Ըստ վերլուծության՝ մեծ լեզվական մոդելները կարող են արագ համախմբել եւ վերլուծել բաց կոդով տեղեկատվությունը, ինչը թույլ է տալիս հակառակորդներին քարտեզագրել կազմակերպությունները, ուսումնասիրել հրապարակայնորեն բացահայտված խոցելիությունները եւ նկատել մուտքի կետերը շատ ավելի արագ, քան մարդկային օպերատորները։
Microsoft Threat Intelligence-ը նկատել է, որ հյուսիսկորեացի դերակատարները օգտագործում են մեծ լեզվական մոդելներ՝ հանրային խոցելիությունները հետազոտելու եւ բարձրարժեք թիրախները պրոֆիլավորելու համար՝ բարելավելով տեխնիկական մանրամասների եւ հարձակման վեկտորների ըմբռնումը։
Ավելի լայն իմաստով, հարձակվողները այժմ սկսում են սկանավորել նոր բացահայտված թերությունները ընդհանուր խոցելիությունների եւ բացահայտումների (CVE) հայտարարությունից մի քանի րոպե անց, հաճախ նախքան պաշտպանները կարդացել են խորհուրդը՝ սեղմելով պատասխանի պատուհանը։ Առաքման ժամանակ փոփոխությունը կատարման է, այլ ոչ թե գյուտի։
Գեներատիվ AI-ն կարող է քերականորեն մաքուր, համատեքստային գիտակցված ֆիշինգ կազմել մասշտաբով՝ նվազագույն օպերատորի մուտքով։ Microsoft-ը պարզել է, որ թիրախները 4,5 անգամ ավելի հավանական են սեղմել AI-ի կողմից ստեղծված ֆիշինգային նամակները, քան ավանդական մշակվածները։
Մութ վեբ ֆորումներում գովազդվող գործիքները պնդում են, որ ֆիշինգային արշավներին աջակցում են, իսկ Black Basta ransomware խմբի ներքին զրույցները ցույց են տալիս, որ անդամները քննարկում են ChatGPT-ի օգտագործումը ֆիշինգային հաղորդագրություններ գրելու համար։ Վերլուծությունը ցույց է տալիս, որ ոչ բոլոր հակառակորդներն են հավասարապես օգուտներ քաղում։
Թեեւ լրտեսությամբ զբաղվող ազգային պետական դերակատարները, ինչպիսիք են Ռուսաստանը եւ Չինաստանը, որդեգրել են գեներատիվ AI-ը՝ հետախուզությունը բարելավելու, ֆիշինգային բովանդակություն ստեղծելու եւ ազդեցության գործողություններ իրականացնելու համար, այս օգտագործումները ներկայացնում են կարողությունների կատարելագործում, այլ ոչ թե հիմնարար փոփոխություն։
Փաստարկը ենթադրում է, որ միջին մակարդակի դերակատարները առավելագույնս շահում են, քանի որ AI-ի մակարդակը հմտություններ է ձեռք բերում եւ նվազեցնում ծախսերը։ Պաշտպանները, ովքեր ֆիքսվում են հիպոթետիկ AI-ով աշխատող զրոյական օրերի վրա՝ անտեսելով AI-ի հաստատված մեթոդների արագացումը, ռիսկի են ենթարկվում սխալ պայքարի։
Վերլուծությունը հորդորում է վերանայել արագ patching, սպառնալիքների ավելի արագ տրիաժ եւ հակաֆիշինգային միջոցառումներ, որոնք հարմարեցված են մի աշխարհին, որտեղ հարձակվողները շարժվում են րոպեների ընթացքում, այլ ոչ թե օրերում։
