「AI 黑客」來襲,Agentic AI 如何成為新守護者?
01
AI 崛起:技術雙刃劍下的安全暗戰
隨著 AI 技術的快速發展,網絡安全面臨的威脅日益復雜化,攻擊手段不僅更高效、隱蔽,還催生了新型的「AI 黑客」形態,因此引發了各類新型網絡安全危機。
首先是生成式 AI 正重塑網絡詐騙的「精準度」。
簡單而言,就是將傳統的釣魚攻擊智能化,比如在更精準的場景中,攻擊者會利用公開社交數據訓練 AI 模型,批量生成個性化釣魚郵件,模仿特定用戶的寫作風格或語言習慣,實施「定制化」詐騙,繞過傳統垃圾郵件過濾器,大幅提升攻擊成功率。
接著是最為大眾所熟知的深度偽造(Deepfake)與身份冒用。在 AI 技術成熟之前,傳統的「變臉詐騙攻擊」,即 BEC 詐騙,全稱為「Business Email Compromise」,具體為攻擊者通過將郵件發件人偽裝成你的領導、同事或商業伙伴,以此騙取商業信息或錢財、或者獲取其他重要資料。
如今,「變臉」真的發生了。AI 生成的換臉、變聲技術可偽造公眾人物或親友身份,用于詐騙、輿論操控甚至政治干預。就在兩個月前,上海某企業財務總監接到來自「董事長」的視頻會議邀請,對方通過 AI 換臉仿聲稱需緊急支付「境外合作保證金」,該總監依指示轉 380 萬元至指定賬戶,后識破系境外詐騙團伙利用深度偽造技術作案。
第三則是自動化攻擊與漏洞利用。AI 技術的進步讓大量場景向智能化、自動化演進,網絡攻擊自然也是如此。攻擊者可借助 AI 自動掃描系統漏洞、生成動態攻擊代碼,并對目標實施無差別快速攻擊,比如 AI 驅動的「零日攻擊」在發現漏洞后會立即編寫并執行惡意程序,傳統防御系統難以實時響應。
就在今年春節,DeepSeek 官網遭遇 3.2Tbps 超大規模 DDoS 攻擊,黑客同步通過 API 滲透注入對抗樣本,篡改模型權重導致核心服務癱瘓 48 小時,直接經濟損失超數千萬美元,事后溯源發現美國 NSA 長期潛伏的滲透痕跡。
數據污染和模型漏洞同樣也是一種新威脅。攻擊者通過在 AI 訓練數據中植入虛假信息(即數據投毒),或利用模型自身缺陷,誘導 AI 輸出錯誤結果——這會對關鍵領域造成直接的安全威脅,甚至可能引發連鎖災難性后果,例如自動駕駛系統因對抗樣本誤判「禁止通行」為「限速標志」,或醫療 AI 將良性腫瘤誤判為惡性。
02
AI 還需 AI 治
面對 AI 驅動的網絡安全新威脅,傳統防護模式已顯乏力。那么,我們又有哪些應對之策呢?
不難發現,目前的業內共識已指向「以 AI 對抗 AI」——這不僅是技術手段的升級,更是安全范式的轉變。
現有的嘗試大致分為三大類,分別是 AI 模型的安全防護技術、行業級的防御應用以及更宏觀層面的政府與國際協作。
AI 模型安全防護技術的關鍵在于模型的內生安全加固。
以大型語言模型(LLM)的「越獄」漏洞為例,其安全防護機制常因通用型越獄提示策略失效——攻擊者通過系統性繞過模型內置保護層,誘導 AI 生成暴力、歧視或違法內容。為防止 LLM 的「越獄」,各家模型公司都做出了嘗試,比如 Anthropic 就于今年二月發布了「憲法分類器」。
此處的「憲法」指的是不可違背的自然語言規則,作為一種在合成數據上訓練的保障措施,通過規定允許和限制的內容,實時監測輸入輸出內容,在基準條件的測試中,其 Claude3.5 模型在分類器保護下,對高級越獄嘗試的成功阻止率從 14% 提升至 95%,顯著降低了 AI 的「越獄」風險。
而除了基于模型、更通用的防御手段外,行業級的防御應用同樣值得關注,其垂直領域的場景化防護正成為關鍵突破點:金融行業通過 AI 風控模型與多模態數據分析構建反欺詐壁壘,開源生態借助智能化漏洞獵捕技術實現零日威脅的快速響應,而企業敏感信息保護則依托 AI 驅動的動態管控體系。
例如,思科在新加坡國際網絡周展示的方案,可實時攔截員工向 ChatGPT 提交的敏感數據查詢請求,并自動生成合規審計報告優化管理閉環。
在宏觀層面上,政府與國際的跨區域協作也正加速推進。新加坡網絡安全局發布《人工智能系統安全指南》,通過強制本地化部署與數據加密機制約束生成式 AI 濫用,特別針對釣魚攻擊中 AI 偽造身份的識別建立防護標準;美英加三國同步啟動「AI 網絡代理計劃」,聚焦可信系統研發與 APT 攻擊的實時評估,通過聯合安全認證體系強化集體防御能力。
那么,哪些方法能最大限度地用 AI 來應對 AI 時代的網絡安全挑戰呢?
「未來需要 AI 安全智能中樞并圍繞中樞構建新體系。」在第二屆武漢網絡安全創新論壇上,青藤云安全創始人張福曾在分享中強調以 AI 對抗 AI 方為未來網絡安全防御體系的核心,「3 年內,AI 將會顛覆現有的安全行業,和所有的 2B 行業。產品將會重新構建,實現前所有未有的效率和能力的提升。未來產品是給 AI 用的,而不是給人用的。」
在一眾方案中,Security Copilot 的模式顯然對「未來產品是給 AI 用的」提供了很好的示范:一年前,微軟推出了智能 Microsoft Security Copilot 副駕駛來幫助安全團隊迅速準確地檢測、調查和響應安全事件;一個月前,又再次發布了用于在釣魚攻擊、數據安全和身份管理等關鍵領域自動協助的 AI 智能體。
微軟新增六個自研 AI 智能體以擴展 Security Copilot 功能。其中三個用于輔助網絡安全人員篩選警報:釣魚分類智能體審查釣魚警報、過濾誤報;另兩個分析 Purview 通知,檢測員工未經授權使用業務數據的情況。
條件訪問優化智能體與 Microsoft Entra 協作,指出不安全的用戶訪問規則,并生成一鍵修復方案供管理員執行。漏洞修復智能體和設備管理工具 Intune 集成,助力快速定位易受攻擊的終端,應用操作系統補丁。威脅情報簡報智能體生成可能威脅組織系統的網絡安全威脅報告。
03
無相:L4 級高階智能體的保駕護航
無獨有偶,在國內,為了實現真正意義上「自動駕駛」級別的安全防護,青藤云安全推出了 全棧式安全智能體「無相」 。作為全球首個實現從「輔助型 AI」向「自主智能體」(Autopilot)跨越的安全 AI 產品,其核心突破在于顛覆傳統工具的「被動響應」模式,使其自主、自動且智能。
通過融合機器學習、知識圖譜與自動化決策技術,「無相」可獨立完成威脅檢測、影響評估到響應處置的全流程閉環,實現真正意義上的自主決策與目標驅動。其「Agentic AI 架構」設計模擬人類安全團隊的協作邏輯:以「大腦」整合網絡安全知識庫支撐規劃能力,「眼睛」細粒度感知網絡環境動態,「手腳」靈活調用多樣化的安全工具鏈,并通過多智能體協作形成信息共享的高效研判網絡,分工合作、共享信息。
在技術實現上,「無相」采用「ReAct 模式」(Act-Observe-Think-Act 循環)與「Plan AI + Action AI 雙引擎架構」,確保復雜任務中的動態糾偏能力。當工具調用異常時,系統可自主切換備用方案而非中斷流程,例如在 APT 攻擊分析中,Plan AI 作為「組織者」拆解任務目標,Action AI 作為「調查專家」執行日志解析與威脅建模,二者基于實時共享的知識圖譜實現并行推進。
功能模塊層面,「無相」構建了完整的自主決策生態: 智能體人設模擬安全分析師的反思迭代思維,動態優化決策路徑; 工具調用整合主機安全日志查詢、網絡威脅情報檢索及 LLM 驅動的惡意代碼分析; 環境感知實時捕獲主機資產與網絡信息;知識圖譜動態存儲實體關聯,輔助決策;多智能體協作通過任務分拆與信息共享,并行執行任務。
目前「無相」在告警研判、溯源分析以及輸出安全報告這三大核心應用場景中的表現最為出色。
傳統安全運營中,海量告警的真偽甄別耗時費力。以一次本地提權告警為例:無相的告警研判智能體自動解析威脅特征,調用進程權限分析、父進程溯源、程序簽名驗證等工具鏈,最終判定為誤報——全程無需人工介入。在青藤現有告警測試中,該系統已實現 100% 告警覆蓋率與 99.99% 研判準確率,并將人工工作量削減超 95%。
面對真實威脅如 Webshell 攻擊,智能體通過代碼特征提取、文件權限分析等跨維度關聯,秒級確認攻擊有效性。傳統需多部門協作、耗時數日的深度溯源(如上傳播徑還原、橫向影響評估),現由系統自動串聯主機日志、網絡流量、行為基線等數據流,生成完整攻擊鏈報告,將響應周期從「天」壓縮至「分鐘」。
「我們的核心是將 AI 和人的合作關系扭轉了,可以把 AI 作為一個人來合作,實現從 L2 到 L4 的跨越,即從輔助駕駛向高階自動駕駛跨越。」青藤聯創兼產品副總裁胡俊分享道,「隨著 AI 能適配的場景更多,決策的成功率更高,逐漸能夠承擔更多的責任,這樣人和 AI 之間的責任分工就會有變化。」
在溯源分析這個場景中,首先是 Webshell 告警觸發「無相 AI」驅動的多智能體安全團隊協同溯源:「研判專家」基于告警定位 one.jsp 文件,生成文件內容分析、作者溯源、同目錄排查及進程追蹤等并行任務,由「安全調查員」智能體調用文件日志工具,快速鎖定 java(12606)進程為寫入源,該進程及關聯主機 10.108.108.23(通過訪問日志發現高頻交互)相繼納入調查。
智能體通過威脅圖譜動態擴展線索,從單一文件逐層深挖至進程、主機,研判專家匯總任務結果綜合判定風險。此過程將人工需數小時至數天的排查壓縮至幾十分鐘,以超越人類高級安全專家的精準度還原攻擊全鏈路,無死角追蹤橫向移動路徑,紅隊評估也顯示難以規避其地毯式調查。
「大模型比人工好是因為它能徹查邊邊角角,而非憑經驗排除可能性低的情況。」胡俊解釋道,「這樣相當于廣度和深度都更好。」
在完成復雜攻擊場景的調查后,整理告警與調查線索并生成報告往往耗時費力。而 AI 可實現一鍵式總結,以可視化時間線的形式清晰呈現攻擊過程,如同電影般連貫展示關鍵節點——系統會自動梳理關鍵證據生成攻擊鏈的關鍵幀,并結合環境上下文信息,最終生成動態的攻擊鏈路圖譜,讓整個攻擊軌跡以直觀、立體的方式呈現。
04
結語
很顯然,AI 技術的發展為網絡安全帶來雙重挑戰。
一方面,攻擊者利用 AI 實現攻擊的自動化、個性化和隱蔽化;另一方面,防御方需加速技術創新,通過 AI 增強檢測與響應能力。未來,攻防雙方的 AI 技術競賽將決定網絡安全的整體態勢,而安全智能體的完善將是平衡風險與發展的關鍵。
而安全智能體「無相」在安全架構與認知層面都帶來了新的變化。
「無相」本質上是改變了對 AI 的使用方式,其突破性在于將多維數據感知、防護策略生成與決策可解釋性熔鑄為有機整體——從過往將 AI 作為工具使用的模式轉變為給 AI 賦能使其能自主且自動地工作。
通過關聯分析日志、文本、流量等異構數據,系統能在攻擊者構建完整攻擊鏈前捕捉 APT 活動的蛛絲馬跡。更關鍵的是,其決策過程的可視化推理解釋,讓傳統工具「知其然不知其所以然」的黑盒告警成為歷史——安全團隊不僅能看見威脅,更能理解威脅的演化邏輯。
這個革新的本質是安全思維從「亡羊補牢」到「未雨綢繆」的范式躍遷,是對攻防博弈規則的重新定義。
「無相」如同擁有數字直覺的獵手:通過實時建模內存操作等微觀行為特征,它能從海量噪聲中揪出潛伏的自定義木馬;動態攻擊面管理引擎持續評估資產風險權重,確保防護資源精準投向關鍵系統;而威脅情報的智能消化機制,則將日均萬條告警轉化為可行動的防御指令,甚至預測攻擊變種的演化方向——當傳統方案還在疲于應對已發生的入侵時,「無相」已在對攻擊者的下一步落子進行預判封堵。
「AI 智能中樞系統(高階安全智能體)的誕生,將會徹底重塑網絡安全的格局。而我們唯一需要做的,就是徹底抓住這個機會。」張福道。