看到任何聲稱基于AI的安全產(chǎn)品時,務(wù)必持懷疑態(tài)度。
網(wǎng)絡(luò)安全解決方案的支出持續(xù)快速增長,根據(jù)IDC的最新數(shù)據(jù),預(yù)計今年全球網(wǎng)絡(luò)安全支出將比2018年增長近9.4%,達到1066.3億美元 - 其中大型組織占該支出的近三分之二。然而,盡管如此,有人預(yù)測到2019年底,網(wǎng)絡(luò)犯罪的總成本可能超過2萬億美元,這意味著網(wǎng)絡(luò)犯罪活動的成本將超出安全支出的20倍左右。
這樣的結(jié)果是由催生網(wǎng)絡(luò)罪犯的環(huán)境導(dǎo)致。有一個經(jīng)典的說法,企業(yè)機構(gòu)必須預(yù)測并阻斷他們將遭遇的一萬種網(wǎng)絡(luò)攻擊,而網(wǎng)絡(luò)罪犯只需要利用一個配置錯誤的設(shè)備或未打補丁的系統(tǒng)就可以入侵?,F(xiàn)在唯一的變化是,在全球數(shù)字化轉(zhuǎn)型之后,風險比以往任何時候都要高。
三個關(guān)鍵的安全策略
重復(fù)相同的行為卻期待得到與以往不同的結(jié)果是無濟于事的。要贏得這場戰(zhàn)爭,你必須重新思考你的安全策略,并且從三個基本方向改變安全模式。
1.從安全性開始。與其先構(gòu)建網(wǎng)絡(luò)再考慮其安全性,不如從構(gòu)建安全的網(wǎng)絡(luò)開始。當前的安全策略需要無縫地貫穿于你的分布式網(wǎng)絡(luò)中進行一致地實施,從核心網(wǎng)絡(luò)到云,從OT網(wǎng)絡(luò)到分支機構(gòu)和移動工作人員。
2.利用網(wǎng)絡(luò)犯罪經(jīng)濟學。網(wǎng)絡(luò)罪犯組織與任何組織一樣受到財務(wù)限制,確保成本與管理費用低于收入才能盈利。這意味著大多數(shù)罪犯更喜歡使用已知的漏洞攻擊目標,畢竟開發(fā)新的工具和零日攻擊的成本是昂貴的。因此,可以通過以下操作阻斷大部分風險:保持良好的安全環(huán)境,發(fā)現(xiàn)并修復(fù)安全漏洞,集中可見性和控制,選擇基于互操作性、高性能和深度集成的集成安全框架,并將網(wǎng)絡(luò)分段以限制或減緩那些竊取數(shù)據(jù)和利用設(shè)備的惡意軟件的橫向移動。
3.以毒攻毒。商業(yè)和網(wǎng)絡(luò)犯罪都以毫秒級速度運行。許多網(wǎng)絡(luò)事件之所以成功,是因為它們發(fā)生的速度快于安全系統(tǒng)的響應(yīng)速度。如果在響應(yīng)過程的任何步驟都需要人工干預(yù),則尤其如此。相反,重大事件需要立即觸發(fā)響應(yīng)。當然,自動化只能對已知的威脅作出響應(yīng)。增加機器學習可以讓自動化系統(tǒng)更好地識別異常并減少誤報,但這個過程是漫長的。
當人人都在談AI時,你要小心了
與自動化和機器學習不同,AI試圖復(fù)制人類智能的分析過程,不僅能以機器速度實現(xiàn)決策,而且隨著時間的推移,甚至可以在安全事件發(fā)生之前就開始預(yù)測和預(yù)防。當然,這項技術(shù)要實現(xiàn)起來難度很高,這就是為什么當你看到任何聲稱基于AI的安全產(chǎn)品時需要持懷疑態(tài)度的原因。
真正的AI系統(tǒng)需要人工神經(jīng)網(wǎng)絡(luò)(ANN)和深度學習模型相結(jié)合,不僅可以加速數(shù)據(jù)分析和決策,而且能使網(wǎng)絡(luò)在遇到新情境時自適應(yīng)和演化。這種龐大的訓(xùn)練過程包括精心提供大量日益復(fù)雜的信息,因此它不僅可以識別已知模式并制定解決問題的策略,還可以在遇到新模式時調(diào)整算法以解決問題。
AI是如何煉成的?
在甄別聲稱基于AI的解決方案時,最應(yīng)關(guān)注的問題就是它是如何被訓(xùn)練的。AI社區(qū)建議任何AI解決方案都需要經(jīng)過三個階段的訓(xùn)練:
1.監(jiān)督學習。這個初始模型首先為AI系統(tǒng)提供大量標記數(shù)據(jù),其中每個數(shù)據(jù)集的特征都有明確標記,并且決策是可預(yù)測的。例如,F(xiàn)ortinet的AI開發(fā)團隊利用200多名FortiGuard Lab研究人員生成的數(shù)據(jù)進行訓(xùn)練,他們目前每年記錄超過58萬小時的研究數(shù)據(jù)。此外,它還提取從全球部署的設(shè)備和傳感器收集來的數(shù)據(jù),包括來自我們的威脅情報來源的數(shù)據(jù)。最終,正是這種輸入水平和輸入量使得我們的AI系統(tǒng)能夠通過擴大其可識別模式集和響應(yīng)集,得以不斷成長、完善。
2.無監(jiān)督學習。在下一階段,慢慢引入未標記的數(shù)據(jù),迫使系統(tǒng)在開始看到和識別新模式時自行學習。
3.強化學習。在以上兩個過程中使用已知和未知的文件驗證系統(tǒng)的性能,當系統(tǒng)表現(xiàn)良好時,給與“獎勵”。這三種學習策略之間的訓(xùn)練周期持續(xù)數(shù)月,有時甚至數(shù)年,具體取決于問題的復(fù)雜性。
由于學習過程的遞歸要求,任何不使用這三種訓(xùn)練模型的AI系統(tǒng)都是不完整的。每個學習模型都有助于改進結(jié)果并提高準確性。
當然,由于威脅環(huán)境在不斷演變,AI訓(xùn)練模式不可能一成不變。系統(tǒng)需要不斷注入新的模型,這些新模型從現(xiàn)有的信息中分離出來,基于新威脅、新技術(shù)以及新的識別與解決問題策略。并且還必須持續(xù)監(jiān)測數(shù)據(jù)是否被消耗,因為只有數(shù)據(jù)被消耗時才能產(chǎn)生更好的效果。AI有可能無意中被壞數(shù)據(jù)毒害,影響其做出正確的決策,或者蓄意中毒而錯過某些類型的威脅。
AI不在江湖,江湖卻總有他的傳說
許多網(wǎng)絡(luò)安全公司聲稱已將AI功能引入其解決方案中。但事實是,大多數(shù)公司都沒有真正實現(xiàn)AI,因為他們的底層架構(gòu)太小,或者訓(xùn)練模式不完整。他們拒絕透露所采用的訓(xùn)練方法,這引發(fā)了人們對他們AI系統(tǒng)可靠性的擔憂。對于任何希望采購基于AI的系統(tǒng)的企業(yè)機構(gòu)來說,這些都應(yīng)被視為危險信號。
值得注意的是,即使一個AI系統(tǒng)滿足了基本的訓(xùn)練模式和底層架構(gòu)的要求,它仍然需要在你現(xiàn)有的安全環(huán)境中進行互操作。孤立的情報是無用的。共享的威脅情報越多——無論是來自外部情報源還是來自分布式網(wǎng)絡(luò)中的集成安全系統(tǒng)——基于AI的防御系統(tǒng)將變得越有效。
只要行之有道,基于AI的系統(tǒng)將為你筑起周密的保護墻,阻斷最復(fù)雜的網(wǎng)絡(luò)犯罪。它將安全性深深地根植于你的基礎(chǔ)設(shè)施中,識別并響應(yīng)最高級的威脅,迫使犯罪分子要么打道回府,要么尋找其他更容易下手的受害者,當然第二種做法的可能性更大。
本文來源:securityweek,由安數(shù)網(wǎng)絡(luò)編譯整理。如涉及侵權(quán),請及時與我們聯(lián)系,我們會在第一時間刪除或處理侵權(quán)內(nèi)容。
及時掌握網(wǎng)絡(luò)安全態(tài)勢 盡在傻蛋網(wǎng)絡(luò)安全監(jiān)測系統(tǒng)
【網(wǎng)絡(luò)安全監(jiān)管部門】免費試用
本文來源:
如涉及侵權(quán),請及時與我們聯(lián)系,我們會在第一時間刪除或處理侵權(quán)內(nèi)容。
電話:400-869-9193 負責人:張明