人类或将依靠人工智能加强网络安全保护



AI将成为网络安全防御神器


  北京时间11月24日消息,据外媒报道,随着互联网的普及,人们的财产也在迅速数字化(私人照片、客户敏感数据、知识产权等),这时如何保护它们就成了企业和个人的重要一课。


  虽然每年都有数十亿美元的资金投入该领域,但网络攻击事件仍然层出不穷,黑客借此也大发横财。不过,AI的出现可帮了大忙,它可以让安全厂商、企业以及我们个人在应对网络袭击中占据上风。下面,我们就来共同盘点眼下AI网络安全创新的六大关键领域。


  侦测并阻止黑客入侵物联网设备


  据思科预测,到2020年全球联网设备数量将从今天的150亿部上升到500亿部。可是,由于受到软硬件资源限制,许多联网设备都不具备基本的安全防护措施。上个月黑客针对美国的DDoS攻击就是最好的明证,当时首先被攻破的就是一款物联网摄像头,随后半个美国的网站都陷入了瘫痪状态。


  更为恐怖的是,随着利用物联网发动DDoS攻击的Mirai原代码被公开,此类恶意程序日益猖獗,黑客可以对任何企业或个人发动攻击。物联网安全是AI技术得到发展的最突出领域之一。轻量级的AI预测模型可以在性能较差的设备上自动驻留并运行,实时侦测并阻挡各种可疑行为。


  眼下,多家初创企业正在利用AI技术解决物联网安全挑战,其中较为知名的包括CyberX、PFP Cybersecurity和Dojo-Labs等。


  预防恶意软件和文档的运行


  基于文件的网络攻击依然是最主要的网络袭击方式。在这种网络攻击中,最容易成为攻击目标的文件包括executables (.exe)、Acrobat Reader (.pdf)以及微软Office文件。


  单行代码中的微小改变就可以产生新的恶意文件,它们有相同的恶意意图,但会留下不同的签名。


  同样的,微小的改变也能打造签名级别的反病毒程序或其他启发式的高级端点检测与反应的解决方案,而如今最致命的就是网络及解决方案沙箱。


  有几家初创企业正尝试利用AI应对这个问题。它们利用AI的巨大能力来查阅每个可疑文件数以百万计的特征,发现哪怕是最轻微的代码冲突。开发这种基于文件的AI安全系统的领导者包括Cylance、Deep Instinct和Invincea等公司。


  提高安全运营中心的运营效率


  对于安全团队来说,最重要的问题之一就是每天收到安全警报溢出引发的警报疲劳。举例来说,北美的公司平均每天都会收到至少一万起安全警报,这让安全团队疲于奔命。在很多情况下,这可能令恶意软件成为“漏网之鱼”,尽管其已经被标记为“可疑目标”。要想万无一失,就需要多个信息源、集成内部日志以及配有外部威胁情报服务的监控系统紧密配合,对所有事件进行自动分类。


  该领域现在已经成了网络安全的大热点,大企业可以借助该技术保护自己的安全运营中心。一些初创企业正利用AI技术解决这种威胁,如Phantom、Jask、StatusToday和CyberLytic。


  量化风险


  如何量化企业面临的网络风险是一大挑战,而这主要是因为我们缺乏历史数据且需要考虑的变量太多。对于急切想要量化自家网络风险的企业来说,它们必须经历繁琐的网络风险评估程序。该程序主要依据调查问卷,看企业采取的各种措施是否符合网络安全标准。不过要想应对真正的网络风险,这种方法是远远不够的,这时AI技术就可以派上用场了。


  借助AI的强大计算能力,我们可以实时处理数以百万计的数据点,同时生成预测,帮助企业和网络保险公司获得最精确的网络风险评估。多家初创企业正在参与此类研究,包括BitSight和Security Scorecard等。


  网络流量异常检测


  如何检测异常流量对安全公司来说是个巨大的挑战,因为每家公司都有不同的流量消耗方式。不过,通过寻找跨协议相关性,不依赖侵入性的深度数据包检查,分析内外部网络流量中无穷无尽的元数据相关性,AI技术就能检查异常网络流量。专注于该领域的初创企业包括Vectra Networks、DarkTrace和BluVector等。


  恶意移动应用的监测


  爱立信公司预测,全世界智能手机保有量将从现在的25亿台升至2020年的60亿台。通过对安卓和iOS平台上最受欢迎100大应用的研究,研究公司Arxan research发现56%的应用都被黑客光顾过。眼下,Google Play与App Store两大应用店的可用应用都已经超过200万个,我们需要精确的将它们分类。


  而要想做好这一工作,就必须查出最轻微的混淆技术,以便判断应用是否有恶意因子,而AI是最好的分类助手。眼下开发该技术的公司包括Deep Instinct、Lookout Mobile Security和Checkpoint等。

(0)
上一篇 2016年11月24日 14:52
下一篇 2016年11月24日 15:31