“恶梦般场景”:篡改数据的攻击很难被发现,后果却很严重
2022-11-20 12:0:0 Author: www.4hou.com(查看原文) 阅读量:24 收藏

导语:专家表示,在某些情况下,操纵数据的攻击可能比数据盗窃或勒索软件构成的威胁还要严重,却没有引起大多数企业的足够重视。

 p1.png

想象一下这样的网络安全灾难:一家制药商遭遇数据泄露事件,但没有数据被盗,也没有被植入勒索软件。相反,攻击者只是篡改了临床试验中的一些数据,最终导致公司发布了错误的药品。

眼下这只是假设的场景。当然,勒索软件和盗窃敏感数据仍然是首要的安全问题,但至少有一些工具和程序可用来缓解这些问题。

篡改数据是一种不同类型的威胁,对于某些组织而言,这种威胁可能更为严重,具体视情形而定。然而专家表示,它并没有引起许多企业的注意,因为这种攻击很少发生并曝光。

但这种攻击并非完全没有先例。比如在2021年初,一名闯入佛罗里达州水处理厂的黑客将水中氢氧化钠(碱液)的浓度提高到了不安全的水平。(所幸工作人员很快发现了这一破坏行径。)

Will Ackerly是美国国家安全局(NSA)前安全架构师,他发明了美国国防和情报机构使用的一种数据保护标准。他认为,操纵数据在今后几年将成为一种新兴威胁。

Ackerly现在是数据安全初创公司Virtru的联合创始人兼首席技术官,他表示,与数据安全领域的其他威胁相比,操纵数据可能“最邪恶、最难被检测”。而事实上,如今仍有“许多攻击者试图欺骗人们以为操纵数据威胁并不严重。”

另一个例子是在网络攻击中越来越多地使用深度造假音频和视频。VMware最近的一项研究发现,在过去这一年,三分之二的网络事件响应者调查了涉及伪造音频或视频的攻击,比一年前增加了13%。

专家表示,尽管令人震惊,但深度造假现象只是企业因数据操纵而面临更大威胁的一个侧影。

“噩梦般场景”

2011年至2017年担任TD Ameritrade首席技术官的Lou Steinberg表示,他与金融服务和制药等行业的众多CISO进行过交谈,他们越来越担心数据操纵攻击威胁,有时又被称为针对“数据完整性”的攻击。

在这类攻击的另一个例子中,威胁分子可能破坏上市公司的部分数据,然后公之于众,使其无法在季度末结账,现在是网络安全研究实验室CTM Insights创始人的Steinberg说。

他说:“如果你连自己的数据都无法相信,那会发生什么?这是噩梦般的场景。”

这类攻击已被警告了多年。很少有攻击成为头条新闻表明,它们可能比看起来更难得逞。

但专家表示,事实上,对付数据操纵威胁所需的技术和意识仍然还没有到位。

美国国家标准与技术研究所(NIST)在2020年的报告中特别指出,用于防止数据完整性攻击的技术包括用于检测文件更改的文件完整性监控服务,该服务可与日志和备份结合使用,防止来自外部攻击者或恶意内部人员的这类威胁。

但由于似乎是授权用户的人在使用盗取的凭据,或者因为他们是恶意的内部人员,这种方法不一定能检测到这些人更改的数据。

第二个问题是,收集和覆盖现代数据的速度是否真的使恢复相应数据的未污染版本成为可能。对于不断变化的文件而言,回滚比攻击造成的破坏还要大。

Forrester的首席分析师Heidi Shey表示,大多数企业还专注于其他数据安全问题,比如保护数据的机密性。对许多人来说,像数据完整性保护这样的工作不受重视。还有其他许多优先事项更抢眼,因而需要受到更大的关注。

不过,这是值得公司更加重视的话题。虽然眼下数据操纵可能只是一种潜伏的威胁,但这种攻击的潜在后果可能非常严重。

以假乱真

威胁也并不限于数据值的变化:研究人员表示,由于用来创建深度造假视频的同一种人工智能技术,医学扫描等图像被操纵的威胁也在加大。

图像造假当然不是什么新鲜事;近年来,许多军事虚假信息活动都采用了这种策略。但是战略性地插入改头换面的图像以代替原始图像可能更难被发现。

本古里安大学研究人员在2019年发表的一项研究发现,他们在人工智能的帮助下操纵CT扫描图,始终能够诱使放射科医生误诊肺部疾病。

领导这项研究的Yisroel Mirsky是该大学的进攻性人工智能研究实验室的负责人,他说:“如果你不留意这种威胁,几乎每次都会掉入陷阱。”试验还发现,即使放射科医生被告知某些图像是伪造的,他们上当受骗的几率仍高达60%。

研究人员在研究论文中写道,该研究旨在说明一个更大的威胁:攻击者实施这种行为,旨在阻止政党候选人、破坏研究工作、从事保险欺诈、进行恐怖活动,甚至实施谋杀。

值得注意的是,自进行研究以来,生成深度造假图像的技术取得了显著进步。每过几个月,这项技术就会变得更好:更高的分辨率、更高的逼真度。

攻击机器学习

一种受到比较大关注的数据操纵攻击是所谓的“对抗性机器学习”,即攻击者企图在训练阶段用虚假数据欺骗机器学习模型。

虽然这么做的动机可能有所不同,但结果是机器学习模型无法正常运行。微软昙花一现的Twitter聊天机器人Tay是对抗性机器学习的一个著名例子,但有许多记录在案的例子表明了威胁分子和研究人员对机器学习模型进行了成功的数据投毒攻击。

然而,这种类型的攻击通常并不导致数据实际泄露。相反,攻击者设法从外部影响机器学习模型。但这并不意味着为关键机器学习模型提供信息的数据存储并不是动机明确的黑客的成熟目标,埃森哲安全公司董事总经理兼埃森哲实验室安全研发负责人Lisa O’Connor如是说。

O'Connor表示,鉴于全世界依赖算法的程度越来越高,对抗性机器学习威胁是一个严重的问题。保护这个生态系统事关重大,MITRE ATLAS项目之类的计划旨在保护机器学习模型远离各种威胁。

说到底,不管有问题的数据源是什么,在当今的数字威胁环境中,很显然“不再是眼见为实”,身份验证供应商AU10TIX的首席执行官Carey O'Connor Kolaja表示。她说:“我们社会做决定的方式以及我们做决定所依赖的信息类型都发生了变化,无论是企业、政府还是个人。而这些信息很容易被操纵。

本文翻译自:https://www.protocol.com/enterprise/data-integrity-security-cyberattacks-threat如若转载,请注明原文地址

  • 分享至

取消 嘶吼

感谢您的支持,我会继续努力的!

扫码支持

打开微信扫一扫后点击右上角即可分享哟


文章来源: https://www.4hou.com/posts/GKX7
如有侵权请联系:admin#unsafe.sh