人工智能(AI)和机器学习(ML)技术的进步获得了广泛关注,据尼尔森诺曼集团(Nielsen Norman Group)估计,人工智能工具可能会将员工的生产力提高66%,这使得各地公司都想利用这些工具来提高工作效率。但相关专家警告称,人工智能的使用可能会产生一些负面后果,包括产生不准确的结果、数据泄露和盗窃。
那么,企业如何在不影响安全性的情况下使用这些强大的AI/ML工具呢?下面,我们将讨论人工智能工具可能带来的风险,并提供8个安全利用AI工具的技巧,以帮助企业尽可能安全地利用这些工具。
本质上来说,AI/ML只是大规模的统计数据。所有人工智能模型都依赖于数据来统计地生成其关注领域的结果。因此,大多数风险都围绕着上述数据,尤其是机密或敏感数据,使用外部AI/ML工具的公司数据可能会意外泄露或有被窃取知识产权的风险。此外,使用错误数据的人工智能工具将产生不准确的结果。
幸运的是,许多人工智能工具非常强大,只要采取一些预防措施,就可以安全地使用。
技巧1:记住,免费的产品可能代价沉重
如果您使用免费的人工智能工具或服务,那么您有理由怀疑它可能会利用您提供的数据。许多早期的人工智能服务和工具(包括ChatGPT)都采用了类似于Facebook和TikTok等社交媒体服务的使用模式。虽然不花钱使用这些网站,但却是在分享自己的私人数据,这些公司会利用这些数据来定位广告和盈利。同样地,一个免费的人工智能服务可以从您的设备上收集数据,并保留您的提示信息,然后用这些提示来训练它的模型。虽然这看起来没有恶意,但您永远不知道人工智能服务将如何从您的数据中获利。如果该公司遭到入侵,威胁行为者可能会访问您的数据。
技巧2:签订法律审查协议
要了解人工智能工具或服务如何处理您的数据,请阅读供应商的最终用户许可协议、主服务协议、条款和条件以及隐私政策。这些冗长而复杂的文件通常使用笼统的语言来模糊供应商可能如何使用您的数据,因此公司律师应该审查这些文件。您的法律部门了解保护您的敏感数据(包括个人身份信息)的法规要求。他们可以熟练地解释这些文件,并在任何条款危及您的数据时提醒您。
技巧3:保护内部数据
使用外部人工智能工具的一个简单风险是,员工(有意或无意)可能与该工具共享敏感或机密数据,从而导致数据被滥用。为了减轻这种威胁,公司必须确保对可以访问机密或敏感数据的人员应用最小特权原则。不幸的是,一些组织没有充分阻止员工访问他们职责以外的公司数据。如果您限制员工只访问他们需要的精确数据,就可以最大限度地减少他们可能泄露给外部人工智能工具的数据量。
技巧4:检查设置并考虑为隐私付费
无论人工智能工具或服务是免费的还是付费的,它们通常都有额外的隐私设置。有些工具可以设置为不存储提示数据。检查您的人工智能工具的隐私设置,并将它们配置为您的偏好。此外,虽然免费工具可能保留使用您数据的权利,但您可以支付许可费以获得提供更多保护的人工智能工具的企业版本。这些工具通常包括不使用数据和保持数据分段的功能。
技巧5:验证AI工具供应商的安全性
在采用任何新的外部工具或服务合作伙伴时,验证供应商和供应链安全性应该是您的默认实践。数字供应链漏洞证明,供应商可能成为维护安全的最薄弱环节。因此,第三方风险管理(TPRM)产品和流程对信息安全至关重要。在使用人工智能工具和服务合作伙伴时,正式的TPRM流程必不可少。
技巧6:利用本地开源AI框架和工具
免费且友好的在线外部人工智能工具的可访问性带来了风险,为确保数据隐私,请考虑避免使用外部工具。另外,您也可以自己部署和创建一些免费的AI框架和工具。这些框架需要更多的人工智能和数据科学专业知识,因此它们可能需要您投入一定的成本。
技巧7:跟踪公司的人工智能使用情况
很难跟踪员工使用的每个资产、软件即服务(SaaS)工具或数据存储,因为云和Web服务使每个人都可以使用基于Web的工具。基于人工智能的SaaS产品也是如此。监控员工使用哪些外部人工智能工具,如何使用,以及使用哪些数据,审计和记录人工智能使用情况,作为购买流程的一部分。在确定所使用的所有内部和外部AI工具后,您可以更好地了解所面临的风险。
技巧8:创建AI政策并提高风险意识
在安全领域,一切都始于政策。企业面临的风险取决于企业的特定任务和需求,以及企业所使用的数据。处理公共数据的公司可能面临较低的数据共享风险,并允许宽松的人工智能政策,而处理机密事务的公司将对外部人工智能工具的数据使用有严格的规定。最后,必须要根据公司的需求制定一项人工智能政策,且一旦制定了这一政策,就要定期和员工沟通与人工智能工具相关的风险。
人工智能工具可以利用快速简单的结果,从而提供巨大的商业利益,但同时也带来了潜在的风险,我们可以通过采取一些预防措施来安全地利用人工智能工具。
参考及来源:https://www.darkreading.com/vulnerabilities-threats/8-tips-on-leveraging-ai-tools-without-compromising-security