纽约时报》透露,OpenAI在2023年遭遇安全漏洞,但该公司表示,源代码和客户数据没有被泄露。
据《纽约时报》报道,OpenAI在2023年遭遇安全漏洞。这家美国报纸透露,威胁行为者获得了研究人员和其他员工之间的内部讨论,但他们没有访问公司系统的源代码。
OpenAI之前没有公开披露安全漏洞,也没有通知执法部门,因为没有客户或合作伙伴的信息被盗。
据《纽约时报》报道,“去年年初,一名黑客访问了ChatGPT制造商OpenAI的内部消息系统,并窃取了该公司人工智能技术设计的细节。”。“据两名知情人士透露,黑客从一个在线论坛的讨论中获得了细节,员工们在论坛上谈论了OpenAI的最新技术,但没有进入公司部署和构建人工智能的系统。”
高管们认为,威胁行为人是唯一一名与外国政府没有联系的黑客。
员工们被告知安全漏洞,他们担心中国ATP组织等民族国家行为者进行的网络间谍活动。
这一事件引发了人们对OpenAI安全级别的质疑。在入侵事件发生后,OpenAI的技术项目经理Leopold Aschenbrenner向董事会发送了一份备忘录,认为该公司需要加强措施,防止外国对手窃取其机密。
Aschenbrenner声称,今年春天,OpenAI因他泄露信息而解雇了他,在最近的一个播客上,他暗示了OpenAI的安全漏洞,但此前没有报道。他说,该公司实施的安全措施不足以防止外国行为者窃取关键机密。
情报和网络安全专家对人工智能的发展有不同的看法。一些人认为人工智能技术构成了重大的国家安全风险,而另一些人则表示没有证据表明存在这些风险。
然而,国家资助的黑客攻击组织和私营公司的风险很高,因此,他们需要采用高水平的网络安全标准。