OpenAI 亲自“打预防针”,警告自家新模型存在“高级别”网络安全风险
4 小时前 / 阅读约2分钟
来源:IT之家
OpenAI提醒其下一代AI模型或带来高级网络安全风险,正采取多重防护措施,计划推出新计划提供分级访问增强功能,并成立Frontier Risk Council顾问机构。

IT之家 12 月 11 日消息,当地时间 12 月 10 日,OpenAI 通过官方博客文章发出提醒:随着其下一代人工智能模型的能力迅速提升,可能会带来“高”级别的网络安全风险

OpenAI 在博客中指出,这些模型可能会开发出针对防御严密系统的有效零日远程漏洞,或在企业和工业入侵行动中发挥辅助作用,从而引发现实世界的安全影响。

OpenAI 表示,随着模型能力不断增强,相关团队正加大投入,以提升模型在防御性网络安全任务中的表现,并开发能协助安全人员完成代码审计和漏洞修补等工作的工具。

IT之家从文章中获悉,为降低潜在风险,OpenAI 正采取访问控制、基础设施加固、出口控制和持续监测等多重方式共同防护。OpenAI 还计划推出一项新计划,拟向符合条件、从事网络防御的用户与企业提供分级访问增强功能。

OpenAI 还将成立一个名为 Frontier Risk Council 的顾问机构,邀请经验丰富的网络防御专家和安全从业者与内部团队紧密协作。该机构的初期重点是网络安全,并将在未来拓展到其他前沿技术领域。

参考

  • 博客原文:Strengthening cyber resilience as AI capabilities advance