OpenAI安全测试时间大幅缩水,AI竞赛加速下隐患何解?

   时间:2025-04-12 18:57 来源:天脉网作者:钟景轩

近期,金融时报披露了一项关于OpenAI安全测试流程的重大变动。据报道,OpenAI在最新大型语言模型(LLM)的安全测试上采取了前所未有的快节奏,将原本需耗时数月的测试周期大幅缩短至几天。

这一变动背后,是OpenAI面临的来自meta、Google及xAI等科技巨头的激烈竞争压力。为了保持市场领先地位,OpenAI不得不加速新模型的推出进程。据悉,其最新的o3模型预计将在不久的将来发布,而留给测试团队进行安全评估的时间不足一周,与之前GPT-4长达六个月的测试期形成了鲜明对比。

一位曾参与GPT-4测试的人士透露,过去的安全测试过程更为严谨,某些潜在风险往往需要经过长时间的测试才能被发现。然而,在当前的市场竞争环境下,OpenAI为了追求速度,不得不在一定程度上牺牲了安全测试的全面性。

全球范围内,AI安全测试标准尚未统一,这在一定程度上加剧了企业的安全风险。欧盟即将推出的《AI法案》要求企业对其最强大的模型进行严格的安全测试,但在此之前,企业往往缺乏主动披露模型潜在风险的动力。OpenAI曾承诺会构建定制模型版本,以测试其潜在滥用风险,然而在实际操作中,这一承诺并未得到充分兑现。

据AI Futures Project负责人Daniel Kokotajlo表示,由于缺乏强制性的监管措施,企业在面对竞争压力时,往往会选择忽视潜在风险,以追求更快的产品推出速度。OpenAI虽然曾表示会对模型进行微调以测试其潜在风险,但实际上,这一测试过程仅限于较老旧的模型,对于最新推出的o1和o3-mini等模型,并未进行全面测试。

安全测试的另一大问题是,测试往往基于早期的模型检查点,而非最终发布的模型。这意味着,即使测试结果显示模型安全,但在实际发布时,模型可能已经发生了重大变化,从而引入了新的风险。一位前OpenAI技术人员对此表示担忧,认为发布未经充分测试的更新模型是一种不负责任的行为。然而,OpenAI方面则辩称,其检查点与最终模型基本一致,且通过自动化测试等手段,能够确保模型的安全性。

 
反对 0举报 0 收藏 0
 
更多>同类天脉资讯
全站最新
热门内容
媒体信息
新传播周刊
新传播,传播新经济之声!
网站首页  |  关于我们  |  联系方式  |  版权隐私  |  网站留言  |  RSS订阅  |  违规举报