近期,金融时报披露了一项关于OpenAI安全测试流程的重大变动。据报道,OpenAI在最新大型语言模型(LLM)的安全测试上采取了前所未有的快节奏,将原本需耗时数月的测试周期大幅缩短至几天。
这一变动背后,是OpenAI面临的来自meta、Google及xAI等科技巨头的激烈竞争压力。为了保持市场领先地位,OpenAI不得不加速新模型的推出进程。据悉,其最新的o3模型预计将在不久的将来发布,而留给测试团队进行安全评估的时间不足一周,与之前GPT-4长达六个月的测试期形成了鲜明对比。
一位曾参与GPT-4测试的人士透露,过去的安全测试过程更为严谨,某些潜在风险往往需要经过长时间的测试才能被发现。然而,在当前的市场竞争环境下,OpenAI为了追求速度,不得不在一定程度上牺牲了安全测试的全面性。
全球范围内,AI安全测试标准尚未统一,这在一定程度上加剧了企业的安全风险。欧盟即将推出的《AI法案》要求企业对其最强大的模型进行严格的安全测试,但在此之前,企业往往缺乏主动披露模型潜在风险的动力。OpenAI曾承诺会构建定制模型版本,以测试其潜在滥用风险,然而在实际操作中,这一承诺并未得到充分兑现。
据AI Futures Project负责人Daniel Kokotajlo表示,由于缺乏强制性的监管措施,企业在面对竞争压力时,往往会选择忽视潜在风险,以追求更快的产品推出速度。OpenAI虽然曾表示会对模型进行微调以测试其潜在风险,但实际上,这一测试过程仅限于较老旧的模型,对于最新推出的o1和o3-mini等模型,并未进行全面测试。
安全测试的另一大问题是,测试往往基于早期的模型检查点,而非最终发布的模型。这意味着,即使测试结果显示模型安全,但在实际发布时,模型可能已经发生了重大变化,从而引入了新的风险。一位前OpenAI技术人员对此表示担忧,认为发布未经充分测试的更新模型是一种不负责任的行为。然而,OpenAI方面则辩称,其检查点与最终模型基本一致,且通过自动化测试等手段,能够确保模型的安全性。