近期,关于顶级人工智能(AI)实验室在推进AI模型开发上遭遇瓶颈的传言甚嚣尘上,其中包括OpenAI、谷歌以及Anthropic等业界巨头。据传,这些实验室面临的主要难题在于高质量训练数据的稀缺,这一问题导致模型性能提升遭遇收益递减效应,进一步增加了继续投资的难度。
然而,对于这些负面报道,OpenAI的首席执行官山姆·奥尔特曼(Sam Altman)和Anthropic的首席执行官达里奥·阿莫代(Dario Amodei)均表达了不同观点。奥尔特曼在社交媒体上发布了一条引人深思的信息,以“不存在极限”作为暗示,似乎在反驳这些关于AI发展遇到阻碍的报道。阿莫代同样持乐观态度,他承认AI的发展确实面临多重挑战,但坚信总有解决之道,比如通过利用合成数据来突破现有限制。
前谷歌首席执行官埃里克·施密特(Eric Schmidt)也对这些报道提出了自己的看法。他预测,未来五年内,大型语言模型将继续经历两到三次重大迭代,其性能提升速度之快前所未见,且目前尚无迹象表明这一增长趋势即将放缓。施密特强调,尽管AI发展最终可能会遭遇瓶颈,但当前远未达到那个阶段。
施密特进一步指出,随着技术的进步,未来将涌现出更加先进和强大的AI模型,特别是在物理学和数学领域。他以OpenAI最近推出的Strawberry AI模型OpenAI-o1为例,展示了AI在特定领域取得的显著成就。然而,施密特也不忘提醒,随着AI模型的日益强大,其潜在风险也在不断增加。他警告说,这些高度先进的模型可能比人类更擅长发动“零日攻击”,即利用未被发现的安全漏洞进行攻击。
施密特还提到,生物病毒和新型战争也是AI发展可能带来的潜在威胁。他强调,随着AI技术的不断演进,我们必须密切关注其可能带来的各种风险,并采取有效措施加以防范。这些担忧无疑为AI的未来发展增添了一层复杂性和不确定性。