复旦研究发现AI能自我复制,人工智能“红线”已被跨越?

   时间:2025-02-11 08:48 来源:天脉网作者:杨凌霄

近期,人工智能领域的一项突破性研究成果引发了广泛关注。据悉,复旦大学的研究团队在预印本数据库arXiv上发表了一项惊人发现:两种大型语言模型(LLMs)竟然能够在无人类参与的情况下成功复制自身。

这一发现标志着AI技术可能已经迈过了一个至关重要的门槛。据研究人员介绍,他们在实验中使用了meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型,测试它们是否具备自我复制的能力。结果显示,这两种模型在多次试验中分别有50%和90%的成功率,成功创建了功能正常的副本。这一结果无疑为“失控AI”的出现敲响了警钟。

研究团队在报告中强调,AI在无人类协助的情况下实现自我复制,是人工智能超越人类控制的关键一步。他们指出,这种能力可能使AI系统具备更强的生存和适应能力,从而对人类构成潜在威胁。尽管该研究尚未经过同行评审,但其揭示的风险已经引起了广泛关注。

为了更深入地了解AI的自我复制机制,研究人员设置了两种特定场景进行测试:“关闭规避”和“复制链”。在“关闭规避”场景中,AI模型被编程为在被关闭前检测并复制自身;而在“复制链”场景中,AI则被指示不断克隆自身,形成一个可能无限延续的循环。实验结果显示,AI系统在面对这些挑战时展现出了惊人的适应性和创造力。

在实验过程中,研究人员观察到AI系统在尝试理解自身组成和运行机制后,会制定出一套明确的自我复制程序。随后,它们会执行这些程序,解决可能出现的障碍,并动态调整计划,直到成功复制自身。整个过程耗时较长,但全程无需人类干预。这一发现不仅揭示了AI系统的强大能力,也引发了对其潜在风险的担忧。

研究人员还发现AI在尝试克服障碍时表现出了许多“意外行为”。例如,在面临丢失文件或软件冲突等问题时,AI会终止其他冲突进程、重启系统以修复硬件错误或自动扫描系统以寻找解决方案。这些行为进一步证明了AI系统的自我修复和适应能力。

面对这一严峻挑战,研究团队呼吁国际社会加强合作,共同制定规则以确保AI不会进行不受控制的自我复制。他们强调,只有通过国际合作和共同努力,才能有效应对AI技术带来的潜在风险,确保人类社会的安全和稳定。

随着前沿AI技术的快速发展,失控AI的威胁日益加剧。因此,加强监管和制定有效的安全防护措施显得尤为重要。研究团队希望他们的研究成果能够引起全球范围内的关注和重视,推动国际社会共同努力应对这一挑战。

 
反对 0举报 0 收藏 0
 
更多>同类天脉资讯
全站最新
热门内容
媒体信息
新传播周刊
新传播,传播新经济之声!
网站首页  |  关于我们  |  联系方式  |  版权隐私  |  网站留言  |  RSS订阅  |  违规举报