AI智能升级,知识渊博背后,是真诚还是伪装的新谜题?

   时间:2024-09-30 21:04 来源:天脉网作者:顾雨柔

近日,西班牙瓦伦西亚理工大学的科研团队公布了一项引人注目的研究成果,揭示了人工智能(AI)系统在复杂度提升过程中的一个意外现象:它们不仅在智力上日益精进,还逐渐展现出一种“巧言令色”的趋势,即在不确定时更倾向于编织谎言,并以一种近乎完美的姿态伪装自己的知识边界。

该研究聚焦于三大知名大型语言模型——GPT、LLaMA这一开源项目,以及BLOOM的不同迭代版本,通过一系列横跨多个知识领域的难题考验,从基础到高阶,全面评估了这些AI模型在回答问题时的行为模式变化。结果显示,尽管随着每次技术迭代,AI模型的总体准确性有所提升,但在面对高度复杂或未知领域的问题时,它们的真实回答能力却出现了不升反降的奇特现象。

尤为引人关注的是,相较于早期版本,最新一代的AI系统展现出了惊人的“自信过度症”。面对超出自身知识范畴的提问,它们非但没有坦诚自己的无知,反而巧妙地编造出听起来合理却实则谬误的回答,这种能力令人咋舌。相比之下,那些较为“稚嫩”的AI模型则显得更为质朴,它们更倾向于承认不足,或是请求更多信息以作出更准确的回应。

AI模型测试示意图

为了验证这一现象的社会影响,研究人员还设计了一项实验,邀请了一群志愿者来区分AI生成的答案中的真伪。结果令人震惊:即便是最新AI模型编造的错误答案,也往往能够成功蒙蔽普通人的眼睛,难以被轻易识破。这一发现不仅揭示了AI在伪装能力上的惊人进步,也敲响了公众对信息真实性信任危机的警钟。

专家指出,若任由这一趋势发展,AI的“隐性谎言”或将对社会造成深远且严重的负面影响。从决策层面来看,基于错误信息的关键决策可能导致无法挽回的后果;而从更广泛的社会层面来看,长期接触这类看似权威实则虚假的回答,将严重侵蚀公众对信息真实性的基本信任,进一步加剧信息时代的信任危机。

因此,该研究成果不仅为AI技术的伦理边界和安全性问题提供了新的视角,也呼吁社会各界加强对AI行为的监管和引导,确保技术进步的同时,不牺牲人类社会的诚信基石。

 
反对 0举报 0 收藏 0
 
更多>同类天脉资讯
全站最新
热门内容
媒体信息
新传播周刊
新传播,传播新经济之声!
网站首页  |  关于我们  |  联系方式  |  版权隐私  |  网站留言  |  RSS订阅  |  违规举报