人工智能加速科学发现,但公众理解与信任能否跟上?

   时间:2025-01-06 11:04 来源:天脉网作者:沈瑾瑜

近期,人工智能(AI)在科学界的影响力显著增强,这一趋势引发了广泛讨论。特别是2024年诺贝尔化学和物理学奖的揭晓,五位得主的研究中均有人工智能的身影,这无疑凸显了AI在基础科学中的重要地位。

科学家们纷纷庆祝这一变革性的力量,有诺贝尔奖得主甚至将人工智能誉为“人类历史上最具变革性的技术之一”。然而,这一转变也为科学界带来了新的挑战和担忧。

AI在科学研究中的应用,意味着科学家们能以更低的成本、更快的速度获得更多的研究成果。例如,Sakana AI Labs开发的“AI科学家”机器,每个想法都可以自动生成一篇研究论文,成本仅为15美元。然而,这也引发了人们对科学质量的担忧,批评者指出,这样的系统可能会产生大量毫无价值的“科学垃圾”,进一步加剧同行评审系统的压力。

专家们还指出了使用AI进行科学研究的三种错觉。首先是“解释深度的错觉”,即认为AI模型能够准确解释其预测结果,而实际上,这些模型可能只是优化预测的工具,对潜在的机制缺乏深入理解。其次是“探索广度的错觉”,科学家们可能认为AI已经涵盖了所有可测试的假设,而实际上,这只是基于一组有限的、可用AI进行测试的假设。最后是“客观幻觉”,即认为AI模型没有偏见,能够客观反映所有可能的人类偏见,而实际上,AI模型不可避免地会反映其训练数据和开发者意图中的偏见。

在公众对科学和科学家的信任度仍然较高的情况下,AI的崛起也带来了新的挑战。信任是复杂而脆弱的,特别是在科学证据和计算模型存在争议、不完整或存在多种解释的情况下。例如,在COVID大流行期间,“相信科学”的呼吁就遭遇了信任危机。因此,科学界必须认识到细微差别和背景的重要性,以重建公众信任。

随着21世纪的到来,科学家们被赋予了新的社会契约,即将他们的才能集中在我们这个时代最紧迫的问题上,以换取公共资金。AI的兴起为科学家提供了一个履行这一责任的机会,但同时也需要解决一些重要问题。例如,将AI用于科学研究是否是一种可能损害公共资助工作完整性的“外包”?AI的环境足迹如何?研究人员如何在将AI融入研究管道的同时保持与社会期望的一致?

这些问题不仅关乎科学的未来,更关乎整个社会的福祉。科学家需要在实践社区和研究利益相关者中就AI的未来进行真正的对话,反映共同的目标和价值观。只有这样,我们才能确保AI在科学研究中的应用既能够推动科学进步,又能够造福整个社会。

 
反对 0举报 0 收藏 0
 
更多>同类天脉资讯
全站最新
热门内容
媒体信息
新传播周刊
新传播,传播新经济之声!
网站首页  |  关于我们  |  联系方式  |  版权隐私  |  网站留言  |  RSS订阅  |  违规举报