在2024年世界顶尖科学家论坛的智能科学大会上,全球顶尖科学家齐聚一堂,共同探讨人工智能(AI)对人类社会的深远影响以及如何构建科学的AI治理框架,以确保人类的永续发展。
中国科学院院士、北京大学国际机器学习研究中心主任鄂维南,以材料科学为例,阐述了AI在科学研究中的巨大潜力。他提到一个名为“uni-mol”的AI模型,该模型能够预测和筛选新型发光材料,如智能手机和电视中广泛使用的有机发光二极管(OLED)材料。传统材料设计依赖于专家经验和大量实验验证,成本高昂且效率低下。而AI模型的应用则能显著节省时间和成本,推动科学研究的高效发展。鄂维南呼吁打破学科壁垒,倡导新的研究范式,利用更多有效数据来“武装”科学研究。
图灵奖得主、南方科技大学斯发基斯可信自主系统研究院院长约瑟夫·斯发基斯则聚焦于AI技术的伦理问题。他指出,随着AI技术的快速发展,其在决策过程中可能存在的安全性和伦理性问题日益严重。AI系统在处理复杂任务时,可能无法完全符合人类的价值观和道德标准,从而引发一系列社会伦理问题。斯发基斯强调,不能忽视AI技术在实际应用中的潜在风险,特别是在涉及个人隐私和数据安全的领域。他呼吁建立全球性的监管框架,制定明确的伦理准则,并加强跨学科研究,推动不同领域的专家学者共同参与,形成全面、系统的AI伦理准则。
克莱因伯格在演讲中展示了社交媒体上用户浏览行为的截图,指出算法会根据用户的观看行为预测其兴趣,并推送相关内容。这一现象引发了关于算法透明度和用户隐私权的讨论。克莱因伯格强调,未来的研究需要更多地关注算法的社会影响,确保技术发展能够更好地服务于人类社会。
大会还讨论了AI在制造武器、国际象棋比赛以及企业招聘等领域的应用和潜在风险。科学家们一致认为,AI技术的发展需要符合人类的价值观和道德标准,不能忽视其对社会、经济和文化的深远影响。他们呼吁全球范围内的科学家、政策制定者和公众共同参与,制定科学的AI治理框架,确保AI技术的健康、可持续发展。