近日,瑞典皇家科学院宣布,将2024年诺贝尔物理学奖授予美国普林斯顿大学的约翰·霍普菲尔德和加拿大多伦多大学的杰弗里·辛顿,以表彰他们“为推动利用人工神经网络进行机器学习做出的基础性发现和发明”。
↑美国普林斯顿大学的约翰·霍普菲尔德和加拿大多伦多大学的杰弗里·辛顿
诺贝尔奖评奖委员会表示:“今年物理学奖得主取得的突破建立在物理科学的基础上。他们为我们展示了一种全新的方式,让我们能够利用计算机来帮助和指导我们,应对社会面临的许多挑战。”
的确,两位科学家的研究领域和成果,看上去有些“不物理”。比如,辛顿被视为由ChatGPT掀起的本轮AI技术跃进背后的奠基性科学家,被誉为“AI教父”。而关注“AI教父”获诺贝尔物理学奖之时,辛顿的“AI威胁论”或许更值得关注。
辛顿曾在谷歌工作十年,2023年5月,他从谷歌离职后,便持续公开呼吁谨慎对待AI技术,成为旨在引导AI系统、使其行为符合设计者利益和预期目标的“AI对齐派”的代表。他在社交平台上发文表示,自己离开谷歌是为了可以“公开地谈论AI的危险”。辛顿曾直言,“我用平常的借口来安慰自己:就算我没做,别人也会做的……很难想象,你能如何阻止坏人利用它(AI)来做坏事。”
这样的言论并非危言耸听,现已发生多起AI造假和骗局事件,而且AI风险涉及社会和个人生活的方方面面。正如有专家所言,“当新闻、图像、音频、视频——任何事情都可以伪造时,那么在那个世界里,就没有什么是真实的”。
对于AI的危险和人们使用AI的安全性,国际社会已有共识。2021年,联合国教科文组织通过首份人工智能伦理问题全球性协议——《人工智能伦理问题建议书》。其中提出,发展和应用人工智能要体现出四大价值,即尊重、保护和提升人权及人类尊严,促进环境与生态系统的发展,保证多样性和包容性,构建和平、公正与相互依存的人类社会。该建议书还包含了规范人工智能发展应遵循的原则,以及在原则指导下人工智能应用的领域等。
研发和应用AI,要遵循适宜性(相称性)、安全、公平、透明、保护隐私和公正等原则。比如,从适宜性,也即相称性和合理性来看,任何一项AI产品的研究和使用,都应证明选择使用人工智能系统和选用哪种人工智能方法具有合理性。正如当下生物医学研究和医院治疗病人,在涉及生命和安全时要经过伦理委员会的讨论和批准,AI产品的发展也需经历必要的程序和步骤,避免造成社会恐慌、伤害、损失甚至灾难。
未来,任何研究AI并推出AI产品的机构和个人,都应当以《人工智能伦理问题建议书》进行评估,而且在推向社会后,各国也需要有相应AI伦理指南的法律进行监管。如此,才能让AI最大程度地造福社会,最低程度地伤害社会。
(红星新闻)