2024年诺贝尔奖各奖项已陆续揭晓。
美国科学家维克托·安布罗斯和加里·鲁夫坎获得诺贝尔生理学或医学奖;
美国的约翰·霍普菲尔德和加拿大的杰弗里·欣顿获得诺贝尔物理学奖;
美国的戴维·贝克、英国的德米斯·哈萨比斯和美国的约翰·江珀获得诺贝尔化学奖;
韩国女作家韩江获得诺贝尔文学奖;
美国的达龙·阿杰姆奥卢、西蒙·约翰逊和詹姆斯·鲁滨逊获得诺贝尔经济学奖。
这其中,今年的化学奖和物理学奖的五位获奖者的获奖理由都和人工智能有关,甚至有人说“2024年诺奖在为人工智能‘加冕’”。那就让我们欣赏一下这冠冕上的璀璨明珠吧——
超强能力推算生命之源
蛋白质是生命的基础。20种氨基酸通过不同的排列组合形成纷繁各异的三维结构,不同的结构便赋予了蛋白质不同的功能。就像铁要变成船的形状才可以浮在水面上一样,蛋白质也要折叠成一个特定的结构,才能发挥某种特定的功能,而折叠成各种各样的结构本质上是通过化学的相互作用去实现的。这意味着,科学家可以根据氨基酸序列推测出蛋白质的结构,从而推测其功能。然而,蛋白质折叠的方式实在太多了。自然界中天然蛋白质的序列有10的12次幂之多,对于200个氨基酸构成的蛋白质而言,它的序列空间是20的200次幂,而目前可观测宇宙中可见物质的总质量也只不过是10的53至54次方千克。怎样用一种快速而准确的计算方法解决这一难题,人们在近几十年一直在努力探索。
2020年,英国科学家哈萨比斯和美国科学家江珀共同领导开发了人工智能大模型AlphaFold2实现了对大部分蛋白质结构的预测,其预测结果与真实结构只差一个原子的宽度,这是蛋白质结构预测方面史无前例的巨大进步。两位科学家凭借这一成就获得了诺贝尔化学奖。
物理学原理走进人工智能的世界
上世纪80年代,当人工智能还处于一个萌芽阶段时,科学家们尝试让机器模拟大脑的工作方式,但进展缓慢。本次物理学奖获得者、美国物理学家霍普菲尔德,在观察神经元如何协同工作时发现了一个有趣的现象:神经元之间的相互作用可以类比为物理学中自旋系统的相互作用。这启发他提出了霍普菲尔德网络模型,用来解释大脑如何存储和提取记忆。
在霍普菲尔德的网络中,记忆被存储为网络的“稳定状态”,而这些稳定状态可以通过输入的噪声数据进行回忆。这种机制,类似于物理学中自旋玻璃中的自组织现象。这个模型不仅为神经网络研究带来了新的思路,也让物理学的思想走入了人工智能的世界。
另一位获奖者、美国计算机科学家辛顿则通过引入玻尔兹曼分布的概念,发展出了玻尔兹曼机,为机器学习中的深度生成模型奠定了基础。机器学习的瓶颈之一是如何有效地处理大规模数据。辛顿在研究中突发奇想,利用物理学中的一种玻尔兹曼分布的原理,提供了一个极具吸引力的工具。通过这种统计物理学方法,辛顿让机器通过模拟自然界的概率过程,学习并生成数据。这种思想,后来被用于深度学习,极大地推动了人工智能的进步。