Skip to main content

从幻想到定义:人工智能的起点

人类对复制自身智能的想象由来已久:

  • 古希腊神话中,火神赫菲斯托斯打造了会思考、能说话的“黄金女孩”
  • 中国古籍《列子·汤问》里,偃师制造的机器人能歌舞、能应人意,甚至内有肝胆心肺,仿佛与真人无异

虽然这些故事多为虚构,但它们共同反映了人类对“像人一样的智能”的终极期待,也彰显了对复制意识的浪漫畅想。

然而,科学探索无法一步到位,而是要逐步回答一个关键问题:如何判断机器是否拥有智能?1950年,图灵在论文《计算机器与智能》中提出著名的“图灵测试”:若一台机器能在隔离交流中成功伪装成人,让观察者无法分辨它与真人的差别,就可以认为它具备智能。尽管图灵测试并不完美,仅关注语言交流,但它首次为智能提供了可操作的评判标准,让人工智能从神话与幻想走向科学研究,成为推动学界探索机器学习与意识的重要里程碑。

星星之火:达特茅斯会议的开启

1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”,被视为人工智能的诞生时刻。会议规模虽小,却汇聚了麦卡锡、明斯基、香农等重量级学者,虽然未形成统一结论或重大成果,但它点燃了人工智能研究的火种。会后,学术界开始系统化探索,并逐渐形成两大研究方向:符号主义与联结主义。这场会议像是一点星火,播下了人工智能的种子。

  • 符号主义认为,人类思维的核心是符号操作,因此智能可以通过“规则化”来模拟。代表成果包括能证明数学定理的“逻辑理论家”,以及早期聊天机器人ELIZA。其优势在于思路清晰、易于实现,但在常识处理、自动知识获取等方面存在瓶颈。尽管如此,凭借易理解和快速见效,符号主义在早期迅速占据主流,推动了人工智能的初步发展。
  • 联结主义则主张模仿大脑神经元的结构来实现智能。早期代表是麦卡洛克—皮茨模型,以及1957年罗森布拉特发明的感知机,用于图像识别。与符号主义不同,联结主义不依赖人为规则,而是让机器通过数据自我学习。然而受限于当时的算力和硬件水平,联结主义的发展一度停滞。尽管如此,它奠定了后续神经网络与深度学习的基础,证明了人工智能的发展离不开计算能力的支撑。

达特茅斯会议后的几十年,人工智能在西洋跳棋程序和机器人Shakey等方面展示了令人惊叹的成果,但因算力不足和规则不完善,实际应用受限。1973年《莱特希尔报告》批评人工智能研究“言过其实”,导致投资锐减,学科进入低谷。然而,这些早期探索仍是不可或缺的星星之火,为未来人工智能的复兴和突破积蓄了方向和经验。

专家系统:符号主义的高光时刻

专家系统的目标,是让机器像专家一样思考与决策。它依托“知识库+推理机”的模式,将专家的经验与规则固化到系统中,帮助人类提升效率、解决复杂问题。早期代表包括斯坦福大学的DENDRAL(化学推断)、MACSYMA(数学公式推演)和MYCIN(医疗诊断),尤其MYCIN因能用自然语言交流并不断学习扩充知识,被视为专家系统的经典雏形。

真正让专家系统走向社会关注的,是它的商业化应用。1980年,卡内基梅隆大学研发的XCON系统在DEC公司落地,用于小型计算机的自动化配置,极大提高了效率与准确率。到1986年,XCON已帮助处理8万个订单,准确率达95%~98%,每年节省成本约2500万美元,推动DEC一度成为全球第二大计算机公司。这种成功示范,使专家系统风靡企业界,也促使政府投入巨额资金研发“第五代计算机”计划与“阿尔维计划”,再次掀起人工智能的热潮。

然而,专家系统的辉煌并未持久。随着个人计算机的快速兴起,DEC因转型过慢而衰落。这一案例提醒人们,技术的成功并非终点,唯有紧跟“新”趋势,才能避免被时代淘汰。专家系统虽是符号主义的巅峰,却也昭示了人工智能发展道路上机遇与风险并存的现实。

补充:为什么专家系统属于符号主义

  • 专家系统的“知识库”就是一堆明确、可读的规则(比如:如果高烧且咳嗽,就有可能得流感),这些都是清晰的“符号”。
  • “推理机”就是一套程序,专门用来按照这些规则一步步推理和抽查答案,类似人类做逻辑题。

专家系统用的不是模糊的信号,也不是神经网络那种黑箱计算,而是真正明明白白的“信息符号”和“逻辑”操作,属于符号主义阵营。

神经网络:让机器学得更快

在专家系统风靡的同时,联结主义阵营通过神经网络探索“机器如何自主学习”。1986年,辛顿等人提出反向传播算法(BP算法),首次解决了多层神经网络的训练问题,使其能够处理非线性任务,应用范围大大扩展。然而,训练过程中出现了“梯度消失”和“梯度爆炸”的难题,导致研究一度陷入低谷。

补充:BP算法、梯度消失、梯度爆炸

BP算法 即“反向传播算法”(Backpropagation),是在神经网络学习过程中用来调整参数(权重)的核心方法。它的主要流程通俗解释如下:

  • 神经网络像一堆“加权加法器”,把输入信息层层传递,最后得到输出(比如分类结果)。
  • 训练时,模型先做一次前向计算,得到输出后,与真实答案对比,算出误差(损失)。
  • BP算法的精髓在于“把误差从后往前传”:利用微积分,把每一层的参数对误差的影响递归地算出来,再用这些信息调整参数,让网络慢慢学会正确预测。

梯度消失(Gradient Vanishing)指的是在多层网络中,误差反向传播时,算出来的“梯度”越来越小,到后面几层几乎变成0,导致权重学不动,也就是“没法学”。比如给每一层都乘一个很小的数(比如0.1),传到第10层就变得特别小。

梯度爆炸(Gradient Explosion)则相反,指的是梯度在传播过程中越传越大,最后变得特别大,导致权重更新幅度过猛,网络训练不稳定,甚至出现数值溢出。类比成给每一层都乘一个很大的数(比如10),传到第10层就会变得巨大,网络参数剧烈震荡,无法收敛。

深度学习:让人工智能更聪明、更精准

进入21世纪,人工智能迎来一次关键突破——深度学习。李飞飞在2006年发起ImageNet计划,汇聚了海量带标注的图像数据,为图像识别奠定了数据基础。2012年,辛顿团队凭借深度卷积神经网络模型AlexNet在ImageNet竞赛中横空出世,准确率比上一年提升整整10个百分点,引发轰动。AlexNet之所以成功,得益于三方面:GPU并行计算带来的算力飞跃,ImageNet提供的大规模数据,以及深度网络结构引入的大参数量。研究人员由此总结出人工智能的“三驾马车”:算法、算力、数据

这场突破迅速带来商业化落地。谷歌高价收购辛顿团队,并将其成果应用于图片搜索、街景等产品;百度也随即成立深度学习研究院,并在搜索优化中率先应用深度学习,吸引吴恩达等顶级人才加盟。深度学习的浪潮不仅推动了企业布局,也促使GPU公司如英伟达凭借CUDA在人工智能时代占据关键地位。

2012年的成功被视为人工智能新纪元的开端。此后,语音识别、图像识别等领域精准度不断提升,人工智能从实验室走向商业化应用。2024年,辛顿因在神经网络和深度学习领域的基础性贡献获得诺贝尔物理学奖,这不仅是对深度学习价值的认可,也标志着人工智能在科学史上的地位。尽管如此,距离真正的通用人工智能仍有距离,需要持续探索与突破。

补充:神经网络 和 深度神经网络

  • 神经网络是一类受生物神经系统启发的机器学习模型。它包括输入层、隐藏层和输出层,每层由大量“神经元”节点组成,节点之间通过权重连接。最简单的神经网络可能只有一两个隐藏层,用于学习和表示数据的基本规律。
  • 深度学习是机器学习的一个子领域,其核心就是“深层神经网络”——也就是拥有很多隐藏层(往往十几层、几十层甚至几百层)的神经网络

Transformer的诞生与突破

  • 2017年,谷歌团队提出的Transformer模型改变了自然语言处理的格局。它用自注意力机制取代了传统RNN的递归结构,能够一次性并行处理整个序列,不仅大幅提升了计算速度,还充分发挥了GPU的优势。多头注意力和位置编码机制让模型能捕捉长距离依赖关系,在机器翻译等任务上表现更好。相比之前依赖大量人工标注的方式,Transformer更高效、更灵活,也为后续大模型的发展奠定了基础。

补充:自注意力机制、多头注意力、位置编码

  • 传统的RNN(循环神经网络) 按顺序逐步处理序列数据,每一步只能用上一步的结果,导致计算速度慢且不易并行。处理长序列时,还容易出现梯度消失和依赖难以跨步传播的问题。
  • 自注意力机制(Self-Attention) 则让每个输入元素都可以直接与其他所有位置进行关联计算,不再依赖前后顺序。这让模型可以一次性处理整个序列,所有元素间的关系都能并行计算,大幅提升计算效率,非常适合GPU等并行计算硬件。
  • 多头注意力(Multi-Head Attention):模型会用多个不同的“注意力头”,从不同角度建模词与词之间的关联,每一个头关注的方法不一样,综合起来就能提取丰富的上下文信息,有效理解句子中的长距离依赖关系。
  • 位置编码(Positional Encoding):因为Transformer架构本身没有顺序结构,位置编码用数学方法把词在序列中的顺序信息加到每个输入向量上,让模型能识别“谁在前谁在后”,避免丢失序列顺序特性。

大模型的兴起与社会影响

虽然最初并未受到过多关注,但Transformer的潜力很快被行业重视。2018年,OpenAI推出基于Transformer的GPT-1,随后谷歌发布BERT,百度也研发了专门面向语音识别的SMLTA模型,效果显著。真正让大模型走向大众视野的是2022年ChatGPT的发布,它在短短两个月吸引上亿用户,引发全球轰动。大模型不仅在语言任务中表现突出,还逐渐扩展到图像、视频、语音和自动驾驶等领域,展现出强大的泛化能力与商业潜力。这让人们看到了迈向通用人工智能(AGI)的希望。

回溯人工智能历史的意义

人工智能的发展历程告诉我们,即便经历了多次低谷与质疑,技术始终在不断前行。早期的符号主义强调规则与专家系统,而联结主义则借助神经网络模拟大脑运作。随着反向传播、逐层预训练、GPU并行计算的突破,以及李飞飞发起的大规模视觉识别挑战赛与AlexNet的成功,研究者逐渐意识到算法、算力和数据三大要素的重要性。正是这些积累,让Transformer和大模型成为可能。回顾历史的价值在于理解:人类预期可以起伏,但只要不断探索,技术终会找到突破口,推动通用人工智能从愿景走向现实。