文 | HW君
系列文章:
0. 三种流派
近来人工智能领域最流行的词汇当属「大模型」。
在「神经网络」一统江湖的当下,所谓大模型也不过是「非常大的神经网络模型」。
而人工智能一开始并非只有神经网络理论。
人工智能领域派系繁杂,各派之间也多有交叉关联。
依据核心思想,我们可以粗略地将其分为3种流派:
符号主义、连接主义、自然主义
连接主义的神经网络理论并非一帆风顺,而是几经起起伏伏。
了解其发展史,对于人工智能才会有整体性的认识。
本篇我们先简单介绍这三种流派。
1. 符号主义与逻辑
符号主义又叫符号派、逻辑派。
这一派早已式微,但在人工智能发展的初期,却是占据着最主流的地位。
符号派认为智能来源于对符号的操作,机器通过基于逻辑规则的知识表达来模拟人类的思维。
这是最符合直觉的,因为整个计算机科学的发展,就是运用符号和逻辑不断去解决一个又一个的问题。
符号派注重算法的可解释性,用明确的规则和逻辑推理解决问题,中间不存在无法理解的黑盒。
而这也是它的局限性,存在着知识获取瓶颈。
因为符号派的人工智能模型,其「智能」来源于人为一条一条地编码规则和知识。
1977年IBM的下棋程序「深蓝」战胜了国际象棋的世界冠军,可以说是符号派的巅峰。
深蓝依靠明确的规则和逻辑推理,将大量的棋局规则和策略手动嵌入到程序中,实时搜索评估棋盘上可能的走法,以达成最佳下棋策略。
但这是建立在国际象棋比较简单的规则之上的,同样的策略没有办法应用在更复杂的围棋上。
国际象棋的棋盘是8×8,决策树复杂度约为10120。
围棋的棋盘是19×19,决策树复杂度约为10360。
依靠IBM当时最先进的超级计算机,深蓝可以在每秒计算出2亿步棋(2×108),并基于α-β剪枝算法优化部分决策分支,才能够勉强覆盖国际象棋的复杂度,赢得世界冠军。
但这在围棋中是不可能的,围棋的决策复杂度远远大于国际象棋,符号派无能为力。
后来谷歌搞出了神经网络派(连接主义)的AlphaGO,才在更复杂的围棋上战胜了人类。
如今符号派在人工智能领域已经衰落,但不代表它就消失不在了,而是被整合进其他理论派系中。
并且符号派也留下了非常多宝贵的遗产。
今天我们在互联网上常用的搜索引擎、数据库、维基百科……这些都可以看做是符号派的成果。
甚至可以说「面向对象编程」(Object-Oriented Programming, OOP)也是符号派的间接遗产,引导了整个软件工程的发展,是现代计算机技术的重要基石。
符号派的衰落只能说是在人工智能领域失去了主导权,但它并未在其他领域失败。
在神经网络派大热的今天,了解这一派的思想仍然是有必要的。
2. 连接主义与神经网络
连接主义又叫神经网络派、统计派。
符号派强调智能的可解释性,追求没有黑盒的理解。
而神经网络派放弃了可解释性,转而认为,如果能够造出一台机器模拟人脑中的神经网络,那么这台机器就有了智能。
神经网络的重要原理是通用近似定理(Universal Approximation Theorem)。
即,三层以上的神经网络(前馈神经网络:输入层、隐藏层、输出层)可以拟合任意连续函数。
如果拟合效果不好,那么就继续增加神经网络的层数和规模。
当下非常热门的大模型,也不过是「非常大的神经网络模型」。
要达成「大」,需要解决多的工程问题,但其底层的思想仍然是连接主义的神经网络。
而神经网络是没有解释性的,是不可解释的黑盒。
我们只知道智能在足够大的神经网络中「涌现」出来。
ChatGPT到底怎么学会聊天?我们不知道。
但我们可以把此类聊天机器人当作一个函数,我们对它输入一个数(文本),它会输出另一个数(文本)。
根据通用近似定理,三层以上的神经网络可以拟合任意连续函数。
那么,我们就构建一个足够大的神经网络,然后用足够多的数据去训练这个神经网络,那它就可以拟合为我们期望的「聊天机器人」函数。
于是,聊天机器人就诞生了。
而这个过程中,智能并不能被还原为一步一步的符号和逻辑。
对于符号派的深蓝,我们可以从它的程序中提取到国际象棋的棋局规则和下棋策略。
但对于神经网络派的AlphaGo,我们只能从它的程序里得到一堆密密麻麻看不懂的参数,这里没有下围棋的规则,但它就是会下围棋。
神经网络派的发展并非一帆风顺,而是几经起伏,直到今天才一统江湖。
我们在《智能 | #1 在神经网络之前》中提到,麦卡洛克和皮茨在1943年开创了神经网络理论,而罗森布拉特在1958年最早实践了神经网络理论研发出了感知机。
1969年明斯基(Minsky)和佩珀特(Papert)在《感知机:计算几何学》(Perceptrons: An Introduction to Computational Geometry)中证明了单层神经网络不能解决XOR(异或)问题,表明了感知机的局限。
这导致整个1970年代神经网络理论也停滞不前。
一直到1980年代的多层神经网络和和后向传播算法的提出,神经网络理论才重新被讨论了起来,可以算是人工智能的第一波浪潮。
但随着人工智能领域的过度炒作,实际成果无法匹配资本市场的期望,政府和企业削减了研究投资,整个1990年代人工智能的发展是停滞的。
然而整个1990年代却是互联网爆发式发展的年代,互联网的发展推动了计算机硬件性能的提高,并提供了大量的数据,为后来的人工智能发展铺平了道路。
以辛顿(Hinton)在2006年在《科学》上发表深度学习相关文章为开始,一直到今天的ChatGPT,我们尚处于人工智能的第二波浪潮。
而浪潮的中心,便是神经网络。
3. 自然主义与强化学习
自然主义又叫进化派、行为派。
很多地方会称为行为主义(behaviorism),但行为主义在很多学科中都有特殊的含义,会造成混淆,因此我们更倾向于称为自然主义。
自然主义的源头思想可以追溯到达尔文进化论的「优胜劣汰」。
实际上人工智能研究里,从生物学里寻找计算的模型,大致可以分为两条传承的脉络:
一条来源于麦克洛克和皮茨的神经网络,到今天演化出深度学习(Deep Learning)。
另一条来源于冯诺依曼的细胞自动机,历经遗传算法、遗传编程,到今天演化为强化学习(Reinforcement Learning)。
与深度学习在一堆静态的数据中提取模式不同,强化学习则在环境中试错、探索,不断进化最终使其行为适应环境。
但深度学习和强化学习并非是对立的,而是其顶层哲学思想有所不同,深度学习模拟生物神经网络,而强化学习模拟生物进化。
在实际应用中两者常常可以互相结合。
例如谷歌的AlphaGo就同时用到了深度学习和强化学习。
深度学习让AlphaGo学习大量的人类围棋对局数据,训练其神经网络。
强化学习则让AlphaGo自己与自己下棋,从而进化出一个更强大的神经网络。
这两者结合之后,才让其能够在围棋上战胜人类。
如今在复杂、不确定的场景下,强化学习是不可或缺的一派,例如自动驾驶就综合了深度学习和强化学习,以适应各种未知环境。
4. 顶层哲学思想
如今人工智能学科已经百花齐放,各种理论不断涌现出来。
但如果能理解其顶层的哲学思想,那么就会发现其并未超过这3种基本的流派。
符号主义注重逻辑,连接主义模拟神经网络,自然主义模拟进化行为。
技术细节固然重要,但迷失在技术细节之中而无法窥见人工智能的全貌,反过来也会阻碍对技术的理解。
本系列梳理人工智能的哲学原理,也是为了更好地去理解人工智能的技术细节。
(本章节完,敬请期待下一节)
By HW君 @ 2024-11-20