“人工智能”是一个非常含糊的术语。这是因为人工智能(AI)是1955年在一种非常傲慢的情境下被创造出来的一个术语:
我们建议于1956年夏天在新罕布什尔汉诺威的达特茅斯学院进行一个为期2个月,10个人参加的人工智能研讨会。
该研讨会将基于如下设想进行:学习的每个方面或有关智能的其他特征原则上可以非常精确地进行描述,以至于能被机器模拟。我们将尝试找到让机器使用语言、形式抽象和概念的方式,解决现在只能由人类解决的问题,并提升人类智能。
——达特茅斯AI项目计划提议书;J. McCarthy et al.; Aug. 31, 1955.
AI 经历了半个多世纪,也带上了太多其他学科的印记。在很长一段时间里,AI 被符号主义者统治。符号主义是一种基于规则的系统,具有“零学习”(Zero Learning)特点。20世纪80年代,一种新的 AI 方法开始出现,我们称之为机器学习。最后,还有“简单学习”(Simple Learning)。然而,在最近十年里,最大的变化是我们偶然发现了“深度学习”,而且它杀伤力极强,似乎无所不能。
当然,这是一个非常简化的 AI 历史。实际上,AI 领域有许多不同的方法和流派。Pedro Domingo 在《终极算法》一书中描述了5个不同的 AI “学派”。一位名为 solidrocketfuel 的 Y Combinator 用户不甘示弱,发了条帖子,说 AI 至少有“21 个不同的流派”。
对于任何计划搞 AI 的人来说,一个非常重要的事情是了解 AI 的这些不同学派和方法之间之间的差异。AI 不是一个同质的领域,而是不断发生不同学派之间的争议的领域。下图是一个概况:
符号学派(Symbolists):是使用基于规则的符号系统做推理的人。大部分 AI 都围绕着这种方法。使用 Lisp 和 Prolog 的方法属于这一派,使用 SemanticWeb,RDF 和 OWL 的方法也属于这一派。其中一个最雄心勃勃的尝试是 Doug Lenat 在80年代开发的 Cyc,试图用逻辑规则将我们对这个世界的理解编码。这种方法主要的缺陷在于其脆弱性,因为在边缘情况下,一个僵化的知识库似乎总是不适用。但在现实中存在这种模糊性和不确定性是不可避免的。
进化学派(Evolutionists):是应用进化的过程,例如交叉和突变以达到一种初期的智能行为的一派。这种方法通常被称为遗传算法(Genetic Algorithm,GA)。在深度学习中,GA 确实有被用来替代梯度下降法,所以它不是一种孤立的方法。这个学派的人也研究细胞自动机(cellular automata ),例如 Conway 的“生命游戏”和复杂自适应系统(GAS)。
贝叶斯学派(Bayesians):是使用概率规则及其依赖关系进行推理的一派。概率图模型(PGM)是这一派通用的方法,主要的计算机制是用于抽样分布的蒙特卡罗方法。这种方法与符号学方法的相似之处在于,可以以某种方式得到对结果的解释。这种方法的另一个优点是存在可以在结果中表示的不确定性的量度。Edward 是一个将这种方法与深度学习相结合的库。
核保守派(Kernel Conservatives):在深度学习之前,最成功的方法之一是 SVM。Yann LeCun 曾称这种方法为模板匹配方法。该方法有一个被称为核的技巧,可以使非线性分离问题变成线性问题。这一派的研究者喜欢他们的方法所具有的数学美感。他们认为深度学习派只不过是炼金术士,在没有对后果有所了解的情况下就念起咒语。
Tree Huggers :是使用基于树的模型的人,例如随机森林和梯度提升决策树。这些本质上都是逻辑规则树,它们递归地分割域以构建分类器。这种方法实际上在许多 Kaggle 比赛中都相当有效。微软提出的一种方法是将基于树的模型与深度学习结合起来。
联结学派(Connectionists):这一派的研究者相信智能起源于高度互联的简单机制。这种方法的第一个具体形式是出现于1959年的感知器。自那以后,这种方法消亡又复活了好几次。其最新的形式是深度学习。
深度学习中包含许多子方法。包括:
The Canadian Conspirators :Hinton,LeCun,Bengio 等人,推崇无需人工进行特征工程的端到端深度学习。
Swiss Posse:基本上是 LSTM,以及两种结合的 RNN 解决知觉的问题。根据 LeCun 的说法,GAN 是“最近20世纪最酷的东西”,也被声称是这帮人发明的。
British AlphaGoist:这帮人相信,AI = 深度学习 + 强化学习,尽管 LeCun 称强化学习只是蛋糕上的樱桃。DeepMind 是这一派的主要支持者。
Predictive Learners:这个词是 Yann LeCun 用来形容无监督学习的,这是 AI 主要的一个未解决的领域。然而,我倾向于相信解决方案在于“元学习”(Meta-Learning)。
除了上面描述的主流方法外,还有一些不是特别主流的方法:
Compressionists:认为认知和学习就是压缩(compression),这实际上也是其他学派共同的观点。信息理论起源于关于压缩的论证。这是一个普遍的概念,比所有经常被滥用的集合统计工具更强大。
Complexity Theorists:这一派的人采用来自物理学,基于能量的模型,复杂性理论,混沌理论和统计力学的方法。Swarm AI 可以说属于这一派。如果任何团队称他们能找到深度学习为什么能起效的很好的解释,那么他们可能是这一派的。
Fuzzy Logicians :这种方法曾经很受欢迎,但最近比较少见。最近有一个使用模糊规则在 mock dogfight 中打败一个战斗机飞行员的研究。
Biological Inspirationalists:这一派倾向于创造更接近于生物学中的神经元的模型。例子是 Numenta,pike-and-Integrate,以及 IBM 的 TrueNorth 芯片。
Connectomeist:这些人相信大脑的互连(即:Connectome)是智能的来源。有一个项目试图复制一个虚拟的蠕虫,也有一些得到雄厚资助的研究,试图以这种方式映射大脑。
Information Integration Theorists:认为意识来源于机器的内部想象,反映了现实的因果关系。这一派的动机是,如果我们想要理解意识,那么我们至少需要开始思考意识。然而,我没法在他们的方法中找到学习和意识的关系。在他们认为,这两者可能是不相关的。
PAC Theorists:这一派的人并不是真的想讨论人工智能,而只是喜欢研究智能,因为至少他们承认智能的存在。他们的整体思想是自适应系统可以方便地执行计算,其结果都能大致正确。简言之,在他们看来智能不需要大规模的计算。
总而言之,这些 AI 的方法令人眼花缭乱。而且我确信还有我没发现的别的方法。有些方法彼此水火不容,而另一些方法可以结合使用。但是,写这篇文章我想指出的是,对这些眼花缭乱的方法都了解一点,有助于让你在这个领域找到路径。
最后,让我们看看 Shivon Zilis 制作的《机器学习生态全景图》:
机器学习生态全景图 3.0 (来源:Oreilly)
有很多公司声称自己是 AI 公司,在搞 AI 研究。你需要向他们提一个直截了当的问题。就是这些公司都在使用什么 AI 方法?因为这里面的一个严峻的现实是,并不是所有的 AI 都是平等的。换句话说,“有些 AI 比其他 AI 更平等”。我们的提议是,现在与深度学习相关的方法势头正猛。很简单,因为它与学习有关。如果你的 AI 方法没有一个强大的学习机制,那么注定是 Doug Lenat 那般的命运,也就是必须人工编写所有规则!其他的方法往往都是死胡同。
最好的方法之一是将深度学习与其他算法相结合。AlphaGo 便是这样,使用了蒙特卡洛树搜索技术和深度学习的结合。考虑到符号学的方法与深度学习具有互补的优势和弱点,它们的结合也是非常有前途的。展望未来,将是深度学习一统 AI 之天下。不过,深度学习与其他 AI 方法相结合同样有前途。不要忽视这个现实,否则只会自取灭亡。
(文章来源:搜狐IT)