type
status
date
slug
summary
tags
category
icon
password
URL
埃里克·鲍姆(Eric Baum)在他的著作《什么是思考?》中将理解定义为“世界的压缩表示”。表示的另一个词是模型。
鲍姆意义上的理解是一种蒸馏和抽象的形式。人们通过回顾人、地理位置、事物和想法相互作用的例子来提高对主题的理解水平。他们通过一个总体模型来捕捉这些示例的本质,该模型捕捉了这些示例所共有的特征。
一组例子有什么共同点?计算机科学家将这些共同特征的集合称为一个类。类层次结构由抽象层组成。
概念化、持久性和跨领域泛化
深度学习和其他类型的机器学习经常用于分类任务。但英特尔实验室新兴人工智能研究副总裁兼总监 Gadi Singer 在 2022 年 8 月的一篇博客文章中指出,概念化超出了深度学习本身的能力范围。
机器分类和概念化有什么区别?根据 Singer 的说法,机器分类根据输入数据预测类标签输出。
相比之下,根据牛津语言,概念是一个抽象的想法、一个概念。成年人的头脑自然能够概念化。辛格说,概念与特定的数据集无关。概念化能力对于理解能力至关重要。
概念的关键方面包括:
- 一个概念的维度可以是无限的,“随着时间和经验的推移吸收相关知识的海绵”。
- 一个概念本质上保持不变,同时继续获得越来越多的财产。辛格举了一个例子:一位律师卖掉了他的法拉利并决定出家。那个律师还是同一个人。
- 一个概念可以应用于不同的、不相关的领域。辛格提供了可遍历性概念的例子。人类可能首先将可穿越性概念化,因为它适用于攀岩。但随后,这个概念通过不相关领域的示例吸收了更多知识,例如在玩风险游戏或在公司中找到可以修理您笔记本电脑的人员时,该术语具有不可预测的效用。
最终,人类概念化与统计机器学习当前提供的功能的区别在于更高层次的抽象和更广泛地生成新知识的能力。难怪在机器学习场景中尝试使用“狗”、“民主”或“叔叔”等概念时,它们可能会难以捉摸。难怪人工智能的统计机器学习种类本身缺乏普遍性。
神经符号人工智能:融合学习和推理能力以实现更好的机器理解
机器理解的一大障碍是神经网络尚未因其逻辑推理能力而为人所知。多年前,前谷歌和多伦多大学名誉教授、深度学习杰出人物杰弗里·辛顿(Geoffrey Hinton)甚至断言,深度学习网络不具备逻辑推理或识别因果关系所需的认知理解。
最近,研究人员找到了将逻辑推理能力构建到神经网络中的方法。 Artur d'Avila Garcez 是伦敦城市大学计算机科学教授,也是两本关于神经符号学习和推理的书的作者,他已经研究这个主题 20 多年。
2023 年,Garcez 和塔斯马尼亚大学的合著者 Son Tran 发表了他们的研究成果,该系统可以解释命题逻辑公式,并借助受限玻尔兹曼机 (RBM)(一种可见 + 隐藏的两层神经网络)进行推理。 (Tran 和 Garcez,“使用受限玻尔兹曼机进行神经符号推理和学习”,2023 年 2 月。)
这些研究人员测试了该系统,并确认了在 RBM 网络中表示这些逻辑公式并用它们对数据和知识进行推理的能力。作者还证实网络可以从数据和知识中学习。
这种情况的含义是,几十年来使用通用编程语言的编码人员所使用的推理能力现在可以带入神经网络环境中。在此过程中,神经网络的大规模并行性可以实现更复杂的问题解决……和问答。
数据质量仍存在差距
在上一篇文章中,我指出,在许多机器学习工作中,普遍缺乏或不存在普遍的数据质量。 Garcez 和 Tran 在上述论文中提到了他们的神经符号训练集中的“数据和知识”,这对我来说意味着知识图谱中关系丰富、逻辑一致的知识所固有的谓词逻辑对他们来说是有效的神经符号人工智能也是如此。
知识图谱社区中的其他人指出,知识图谱提供了上下文计算所需的上下文。没有上下文,就不可能有普遍性。丰富的上下文成为知识图方法的关键数据质量优势,在机器学习环境中不应被忽视。
- 作者:AI新闻和思维
- 链接:https://ainio.fun/article/401947da-669b-4f32-a144-c451a3a1a566
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。