因果推断与可解释机器智能

如题所述

第1个回答  2022-07-31
目前,我正在逐步深入理解,怎么让机器的智能,可以让人类理解,即实现可解释的机器智能。机器学习、深度学习是模仿人的神经网络,通过巨复杂网络连接,每个神经元处理一个特征,多个特征的综合就能够识别、判定的事物和命题,各种特征提取的算法在不断发现,神经网络结构也很复杂,其中的控制或者反馈功能也在引入,给机器喂料大量的数据,在奖惩策略的鼓励下,机器学习不断改进自己的结构、策略和能力,甚至人们发明了机器自动学习的机制,让机器良性学习,改进自己,把特定问题的求解,变成一个稳定的神经网络,并且配套各种算法,各种反馈控制,各种自动参数调整,把复杂问题分解成一个个小问题,在分解后一步步准确地细分求解,最后综合的结果就是最终的解。

人们发现,没有规则,只要有奖励策略,像训练猴子一样,机器总会找到更好的结构、算法、策略和参数。为了发挥机器与机器之间的竞赛学习,博弈理论加到机器组的对抗学习中,这种竞争学习,进一步提高了机器求解问题的能力。但是,只依赖数据和机器自身的学习,得出的结果或者结论,机器不能够解释是怎么来的,也就是可解释的机器智能没有出现。机器求解过程就是计算的过程,机器的程序等价数学的证明。

因此,人们开始思索,怎么让机器的行为能够自己解释,告诉人类它为什么要这样做?这让人类在思考,人类和机器的智能究竟差在什么地方?怎么提高机器的认知能力、学习能力、推理能力?如果靠规则,那么这就是传统的基于规则的推理,不能够实现机器的自学习,相当于人类给机器的规则,机器自己按规则推理就行,这种能力是有限制的,机器就没有能力实现知识的自动发现;如果不给规则,机器自学习,但机器的结果又不能够自己解释。怎么办?最好把两者结合起来,机器可以按人类的规则判定很多东西,也可以自学习一些东西,并且把学习的东西加到知识库中。

人们开始创造知识图谱,试图把知识、事实、推理原则等等,带给机器,机器的能力就增加了。但这样的机器,如果到了一个新的环境,一切要从头训练和学习,才能够适应变化的环境,尽管做的事情还是老一套。为了对付机器可以解释学习和计算的结果,人们转向了人类思维的研究。

人,区别猴子的思维的根本是什么?思维包括想象力,推理能力,知识发现能力等。而想象能力上,可以有具体的或者抽象的,推理能力上,有形式逻辑的,也有因果推断的。现在科学发展,人们认识到“因果”律,才是人类认知的最重要的能力或者智能。

那么,按照有因就有果,人类就可以设计出模型,输入变量、数据、事实、知识、规则等,通过机器计算,就能够得出结论或者求解问题,明显地这个模型的输出是可解释的,因为我们发现了输入和输出的因果关系,或者发现了一连串的因果,彼此是下一个推理的前提,多级的前因后果都是可解释的。

机器自动学习的东西,人类进行检视,也被抽象成可解释的 “因果”关系或者蕴含关系规则,加到机器推理的模型中,这样把人为的 “因果”推理 和机器自学习或者发现的规则等结合起来,不仅在新的环境下,机器不需要重新学习和训练,只要修改“因果”推理模型的输入和参数,机器就能够适应新的环境。这是机器智能新的发展的趋势。

按这样的做法,机器智能就可以实现可解释,并且对知识发现给出推理的理由,最终回答机器为什么要这样进行对抗、推理和下结论,即求解问题。这是机器智能超越人类的可行途径,这是迄今为止人类迎接的可解释机器智能的第一道曙光。

将来的服务机器人是什么样?智能服务机器人,能够感知人类的语言、动作、图像等等。所以必须要让机器有思维。现在机器可以读书,但机器不理解是什么意思。机器可以识别人脸,但机器不知道自己为什么能这样。机器可以自动翻译,但机器不理解翻译的是什么。机器可以下围棋,知道一点胜败规则和走棋要点,机器自己学习,对抗学习,从失败中学习,最终实现了打败人类,但机器不知道为什么自己有这个能力。

我们的目标,让机器的判断和行为,通过自己学习,超过人类,我们还希望机器告诉我们他的一切行为是怎么来的,是不是每一个判断都有依据,他们的每个行动都是有理由的,也就是让机器人成为一个有意识的、能够思维的、可以与人类沟通的人造机器人,不仅有理性,而且类人,做什么,想什么,都是理智的。这是奇点,一旦出现,一般人类,请让贤吧。一般人类的未来的出路,就是戴个虚拟的头盔,在元宇宙里混日子,打发消磨时光,学习、工作、生产、劳动和服务,都交给了智能机器人。人实现了自己毁灭自己的终极目标。人,进化到了更高级的智能机器人,机器人实现了永生不朽。

通往这个天梯的步骤,就是提升人的思维。人类思维的3个层次,是从关联 思维(观察),进到干预(行动)思维,再跳跃到反事实(想象、反思、理解)思维。如果只是观察和模仿,人最多成为一个拖拉机手;如果再提高一个层次,人也许能开飞机;但要去火星,则需要爬到第三个阶梯, 插上自己造的翅膀, 张开太阳帆,以光速飞向火星。
相似回答