作为人类,当我们解释语言时,我们依靠一批背景知识来解释和推论,不仅关于语言,而且对周围的世界。许多来源将常识推理定义为:”感知、理解和判断几乎所有人共有的、几乎所有人都可以合理期望的事情的基本能力,而不需要辩论。

没有这种能力,人类将无法在现代世界中生存,因为他们会做有损其生存的事情。现代AI技术缺乏常识。目前,在常识推理领域工作的研究人员正在解决这一差距。

常识推理是一个广泛的领域,在计算机视觉和机器人技术中的应用,然而,自然语言处理(NLP)已经看到了大量的活动,最近加强了与DARPA竞争的启动,这是一个分支美国军事研究。竞赛的目的是:”创建从经验中学习的计算模型,模仿发展心理学所定义的核心认知领域”,以及”构建一个能够回答自然语言和通过从 Web 读取有关常识现象的基于图像的查询。人工智能代理的概念已被艾伦研究所命名为AI2。

由微软的保罗·艾伦创立的艾伦研究所正在马赛克项目下追求常识推理。马赛克项目涵盖了Darpa的所有竞赛目标,其中包括:视觉常识推理,常识知识图,敌对一代的情况。

视觉常识推理是一个挑战,当AI技术试图理解一个场景,如”为什么一个人在笑?挑战问题通常是视觉场景、问题和许多答案。候选人技术不仅需要了解场景,还需要了解问题和答案以及它们与场景的关系。

常识性知识图为社区所熟知,并曾尝试将常识知识编码为本体或相关结构。最著名的是Cyc,它自1984年以来一直在开发中。它试图捕捉”关于世界如何工作”的表述,人类用它来推理日常情况。

敌对世代的情况是由艾伦研究所发明的一项新任务,该研究所评估自然语言推理,从中可以推断出日常情况的逻辑结果。艾伦研究所启动的数据集中的一个典型问题是:”人用鼓风机从草地上吹来叶子。鼓风机…”然后,该技术可以选择四个答案。

DARPA 竞赛和艾伦研究所并不是该领域的唯一挑战例如,维诺格拉德的挑战是一个主流挑战,它是图灵测试的延伸,机器试图从句子中解释一个词的意思。例如,”市议员拒绝示威者的许可证,因为他们[害怕/提倡]暴力。人类会本能地知道答案会令人担心。此答案需要背景知识来理解考生答案的背景和含义。这个简单的示例对于计算机来说很难响应,因为答案依赖于背景信息。

使用常识推理在 AI 的一些领域具有影响。例如,机器人导航和操作。在这种情况下,具有常识能力的机器人不必被显式编程或从以前的经验中学习,以了解不执行某些活动以及预测情况。人类观察未来的能力有限,因为我们的感官太慢,无法将信息传递给大脑,因此我们的大脑必须根据当前的信息来估计不久的未来。

常识推理将使机器人机器也这样做。常识推理并不限于典型的科幻小说对AI的刻板印象,但它可以应用于世俗,但同样重要的情况。例如,要拥有透明的 AI,战略需要能够解释其决策和结论。这被称为可解释的人工智能,这可以说是社会接受人工智能的关键一步。常识推理的应用和需要几乎是无限的。

目前的技术状态正处于婴儿阶段,然而,常识推理是人工智能超越目前有限能力的必要步骤。赋予机器这种最人类素质的能力并不是一项微不足道的任务,而且进展有限。然而,随着DARPA的竞争,这种情况可能会改变,DARPA大挑战对自动驾驶汽车的影响就证明了这一点,因为自动驾驶汽车从利基活动转变为由众多大型组织支持的主流产品。常识是AI的未来,因为追求这个研究领域只是”常识”。

Comments are closed.