AI领域,特别是在深度学习领域,正处于一个转折点。我们或者要突破到另一面-深度学习变得深入理解–或继续旋转我们的集体力量,浇灌价值数万亿美元的计算,使Alexa假装它了解您的内容后提高了百分之一。说。

Robust.AI的首席执行官兼联合创始人Gary Marcus表示,这只是正在发生的事情的总结。人工智能开发人员和研究人员需要在实现“鲁棒”人工智能的任何真正进展之前增加他们的方法。

阅读:英国计划以“荒谬”的自动化品牌取代移民照料者

Marcus于本周早些时候在arXiv上发表了一篇新论文,题为“人工智能的下一个十年:迈向强大的人工智能的四个步骤”。在这份长达55页的文件中,他总结了自己和Yoshua Bengio之间在2019年“AI辩论”期间的最新论点,并进行了扩展。

Marcus所说的要点归纳为他归因于Facebook AI团队成员的单引号:

越来越多的证据表明,最先进的模型学会了利用数据集中的虚假统计模式……而不是像人类那样灵活而可概括地学习意义。

换句话说,就像一只鸡在玩井字游戏一样,AI丝毫不知道它在做什么。它只是修改并重复其编程要执行的任何操作,直到人们确定适当调整其行为的“参数”为止。

Marcus认为AI没有实际的了解,因为它没有世界的内部模型,也没有像人一样如何运作以及其中的物体如何运作。他说,处方是一种结合了深度学习和认知模型方法的混合发展范例。他写:

我们必须重新集中精力,努力开发一种构建系统的框架,该系统可以例行获取,表示和操纵抽象知识,并使用该知识为外部世界的复杂内部模型进行构建,更新和推理。

这种方法背离了众多致力于创建“人工智能”或超人AI的初创公司,大型科技公司和组织的“天空之作”。

相反,Marcus提倡进行发展性重组,在我们进入超级智能机器时代之前,将可实现的中间目标与“下一个AI”结合起来。为此,他写道:

让我们将其称为健壮的人工智能新水平:虽然不一定是超人或自我完善的智能,但可以依靠它以系统和可靠的方式将其所学知识应用到广泛的问题中,从各种知识中综合知识。来源,这样它就可以灵活,动态地对世界进行推理,以一种我们对普通成年人所期望的方式,将它在一个环境中学到的东西转移到另一环境中。

问题的实质在于,深度学习并不是人类推理的很好的近似方法。曾经在正确的命令上落下来以“触发”智能扬声器的正确响应之前摸索过几种不同命令的人,已经解决了AI无法“理解”的问题。

当Google Assistant或Alexa无法处理有意义的命令但未使用正确的措词时,它的反应与我们按触摸板上的错误按钮没有什么不同:那里没有意义或智慧。

之前我们已经说过,大多数AI要么只是用于大量数据的输出漏斗,要么就像魔术师一样使人眼花ation乱,使他们看起来好像是他们把机器人从帽子里拉出来一样。事实是,Alexa,每个人都害怕的GPT-2文本生成器和Telsa的Autopilot系统都是一招小马。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。