斯图尔特·拉塞尔(Stuart Russell)给我发送了一份“人类兼容的:人工智能和控制问题”的副本。这是一本旨在解决人工智能(AI)对社会的威胁问题的书,其中包括电影以及许多对AI不太了解的人提出的世界末日场景。虽然我发现这本书提出了许多有趣的问题,但我认为它在回答这些问题方面存在问题。

我的第一个问题从第一章开始,其中包括一些关键短语,例如“机器还不够智能”和“从2011年开始,深度学习技术开始取得巨大进步。”问题在于,我看不到的是为什么我们看到了优势。我在其他地方提到过它,但是这些进展主要与AI无关。早在1980年代,我们就有许多理论可以促成这些进步。缺少的是硬件。云计算的增长驱使横向扩展硬件,多个处理器甚至计算机协同工作,以解决甚至最强大的单台计算机都可以管理的问题。人工智能,尤其是深度学习(DL),然后利用横向扩展来执行甚至在80年代都无法考虑的任务。

从好的方面来说,罗素在最初的章节中做了出色的工作,描述了当今AI系统的功能和局限性。他指出,该系统击败了世界上最好的国际象棋,围棋和其他游戏玩家,其原因之一是该系统仍只玩2人游戏。可以通过蛮力提前解决很多问题。需要更好的AI来判断更多玩家之间的相互作用。

最好的章节之一是第四章。他研究了AI的一些基本误用,包括政府监视和控制,自动武器以及失业。最后是我认为社会动荡的最大风险存在的地方,而这本书没有给予足够的重视。

第六章就是一个例子,拉塞尔写道:“协作式人类AI团队确实是一个理想的目标。”问题在于协作并不是目标,而是中间步骤。鉴于当今AI功能的局限性,需要进行协作。从业务领导者的角度来看,目标是用机器代替昂贵的人员,以增加利润。今天,我们需要这种协作。这是一个有趣且重要的话题,但这只是整个旅程的一步。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。