在本周的Build 2020会议上,微软在Scale上结束了AI的总结,该计划旨在将大规模AI和超级计算应用于公司应用程序,服务和被管理产品的语言处理。微软表示,庞大的算法已经推动了SharePoint,OneDrive,Outlook,Xbox Live和Excel的改进。通过增强搜索引擎直接回答问题和生成图像标题的能力,他们还使Bing受益。

Bing及其竞争对手可以从AI和机器学习中受益匪浅,特别是在自然语言领域。搜索任务必须首先弄清搜索意图。搜索引擎无论措辞多么混乱或错误,都需要理解查询。他们在历史上一直为此而苦苦挣扎,只靠布尔运算符(如“ and”,“ or”和“ not”之类的简单单词)作为组合或排除搜索项的联合创可贴。但是随着像Google的BERT和Microsoft的Turing家族之类的AI的出现,搜索引擎有可能比以往任何时候都更具对话和上下文感知能力。

大型语言模型

Bing现在使用从大规模多模式自然语言表示(NLR)算法中提炼的微调语言模型来增强许多功能,包括智能的是/否汇总。给定搜索查询,模型会评估与查询和原因相关的文档段落的相关性,并跨多个来源进行汇总以得出答案。(目前仅在美国。)搜索“狗可以吃巧克力吗”将促使该模型(借助NLR可以理解自然语言)推论出“巧克力对狗有毒”一词意味着狗不应该即使来源没有明确说出话,也不要吃巧克力。

除此之外,Bing团队基于最近部署的基于Turing NLR的算法,该算法增强了英语结果中的答案和图像描述,Bing团队使用该算法的问题回答组件来提高其他语言的“智能”回答质量。该组件仅使用英语数据进行了微调,就利用了NLR算法所学的语言知识和细微差别,该算法已在100种不同的语言上进行了预培训。这样一来,它就可以在13个市场中的所有语言中返回相同的答案摘要,以进行“红色萝卜利益”等搜索。

Bing团队还将AI应用于解决模糊概念的基本问题。一种新的基于NLR的算法,该算法专门针对查询的潜在Web结果进行排序,使用的尺度与人类判断者相同,从而使人们意识到,“ 1080年以来的德国啤酒厂”搜索可能引用了Weihenstephan Brewery,例如,该公司成立40年前(1040),但在同一时间段。

去年,Google同样着手通过一种名为“来自变压器的双向编码器表示”(简称BERT)的AI技术来解决查询歧义问题。从技术巨头对“变形金刚”的研究中出现的BERT迫使模型通过查看单词前后的单词来考虑单词的上下文。根据Google的说法,BERT帮助Google搜索更好地理解了英语中美国10%的查询-尤其是更长的会话式搜索,在这些搜索中,诸如“ for”和“ to”之类的介词对含义至关重要。

例如,谷歌以前的搜索算法无法理解“ 2019年前往美国的巴西旅行者需要签证”是关于巴西赴美旅行,而不是相反。借助BERT,他意识到上下文中“ to”一词的重要性,因此Google搜索可为查询提供更相关的结果。

像Microsoft一样,Google将包括BERT在内的AI模型改编为其他语言,专门用于改善对查询的简短回答(称为“功能摘要”),这些简短回答显示在Google搜索结果的顶部。该公司报告说,这导致了韩文,印地文和葡萄牙文摘录的明显改善,并在两个以上有精选摘录的国家/地区进行了总体改进。

硬件

像现在为Bing和Google搜索提供支持的那些模型这样的大型模型可以学习从大量数据集中解析语言,这就是它们大规模化的原因。例如,微软最大的图灵模型-图灵自然语言生成(T-NLG)-从自出版的书籍,说明手册,历史课程,人力资源指南以及其他来源中摄取了数十亿页的文本,从而在流行语言基准。

可以预见,大型模型需要可扩展的硬件来匹配。微软表示,它正在运行NLR衍生的Bing模型,以对内置有GPU加速器的“最新” Azure N系列虚拟机(VM)进行查询意图理解。截至2019年11月,该软件在四个地区中有2,000多个这些机器每秒在四个地区提供超过100万个搜索推理。

微软此前曾尝试过现场可编程门阵列(FPGA)或设计为在制造后进行配置的集成电路,以通过称为Project Brainwave的系统进行AI计算。令人好奇的是,Brainwave在今年的Build大会上没有提及,这使Bing团队能够训练一个模型,其复杂性是为处理器构建的版本的10倍。该公司声称,尽管增加了复杂性,但是Brainwave在整个Microsoft数据中心部署的成千上万的FPGA可以使模型返回的结果速度提高10倍以上。

就Google而言,它正在使用其第三代张量处理单元(TPU)(专门设计用于加速AI的芯片)在全球范围内提供搜索结果。它们是液冷的,旨在插入服务器机架中。提供高达100 petaflops的性能;并且已在内部用于为其他Google产品提供支持,例如Google Photos,Google Cloud Vision API调用和Google搜索结果。

假设大规模自然语言处理趋势得以维持,微软图灵家族中的模型似乎已准备成为搜索引擎后端的核心部分。如果它们像今天部署的模型那样,它们将需要大量的计算量来训练和运行,但是成本可能是值得的。这些模型以Microsoft和Google为名,使人们对世界各地每天提交的数十亿条查询的理解有了飞跃。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。