在Build 2020会议上,微软不仅更新了Teams和Edge浏览器,而且还宣布了新的超级计算机。正如该公司在博客文章中提到的那样,该超级计算机是与OpenAI合作并专门为OpenAI构建的,并托管在Microsoft的Azure平台上。值得补充的是,OpenAI和微软去年建立了合作伙伴关系,以开发超级计算技术。

据称,每个GPU服务器具有超过285,000个CPU内核,10,000个GPU和每秒400吉比特的网络连接能力。微软表示,这也进入了超级计算机500强榜单。

总部位于雷德蒙德的科技巨头认为,这是制造下一代超大型AI模型和基础架构以为其他组织和开发人员训练这些模型的第一步。

微软首席技术官凯文·斯科特(Kevin Scott)说:“这些模型令人兴奋的是它们将实现的功能广泛。”根据Scott的说法,潜在收益远远超出了一种AI模型中的狭窄进步。“这是关于能够一次在自然语言处理中完成一百项令人兴奋的事情,以及在计算机视觉中完成一百项令人兴奋的事情,当您开始看到这些感知领域的组合时,您将拥有很难的新应用程序甚至现在就可以想象。”

尽管机器学习专家以前已经制作了单独的较小的AI模型,可以学习单个任务,例如在语言之间进行翻译,识别对象,阅读文本以识别电子邮件中的关键点等等,但微软认为单个大型AI模型可以更好地执行任务。

“作为公司范围的大规模AI计划的一部分,Microsoft已经开发了自己的大型AI模型家族,即Microsoft Turing模型,该模型已用于改善Bing,Office,Dynamics和其他生产力产品的许多不同的语言理解任务。”

为了训练这些大型AI模式,Microsoft建造了超级计算机。“训练大规模的AI模型需要先进的超级计算基础架构,或者通过高带宽网络连接的最新硬件集群。它还需要工具来在这些互连的计算机之间训练模型。”