在本周于Arxiv.org上发表的预印本论文中,微软,艾伦人工智能研究所和华盛顿大学的科学家描述了PlotMachines,这是一种AI系统,通过跟踪绘图线程来学习将轮廓转换为故事。PlotMachines(其代码可在GitHub上找到)可以促进能够编写案例研究,新闻文章和脚本的系统的开发,而无需描述字符和事件的短语,从而节省了公司的时间和资金。

虽然存在故事,文章甚至可以生成歌词的AI系统,但它们大多是针对特定领域量身定制的,无法很好地适应新任务。而且,他们并不擅长长篇文章写作。即使是最复杂的模型,也会忘记情节元素并重复自己。

正如研究人员所解释的那样,编写故事需要跟踪剧情,故事是通过人物和事件以连贯的叙述方式编织而成的。对于机器而言,这并不容易。由于输入仅提供情节的粗略元素,因此模型有责任充实元素如何在故事的不同部分之间交织。

在开发PlotMachines的过程中,该团队创建了多个数据集并以目标叙述的现有故事数据集为基础,并与自动构建的输入轮廓配对:

Wikiplots,一个由电影,电视和从Wikipedia抓取的图书情节组成的语料库。

WritingPrompts,是从Reddit subreddit / r / WritingPrompts收集的故事生成数据集。

NYTimes,一个包含新闻文章的数据集。

轮廓提取,使用算法从Wikiplots,WritingPrompts和NYTimes中提取的绘图点列表。

研究人员接下来设计了PlotMachines,他们将其描述为基于OpenAI的GPT模型构建的Transformer。像所有神经网络一样,变压器包含分层排列的功能(神经元),这些功能可传输数据信号并调整连接的强度(权重)。但是,变形金刚也要引起注意,这意味着每个输出元素都连接到每个输入元素,并且它们之间的权重是动态计算的。

给定大纲作为输入,PlotMachines会写出五个段落(引言,三个正文段落和结论),并更新一个存储矩阵,以从大纲中跟踪绘图元素。每段的话语信息有助于在故事的开头,中间和结尾保持风格上的差异(记忆力也可以观察到到目前为止所写的内容),而上下文表示可确保在创建新段落时使用先前的元素。

从质上讲,研究人员说,PlotMachines经过培训后通过设定场景开始故事(例如“在1950年代初期,继续进行核武器测试……”)并以确定的关闭动作结束(例如……),影片以humperdinck和毛riding骑到日落”)。实际上,他们发现了一种在NYTimes语料库上训练的新闻生成PlotMachines模型,该模型如此强大,以至于他们计划仅与研究社区选择性地共享它,以防止恶意参与者创建和传播误导性故事。

在实验中,在OpenAI的GPT-2架构上构建了PlotMachines模型的变体,该模型总共包含4.6亿个参数(变量),与多个基准相比,实现了针对回忆评估的召回率基础研究(ROUGE)和BLEU得分更高,表明它具有出色的摘要和机器翻译功能。在涉及负责阅读和审阅PlotMachine生成的故事的人类团队的两次独立评估中,它在“叙事流程”和“概述用法”等类别中的基准排名超过了基线。

“我们提出了大纲条件的故事生成的任务:给定大纲作为描述故事中出现的关键人物和事件的一组短语,任务是生成与所提供的大纲一致的连贯叙事……这需要该模型的作者根据潜入图的动态状态跟踪潜伏图的动态状态,同时生成整个故事。”“分析表明,PlotMachines可有效地根据轮廓线撰写更紧凑的叙述。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。