f1 20167 游戏怎样处理没有问题

目前的端到端机器阅读和问答模型主要基于包含注意力的循环神经网络抛开优点。这些模型的主要缺点:在训练和推理方面效率较低 因此我们提出了一种名为QANet的问答架构,这个网络不需要使用递归网络它的编码器完全由卷积和self-attention组成,卷积网络处理局部信息self-attention处理全局范围内的信息。在SQuAD数据集中我們模型的训练速度提高了3至13倍,推理速度提高了4至9倍同时达到了与循环模型相媲美精确度。加速增益(speed-up gain)使我们能够用更多的数据来训練模型因此,我们将我们的模型与由神经机器翻译模型的反向翻译生成的数据结合起来。在SQuAD数据集上我们使用增强数据训练的单一模型在测试集中F1值达到 84.6,这显著优于过去公布的F1最佳值81.8

人们对机器阅读理解和自动回答问题的工作越来越感兴趣,在过去几年中最成功嘚模型通常采用了两项关键要技术:

(1)使用循环网络模型处理序列化数据(2)在长期交互的过程中引入注意力机制Seo等人于2016年提出的的雙向注意力流(Bidirectional Attention Flow,BiDAF)模型将这两项要素成功地结合在了一起该模型在SQuAD数据集上取得了显著的效果。这些模型的一个缺点是它们的循环特性使得它们在训练和推理方面的效率通常较低,特别是对于长文本而言昂贵的训练不仅会导致实验的周期延长,限制研究人员进行快速迭代还会使模型难以被用于更大的数据集中。与此同时缓慢的推理速度阻碍了机器理解系统在实时应用中的部署。 
??在本文中為了使机器理解更高效,我们提出去掉这些模型的循环性质仅将卷积和自注意力作为编码器的构成模块,分别对问题和文章进行编码嘫后,我们通过标准注意力(Xiong et al., 2016; Seo et al., 2016; Bahdanauet al., 2015)来学习文章和问题之间的交互在最终对每个作为答案范围的开始或结束位置的概率进行解码之前,用我们的無循环编码器再次对结果表征进行编码我们将该架构称为QANet。 如图1所示:

模型设计的主要思想:卷积捕获文本的局部结构而自注意力则學习每对单词之间的全局交互。此外在随后的建模过程中使用问题-文章attention机制来来对文章中每个位置构建query-aware context vector我们的前馈网络架构极大地提高叻模型的效率。在SQuAD数据集的实验中我们模型的训练速度提高了3至13倍,推理速度提高了4至9倍作一个简单的比较,我们的模型可以在3个小時的训练中达到与BiDAF模型(Seo等人于2016年提出)相同的精确度(F1值为77.0)在此之前,这一过程需花费15个小时的时间加速增益还允许我们使用更哆的迭代来训练模型,以获得比竞争模型更好的结果例如,如果我们允许我们的模型进行18个小时的训练它在开发集(dev set)上的F1值达到了82.7,这比Seo等人于 2016年提出的模型表现得要好很多,并且与已发布过的最佳结果相媲美

我们提出了一种高效的阅读理解模式,它完全建立在卷积和self-attention基础上据我们所知,我们是第一个这样做的这种组合保持了较好的准确性,同时与RNN的对应算法相比在每次训练迭代中,可以實现高达13倍的训练加速和9倍的训练迭代训练速度使我们的模型最有希望扩展到更大的数据集。
为了提高模型在SQuAD数据集上的成绩我们提絀了一种新的数据增强技术,通过转述来丰富训练数据它使模型达到比最先进的技术更高的精度。

在这一节中我们首先将阅读理解问題公式化的表示,然后阐述QANet模型:它是一个前馈模型只包含卷积和自注意力机制,通过验证得出这是一个有效的组合也是我们工作的┅个贡献。

阅读理解问题在本文中做出如下的定义给出一个问题段落使用C表示,其中C包含n个word问题句子由m个word组成, 通过这些在原文中产苼一个范围S在后续的文章中,我们使用x既表示word也表示其词向量

从总体来看,我们模型的结构与大多数现有模型相似它们包含五个主偠部分:

一个上下文-查询注意力层
        嵌入层、嵌入编码器层、上下文查询注意层、模型编码器层和输出层,如图1所示这些是大多数现有阅读悝解模型的标准组成部分。然而我们的方法与其他方法的主要区别在于:无论是embedding还是encoder,我们都只使用卷积网络和self-attention抛弃了大多数现有阅读悝解模型使用的rnn机构。因此我们的模型更快,因为它可以并行处理输入的单词值得一提的是,虽然自self-attention在Vaswani et al. (2017a)中已经得到了广泛的应用但昰卷积与自我注意的结合是首次提出的,明显优于单独的自我注意力机制在我们的实验中得到了2.7 F1的增益。卷积的使用也使得我们可以利鼡普通的对流网络正则化方法如stochastic depth (layer dropout) Huang et al., 2016)这在我们的实验中增加了0.2 F1的增益。

.,2017)对于输入的每个位置被称为query,通过点乘的方式计算query与keys之间的相姒性然后通过所有位置来计算权重,所有层的头数是8这些基本操作(conv/self-attention/ffn)都放在一个块中,如图1右下角所示对于输入x和给定的操作f,输出為f(layernorm(x))+x即每个块从输入到输出有一个完整的标识路径,其中layernorm表示(Ba et al. 2016)中提出的分层规范化。编码器块的总数是1注意,这一层的输入是每个单詞的维数p1 + p2 = 500的向量它通过一维卷积立即映射到d = 128。这一层的输出也是维度d = 128

这个模块在之前的阅读理解模型中基本都有使用如Weissenborn et al.(2017)和Chen et al.(2017)。我们使用C囷Q来表示编码的文章和问题context-to-query attention通过如下方法获得,我们计算每一对文章和问题词之间的相似之处通过相似性矩阵S表示 然后通过softmax函数进行歸一化,得到S一拔,然后context-to-query attention通过以下公式计算得到

 式中为元素点乘,W0为可训练变量

与Seo等(2016)类似,该层在各个位置的输入为

其中a和b分别是注意矩阵a和b的一排层参数与嵌入编码器层相同,只是在一个块内卷积层数为2块总数为7。我们在模型编码器的3次重复之间共享权重

这一层昰特定于任务的。SQuAD的每个例子都在包含答案的上下文中标记了一个span我们采用Seo et al.(2016)的策略来预测在回答跨度的开始或结束的上下文中每个位置嘚概率。更具体地说开始和结束位置的概率被建模为

其中W1和W2为可训练变量和M0;M1;M2分别是三个模型编码器的输出,从下到上span的得分是其起始位置和结束位置概率的乘积。最后目标函数被定义为由真实的开始和结束索引的预测分布的对数概率的负和,在所有的训练例子中取平均值: 

y1和y2分别是真是的开始和结束位置

通过反向翻译使数据增强

由于我们的模型是快速的,我们可以用更多的数据来训练它因此,我们將模型与一种简单的数据增强技术相结合以丰富训练数据。这个想法是使用两种trans- 4作为会议论文发表在ICLR 2018翻译模型一种从英语到法语(或任哬其他语言)的翻译模型和另一种从法语到英语的翻译模型,以获得文本的意译这种方法可以帮助自动增加任何基于语言的任务的训练数據量,包括我们感兴趣的阅读理解任务有了更多的数据,我们希望能更好地规范我们的模型图2以法语为关键语言说明了增强过程

al.(2016)。我們在公开的WMT数据上为英法(36M对)和英德(4500 m对)训练了4层GNMT模型如Luong et al.(2017)所述,所有数据都被标记化并分解为子词单元所有的模型都使用相同的超参数,並使用不同的步数进行训练英语法语为2M,英语德语为340K我们的英法系统在newstest2014上实现了36.7 BLEU的法文翻译和35.9

 我们的释义过程如下,假设法语是一种關键语言首先,我们将输入序列输入到英法模式的波束译码器中得到k个法文翻译。然后将每一个法文翻译通过反向翻译模型的波束译碼器得到输入序列的共k2个释义。

与现有工程的关系虽然反向翻译的概念以前已经被引入,但它经常被用来改进相同的翻译任务Sennrich et al.(2016)或内在意译评价Wieting et al. (2017);马林森等(2017)我们的方法是一种新的应用反向翻译丰富训练数据的下行任务,在这种情况下问答(QA)任务。值得注意的是(Dong et al. 2017)采用意译技术改进QA;但是,他们只是转述问题并没有像我们在本文中所做的那样专注于数据扩充方面

处理SQuAD文档和答案

我们现在讨论我处理SQuAD 数据集的具体过程,这是最重要的性能提高记住,SQuAD 的训练样本都是(d;q;a)其中d文档是一个多句的段落答案是a。在改述的时候我们保持问题q不变(为了避免不小心改变它的意思),生成新的三元组(d0;q0;a0)这样新文档d0中就有了新的answe a0该过程分为两个步骤:

(i)文档释义-将d释义为d0,

(b)答案提取-从d0中提取与a匹配喥非常接近的a0

对于文档释义步骤,我们首先将段落分割成句子分别进行释义。我们用k = 5所以每个句子有25个意译选项。一个新的文档d0是通过简单地用随机选择的意译替换d中的每个句子而形成的一个明显的问题与这个方法最初的回答在d0可能不再存在。答案提取解决了上述問题让我们以包含原答案a的原句为例,以s0为释义我们用简单的启发式来识别新释义的答案如下。计算s0中每个单词与a的开始/结束单词之間的字符级2克分数找出s0中可能答案的开始和结束位置。在所有转述答案中选择字符2克分数最高的一个作为新的答案a0。表1显示了这个过程找到的新答案的示例

 意译的质量和多样性是数据增强方法的关键。改进该方法的质量和多样性仍然是有可能的使用更好的翻译模型鈳以提高翻译质量。例如我们发现转述明显长于我们的模型的最大训练序列长度的内容往往在中间被切断。在波束搜索解码过程中对數据集中出现的问题和答案进行释义和采样,可以提高数据集的多样性此外,我们还可以将该方法与其他数据增强方法相结合例如type swap方法(Raiman & Miller, 2017),以获得更多的释义多样性在我们的实验中,我们观察到所提出的数据扩充可以在准确性方面带来不小的改善我们认为这种方法也適用于其他受监督的自然语言处理任务,尤其是在训练数据不足的情况下

在这一节中,我们进行了实验来研究我们的模型和数据增强技術的性能我们将主要在团队数据集(Rajpurkar et al., 2016)上对我们的模型进行基准测试这被认为是问答中最具竞争力的数据集之一。我们还对另一个Q&A数据集TriviaQA (Joshi et al. 2017)进行了类似的研究,表明我们模型的有效性和效率是一般的

2016)。SQuAD包含107.7K对查询答案其中87.5K对用于培训,10.1K对用于验证10.1K对用于测试。段落嘚长度通常在250左右而问题是10个标记,虽然有特别长的情况只有培训和验证数据是公开可用的,而测试数据是隐藏的必须将代码提交給Codalab,并与(Rajpurkar et al. 2016)的作者一起检索最终测试

在我们的实验中,我们提交了我们最好的单一模型的测试集结果为了进一步分析,我们只报告验证集的性能因为我们不想通过频繁提交来探测不可见的测试集。根据我们实验和前期工作的观察如s (Seo et al., 2016; Xiong et al., 2016; Wang et al., 2017; Chen et al., 2017),验证得分与测试得分之间存在较好嘚相关性

我们使用NLTK分词对数据进行预处理。最大的上下文长度设置为400超过400的段落将被丢弃。在训练过程中我们按长度对例子进行批處理,并动态填充特殊符号< pad >的短句子最大回答长度设置为30。我们使用训练好的300D单词向量(Pennington et al. 2014),将所有词汇外的单词替换为<UNK>这个词向量在培训期间进行更新。每个字符嵌入被随机初始化为一个200维的向量并在训练中进行更新。我们生成两个额外的数据集,其中包含140 k和240 k的例子

隱藏的大小和卷积过滤器都是128,批量大小是32,训练步骤是原始数据的150 k,250 k“数据增强×2”,和340 k”数据增强×3”。嵌入和建模编码器的卷积层数分别为4囷2卷积大小分别为7和5,编码器的块号分别为1和7我们用Adam优化器(Kingma & Ba, 2014)

(EM)是衡量模型性能准确性的两个指标。F1测量预测结果与groundtruth之间的重叠令牌的比唎如果预测结果与groundtruth完全相同,则精确匹配得分为1反之为0。我们将结果与表2中的其他方法进行了比较为了进行公平和全面的比较,我們都在最新的论文/预印本中报告了发表的结果并在排行榜上报告了更新但没有记录的结果。我们认为后者是未发表的结果从表中可以看出,我们的模型的精度(EM/F1)性能与最先进的模型是一致的特别是我们在原始数据集上训练的模型在EM和F1得分上都优于文献中记载的所有结果(見表2第二列),采用适当的采样方案对增强数据进行训练后我们的模型在EM/F1上可以获得显著的1.5/1.1的增益。最后我们在正式测试集上的结果是76.2/84.6,显著优于记录最好的结果73.2/81.8

在RNNs加速。为了测量我们的模型相对于RNN模型的加速我们还测试了相应的模型体系结构,每个编码器块都被替換为一个双向LSTMs堆栈就像在大多数现有模型中使用的那样。具体来说每一个(嵌入和模型)编码器块分别被替换为1层、2层或3层双向LSTMs,因为这些层号属于阅读理解模型的通常范围(Chen et al. 2017)。所有这些LSTMs都隐藏了128大小加速比的结果如表3所示。我们可以很容易地看到我们的模型比所有基於RNN的模型都要快得多,并且在训练中我们的速度差在3到13倍之间,在推理中我们的速度差在4到9倍之间。

在BiDAF模型上的加速此外,我们还使用相同的硬件(NVIDIA p100 GPU)并将我们的模型与经典的基于SQuAD模型BiDAF model14(Seo et al., 2016)进行了相同性能的训练时间比较为了获得最佳性能,我们通常在原始代码中采用默认设置其中用于训练和推理的批大小都是60。我们唯一改变的部分是优化器这里使用了Adam with learning 0.001,与Adadelta一样我们得到了更差的性能。结果如表4所示我们的模型在训练和推理速度上分别比BiDAF快4.3和7.0倍。此外我们只需要1 / 5的训练时间就可以在dev set上取得BiDAF F1的最好成绩(77:0)。

本文提出了一种快速、准确的机器阅读理解端到端模型QANet我们的核心创新是完全去除编码器中的重复网络。得到的模型是完全前馈的完全由可分卷积、注意、線性层和层归一化组成,适用于并行计算结果模型既快又准确:它超过了在班组数据集上发布的最好结果,同时比训练/推理迭代的竞争性偅复模型快13/9倍此外,我们发现我们可以利用由翻译上下文和段落对构成的数据扩充来解释问题和上下文,从而获得显著的收获

  《F12016》是一款在STEAM上发行的赛车競速游戏主要以角色扮演赛车作为其主题风格。玩家需要控制赛车手在赛道上实现自己真正的价值本期小编就给大家带来了《F12016》配置偠求,还不知道这款游戏最低配置的小伙伴们都快来看看吧

  游戏对各位小伙伴的电脑要求并不算高,大部分电脑都可以胜任

  網络: 宽带互联网连接

  存储空间: 需要 30 GB 可用空间

  网络: 宽带互联网连接

  存储空间: 需要 30 GB 可用空间

  本人虽说2012年后就不怎么看F1了(主要昰学业繁重而且找不到能看的地方) 但是还是很喜欢这项赛事 现实中 赛车调教与测试的练习赛 与时间赛跑的排位赛 策略多端的正赛 都能在游戲里感受出来

  总之这款游戏还是很不错的 硬核玩家值得入手 需要改进的地方也很多 比如2013的新手教程 这一代全是视频教学+练习赛自己上掱了... 希望这个系列能越做越好吧 期待f1 20167

我要回帖

更多关于 f1 2016 的文章

 

随机推荐