AIR019|华为诺亚方舟实验室主任李航:我们在人工智能领域的愿景与实践-亚博ag提现快速的

本文摘要:再说说国产的。

亚博ag提现快速的

再说说国产的。比如你说中学又结束了,系统不会说下一个是不是鹿角嘴,会引出一些你几乎想象不到的很有意思的问题。

让我们来看看这项技术。我们正在进行环绕终端等应用场景的技术开发。本节列举了我们主要在做的技术研究,包括讲解、介绍、语音识别、对话、翻译、图片、检索、深入自学。

也就是说,我们做了一系列行业领先的工作,尤其是深入自学。本节解释一些代表性的工作。第一个是MulimodalCNN。第一个是图片搜索的显示。

你只要说一句话,找一下涉及到的图片。我们现在有2万张图片,每张图片大概有三段叙述。

比如一个孩子游泳的图片有15万对数据,我们可以训练这样一个模型。大家告诉胡安神经网络是一个比较有代表性的网络,左边的可以提取这个图。这个CNN有多层。

轮廓和物体可以从图片中提取,另一种是从文本中提取特征,直观上就是单词和短语的特征。如果说这句话,孩子的照片不一定能提取为特征。这张照片里刚好有一个孩子,这个孩子不会被提取为对象。

通过大量的自学,可以做到只看不见的效果。看看我们实验的结果。这是英文的30K数据。我们做了一个对比实验。

我们已经将这些方法的结果与业内其他部门进行了比较。我们可以看到诺亚方舟实验室明确指出MulimodalCNN在检索上可以超越最差的结果,有些模型不一定公平。为了所谓的指数,每个人都可以超越更好的水平。

这项工作在去年的图像识别会议上训练了我们的论文。在接下来的讲解中,我们来看看机器翻译和对话。

我们使用了序列对序列自学。第一种模式是谷歌和蒙特利尔大学提出的,我们改进了。它在对话和翻译方面取得了很好的效果。

从序列到序列自学是一种怎样的好方法?大家都在问,自然语言深度自学的哪个工具给我们带来了仅次于序列的革命性变化。我的话是按顺序自学。基本思路是这样的,以翻译为例。

现在,我来读我们的中文一句话,“一只猫坐在一个垫子上”,一个按顺序的模型,从左到右,一个字一个字。转换成语义回应。这是一个向量。我们现在看到的he,HT-E,HT是猫躺在垫子上得到的语义反应。

我们称之为编码。如果把这个翻译成目的语,翻译成英语,这个T-1,回应说英语产生这样一个句子。每个方向对应的语义反应是什么?我们在翻译中要做的就是把这篇原文和中文合二为一。把回应转换成中间回应,再把中间回应转换成另一个中间回应,就是解码,转换成英文句子。

C的中间一行叫注意模型,注意是帮助我们自由选择。当我产生某个英语单词的时候,我要把它一个一个翻译成英语单词,我要有选择的问。当我想在任何位置生成解码响应时,我可以自由选择中文哪个响应更好。这个C本质上实现了一个平衡。

我希望每个职位都有新的身份证明。当我想生成一个英文单词的时候,对应的中文比较好。直觉上就是这么个解释。

我们可以用这个模型,本质上很简单。通过这个模型,你可以给我任何单词序列,我可以生成另一个序列。

我们刚才展示的神经召唤机,本质上是一个从序列到序列的自学习模型。这时候我们从汉语到汉语的句子是不一样的,只是没有翻译成两种不同的语言,但是语义是一样的。

几两句话是同一种语言。它们构成了同一轮对话。我们的核心思想是使用注意机制,但是我们有一个全局机制。直觉上说明这个C本质上是对我读的句子的回应。

整体语义是一个有10个值的向量。每个方向编码的结果就是获得每个方向获得了什么语义。两者的语义融合会成为中间C这一行的语义,然后转化为对应词的语义反应。

最后会解码成一句话。如果我们有400万对应数据,可以让这个模型更好的对应,需要这样切换。我们可以看到,大约95%的句子是准确的,大约76%的问题需要与自然形成对话,这就是我刚才举的例子。

现在可以用在机器翻译上了。我们在机器翻译中使用的机制是,我们说序列对于序列来说是非常强的,但是我们可以做得更好。如果用传统的顺序对顺序的模式,就不会错过原文,也不会多次翻译。我们这里有一个机制。

我翻译的时候不用刷我翻译过的,也不用刷我没刷过的。同时,这个机制可以让它看起来更强大。直觉上来说,如果我想用英语产生一个实词和一个虚词,那就不一样了。如果我产生一个真实的词,猫,那么我会看到哪个词影响了我。

如果两个词合并,不会产生好的效果。这一周,我们在ACL高层会议上公开发表了一篇论文,其中一篇就是解决翻译缺失或者过度翻译的问题。诺亚方舟实验室做过手机的研发,也做过图像检索等技术的研究。

就这样,谢谢!允许禁止发表的原创文章。以下是发布通知。

本文关键词:亚博ag提现快速的,亚博ag取款秒到账,亚博取款速度

本文来源:亚博ag提现快速的-www.jestpoint.com

相关文章

此条目发表在互联网分类目录。将固定链接加入收藏夹。

评论已关闭。