首页 互联网 IT 智能 手机 数码 家电 影视 汽车 游戏 移动客户端
您现在所在的位置: 首页 > 商务智能 > 国际人工智能国际会议夏威夷正式开幕百度论文被收录
国际人工智能国际会议夏威夷正式开幕百度论文被收录
时间:2019-01-30 | 来源:中国亿尚网 | 我要投稿 | 分享到:
0

     AAAI于1979年成立,是国际人工智能领域的顶级国际会议。这一协会如今在全球已有超过6000名的会员,汇集了全球最顶尖的人工智能领域专家学者,一直是人工智能界的研究风向标,在学术界久负盛名。

本届大会共收到7700余篇有效投稿,其中7095篇论文进入评审环节,最终有1150篇论文被录用,录取率

为近年最低仅为16.2%。百度在含金量如此高的会议上,共获得15篇论文被收录的成绩。其中有5位作者受

邀在主会做Oral形式报告,另有10位作者将携论文在主会以Spotlight Poster形式做报告。这不仅在百度

参会历史上创新高,在国内巨头中也是非常领先。

百度这次被AAAI收录的论文《Modeling Coherence for Discourse Neural Machine Translation》,提

出了一种篇章级别的翻译模型,能够使得篇章内的句子之间保持良好的连贯性和一致性。这是由于翻译一些

文档、演讲之类的文本时,通常需要虑句子之间的衔接性和连性。而传统的翻译模型通常都是将一个句子当

做单独的翻译单元,忽视了句子之间的关联性。具体来说,该论文提出了一种多轮解码方案,在第一轮解码

中单独生成每个句子的初步翻译结果,在第二轮解码中利用第一轮翻译的结果进行翻译内容润色,并且提出

使用增强式学习模型来奖励模型产生篇章更一致的译文。最终在演讲文本的测试集合上,论文提出的模型不

仅能够提升句子级别1.23 BLEU值,同时能够提升篇章级别 2.2 BLEU。通过实验分析,本文提出的翻译模

型确实能产生篇章更加连贯和一致的句子。

本文首次在学术和工业界提出解决神经网络翻译中的篇章一致性和连贯性问题,并且提出了一种通用的解码

框架,通过多轮解码和增强式学习策略,使得模型能产生良好的篇章连贯和一致性的译文。同时,本文还提

出了若干评估篇章连贯和一致性的评价方法,有利于促进相关的研究工作发展。

目前的在线翻译引擎基本都是针对单个句子进行解码翻译,并不能保证一篇文章翻译出来后句子之间有很好

的连贯性,采用本文提出的方法,能够使得篇章级别的翻译文本阅读起来更流畅,句子之间的连贯性更好。
 本文提出的方法把多类别交通体的路线预测统一到一个框架之下,通过构建空间和时间维度上的4D graph

,充分利用交通体自身的运动模式和与周围交通体交互的信息,并通过超节点总结概括同类别运动相似性来

改善个体的结果,从而对每个交通体的轨迹预测精度有了较大提高。另外,本文还发布了多类别体的复杂城

市交通的路线数据集。

目前自动驾驶的测试场景都是比较规则和简单的交通场景:有清晰的车道线,红绿灯,交通参与体比较单一

。但是,很多城市交通,比如中国或印度的城市交通,具有很高的复杂度。尤其在一些十字路口,自行车,

三轮车,汽车,公交车交互前进。本文针对多类别体城市交通提出的的路径预测算法,为无人车在复杂交通

场景下的导航提供了更为精确的指导,进而可以提升自动驾驶系统的安全性。

视频建模。深度学习在静态图像理解上取得了巨大成功,然而高效的视频时序及空域建模的网络模型尚无定

论。不同于已有的基于CNN+RNN或者3D卷积网络的方法,《StNet: Local and Global Spatial-

Temporal Modeling for Action Recognition》 一文提出了兼顾局部时空联系以及全局时空联系的视频

时空联合建模网络框架StNet。

具体而言,StNet将视频中连续N帧图像级联成一个3N通道的“超图”,然后用2D卷积对超图进行局部时

空联系的建模。为了建立全局时空关联,StNet中引入了对多个局部时空特征图进行时域卷积的模块。特别

地,我们提出了时序Xception模块对视频特征序列进一步建模时序依赖。在Kinetics动作识别数据集的大

量实验结果表明,StNet能够取得State-of-the-art的识别性能,同时StNet在计算量与准确率的折衷方面

表现优异。此外实验结果验证了StNet学习到的视频表征能够在UCF101上有很好的迁移泛化能力。

分享到:
文明上网理性发言,请遵守新闻评论服务协议 (查看全部 0条评论)
    
验证码:  
CopyRight @ 2005-2018 Reserved 亿尚网版权所有尊重原创违者必究