学术报告 | 构建高效的神经机器翻译模型

发布时间:2019-04-25浏览量:257

报告题目:构建高效的神经机器翻译模型

主讲人:陈云

时间:2019-04-28(周日)上午10点

地点:华东师范大学中北校区地理馆201

主办单位:华东师范大学数据科学与工程学院


报告摘要

近年来,基于深度学习的神经机器翻译迅速发展,目前已经成为学术界和工业界的基本模型和主流方法。神经网络的方法提升机器翻译性能的同时,也给机器翻译带来了新的挑战,其中之一便是系统的效率问题。一方面,神经机器翻译模型依赖于大量平行语料。在语料稀缺的情况下,如何提高训练数据的使用效率亟待解决。另一方面,与传统的统计机器翻译相比,由于大量参数的引入和解码算法的限制,神经机器翻译的解码速度较慢。而解码效率对系统在实际应用环境中的性能至关重要。在这次学术交流中,我将具体阐述我们为提高训练数据的使用效率和模型的解码效率所进行的一些尝试及其效果,主要包括零资源神经机器翻译的新型模型,可训练的贪婪解码算法及实时神经机器翻译。

嘉宾简介

陈云目前是华为香港诺亚方舟实验室研究员。她于2018年获得香港大学博士学位,2013年获得清华大学学士学位。她曾是纽约大学CILVR研究组及清华大学NLP研究组的访问学者,与Kyunghyun Cho教授,Sam Bowman教授及刘洋教授在机器翻译领域合作发表论文。她以第一作者身份在ACL, AAAI, EMNLP, ICLR等顶级会议发表多篇文章。陈云的研究兴趣是利用机器学习并结合语言学知识解决自然语言处理中的相关问题,主要包括神经机器翻译和语法改错等。

微信图片_20190425131437.bmp