Image Home
Image People
Image Publication
Image Applications
Image Data & Code
Image Library
Image Seminar
Image Link
Image Album



Search LAMDA
»

Seminar abstract

Dual Learning

Tie-Yan Liu
Doctor
Microsoft Research Asia, China


Abstract: 近年来,人工智能取得了长足进步,在很多领域都达到了前无古人的高度。然而,我们发现以深度学习为代表的人工智能算法往往需要大量的有标签训练数据,这对于很多应用领域而言并非易事。为了解决这个挑战,我们利用人工智能任务的对称性——很多任务是双向的,比如中到英翻译vs英到中翻译,图像分类vs图像生成,语音识别vs语音合成——来为机器学习建立闭环、生成反馈信号,从而在缺乏有标签数据的情况下也能实现有效的学习。我们将这种新型的学习方法称之为“对偶学习”。我们以机器翻译为例对基本的对偶学习框架进行展示:从数学模型、到优化算法、到实验结果,到收敛性分析。之后,我们将进一步探讨对偶学习的概率本质,讨论它的正则化效应(从而提高泛化能力),并将其推广到更多的机器学习场景。最后,我们将对偶学习的概率本质进一步升华,通过实验验证和理论分析的方式说明:即便是针对已经事先训练好的模型,也可以通过对偶学习来提高推断精度。在报告的结尾,我们还将列举当前人工智能面临的更多挑战,并探讨如何通过技术革新加以解决。

Bio: 刘铁岩博士,微软亚洲研究院首席研究员,IEEE院士、ACM杰出会员、CMU客座教授、诺丁汉大学荣誉教授、中科大博士生导师。研究兴趣包括:深度学习、增强学习、分布式机器学习、符号学习等,发表了百余篇学术论文,被他引万余次;发布了微软分布式机器学习工具包(DMTK)、微软图引擎(Graph Engine)等开源项目。担任了SIGIR、WWW、KDD、NIPS、AAAI、ACL等顶级国际会议的领域主席;以及ACM TOIS、ACM TWEB、Neurocomputing等国际学术期刊副主编。
  Name Size

Image
PoweredBy
(for FireFox 3+ and IE 7+)
Contact LAMDA: (email) contact@lamda.nju.edu.cn (tel) +86-025-89681608 © LAMDA, 2016