深度学习中的常用优化算法
报 告 人:: 徐东坡
报告地点:: 数学与统计学院二楼会议室
报告时间:: 2017年12月15日星期五10:50-11:30
报告简介:

深度学习是一门重要的机器学习技术,自从深度学习在图像和语音识别领域取得突破性进展之后,其应用数量呈爆炸式增加,目前已被应用到自动驾驶,无人机,机器翻译等方面。在许多领域中,深度学习的准确性已经超过人类。与早期的专家系统不同,深度学习从原始数据中提取特征信息,从而对输入空间进行有效的表示。然而,深度学习是以超高的计算复杂度为代价。因此,能够在不牺牲准确性和增加硬件成本的前提下,提高深度学习的学习效率和吞吐量,是目前研究人员关心的核心问题之一。

本报告将简要介绍深度学习中的常用优化算法:SGD,Momentum , Nesterov , Adagrad,Adadelta,Adam等的思想内涵以及最新的研究进展。

 

举办单位:数学与统计学院
发 布 人:科研助理 发布时间: 2017-12-13
主讲人简介:
徐东坡,男,2009年大连理工大学计算数学博士毕业,副教授,硕士生导师,目前东北师范大学数学与统计学院工作。作为第一作者,曾经在《IEEE Trans. Neural Netw. Learn. Syst》、《IEEE Trans. Signal Process》、《Neural Networks》、《Neural Computation》以及《Neurocomputing》等杂志发表多篇SCI论文。主持国家自然科学基金青年基金1项,国家自然科学基金天元基金1项,教育部博士点新教师基金1项,吉林省科技厅优秀青年人才基金1项。