当前位置: 首页 > 学术活动 > 正文
Adaptive Random Walk for Decentralized Optimization
时间:2022年10月19日 18:16 点击数:

报告人:孙涛

报告地点:腾讯会议ID:889 864 8458

报告时间:2022年10月23日星期日10:00-11:00

邀请人:徐东坡

报告摘要:

In this talk, we introduce the adaptive step size random walk gradient descent with momentum for decentralized optimization, in which the training samples are drawn dependently with each other. We establish theoretical convergence rates of the adaptive step size random walk gradient descent with momentum for both convex and nonconvex settings. In particular, we prove that adaptive random walk algorithms perform as well as the non-adaptive method for dependent data in general cases but achieve acceleration when the stochastic gradients are “sparse”. All assumptions used in this paper are mild and general, making our results applicable to many machine learning problems.

会议密码:115119

主讲人简介:

孙涛,男,2019年入职国防科技大学计算机学院并行与分布信息处理国防科技重点实验室,现任助理研究员。主要研究领域为基于最优化的机器学习方法理论和应用。目前以第一作者身份已发表CCF-A类和IEEE TRANS论文17篇。其研究工作在国际同行中形成了一定的学术影响力,论文被CMU、UC Berkeley、MIT、Stanford、普林斯顿大学等研究机构同行正面引用。曾获湖南省杰出青年科学基金、中国科协青年人才托举工程、CCF优博提名、国防科技大学拔尖人才计划、湖南省优博等项目与奖励。

©2019 东北师范大学数学与统计学院 版权所有

地址:吉林省长春市人民大街5268号 邮编:130024 电话:0431-85099589 传真:0431-85098237