当前位置: 首页 > 学术活动 > 正文
Group sparse optimization and convergence analysis of high-order neural networks
时间:2021年10月12日 14:57 点击数:

报告人:范钦伟

报告地点:腾讯会议ID:889 864 8458

报告时间:2021年10月14日星期四13:30-14:30

邀请人:徐东坡

报告摘要:

为改善传统前馈神经网络在处理复杂非线性问题时效率较低的问题,研究人员将求积神经元引入到前馈神经网络中,用以增强网络的非线性映射能力,提高网络的学习效率,我们称之为高阶神经网络。但仅通过输入节点的简单乘积构造求积神经元以增强网络的非线性映射能力,无疑增加了网络结构的复杂性,运算成本较高。

目前针对高阶神经网络结构稀疏优化的结果相对较少,收敛性、泛化能力等理论问题的研究还很薄弱,仍然存在很多有待解决的基本理论问题。为此,报告人及团队基于正则化理论从构造新的高效算法出发,提出了高效的高阶神经网络模型,并严格证明了权值的有界性、算法的收敛性等相关理论结果,并在较大的数据集上验证了算法的有效性。

会议密码:115119

主讲人简介:

范钦伟,西安工程大学理学院副教授,硕士生导师、陕西省数学会理事。主要从事人工神经网络算法构造、结构稀疏优化、收敛性分析等方面的研究,发表学术论文30余篇。近五年的研究成果发表在多个国际知名期刊,包括《Information Sciences》、《Neural Networks》、《Neurocomputing》等,其中两篇论文目前已分别被引30余次。主持陕西省科技厅面上项目2项,教育厅项目2项,校重点教改项目1项,科技部重点专项子课题1项(西北大学联合)。

©2019 东北师范大学数学与统计学院 版权所有

地址:吉林省长春市人民大街5268号 邮编:130024 电话:0431-85099589 传真:0431-85098237