当前位置: 首页 > 学术活动 > 正文
Understanding Deep Neural Networks via Linear Separability of Hidden Layers
时间:2023年11月17日 19:16 点击数:

报告人:张超

报告地点:数学与统计学院111教室

报告时间:2023年11月23日星期四08:00-09:00

邀请人:徐东坡

报告摘要:

In this talk, we measure the linear separability of hidden layer outputs to study the characteristics of deep neural networks. In particular, we first propose Minkowski difference based linear separability measures (MD-LSMs) to evaluate the linear separability degree of two points sets. Then, we demonstrate that there is a synchronicity between the linear separability degree of hidden layer outputs and the network training performance, i.e., if the updated weights can enhance the linear separability degree of hidden layer outputs, the updated network will achieve a better training performance, and vice versa. Moreover, we study the effect of activation function and network size (including width and depth) on the linear separability of hidden layers. Finally, we conduct the numerical experiments to validate our findings on some popular deep networks including multilayer perceptron (MLP), convolutional neural network (CNN), deep belief network (DBN), ResNet, VGGNet, AlexNet, vision transformer (ViT) and GoogLeNet.

主讲人简介:

张超,大连理工大学数学科学学院教授、博导。主要研究方向为人工智能数学基础理论及其工程应用研究,研究内容涵盖:统计学习理论、随机矩阵理论、深度学习理论、可信人工智能技术、大型装备智能运维、生物医学大数据分析、多模态数字孪生建模等。发表SCI\EI论文近60篇,其中包括:JMLR、IEEE-TIT、IEEE-TNNLS、NIPS、UAI、AISTATS等机器学习顶级期刊与会议;以及SMO、MSSP、JMD、IEEE-IOT、EAAI等工程领域顶级期刊。多次担任IJCAI、AAAI、ICDM、SDM、CIKM、ICCV-SDLCV等人工智能与数据挖掘领域顶级学术会议委员。主持1项国家重点研发计划课题、3项国家自然科学基金项目。曾获2023年辽宁省“互联网+”大赛金奖(排名第1)、2023年挑战杯揭榜挂帅专项全国特等奖(排名第1);2023年度中国质量协会质量技术奖二等奖(排名第2)。

©2019 东北师范大学数学与统计学院 版权所有

地址:吉林省长春市人民大街5268号 邮编:130024 电话:0431-85099589 传真:0431-85098237