学界人大人

中国人民大学副教授刘勇:无监督泛化误差分析,最新研究进展解读

中国人民大学副教授刘勇:无监督泛化误差分析,最新研究进展解读

​2022年8月24日,中国人民大学高瓴人工智能学院副教授,博士生导师刘勇受邀进行了题为“无监督泛化误差分析及应用”的讲座。刘勇,中国人民大学高瓴人工智能学院副教授,博士生导师。

在机器学习理论范畴之内的研究常常深邃晦涩难以理解,然而它的发展进程却实实在在地促使着人工智能技术的界限得以拓展。举办了一场围绕“无监督泛化误差”的讲座,此讲座表明了学者们是怎样去尝试为这类“没有可见标签”的学习进程构建更为稳固的数学根基的。

无监督学习的核心挑战

对于传统的监督学习而言,它有着明确的输入以及输出标签,并且其性能评估相对来说较为直观。然而无监督学习,像是聚类或者降维这类,其目的在于去发现数据内在的结构,并且是缺乏外部标准答案的。这就致使衡量它的学习效果,也就是泛化到新数据的那种能力,变成了一个根本性的难题,进而阻碍了算法的可靠应用。

泛化误差的数学界定

要保证学到的模式并非偶然,就得在数学方面严格证实其稳定性。研究者借助定义“聚类复杂度”等概念,对学习模型的复杂程度加以量化 。这项工作首次针对核方法主导的无监督学习场景,推导出了理论层面最优的误差上界,给算法设计提供了明确的质量标尺 。

从聚类到点对学习的框架转变

讲座所提出的全新框架,将会把无监督学习任务,像判定两个数据点是不是应该归属于同一类别的这种任务,转变成为一个“点对学习”问题。这十分巧妙地把问题归入到了更为成熟的统计学习理论分析的范畴之中。借助于探究所有数据点对之间所存在的关系,而不是单个的数据点,能够更加全面地去捕捉数据的全局结构 。 。

理论进展的实际意义

实际应用里的图像分割、社交网络社区发现或者那个异常检测等,其所具备的可靠性保障根源并非是理论上的误差界在纸上谈理论,开发者能够凭借这些理论,更具信心地去抉择模型参数,对算法于未知数据上的表现进行预估,进而降低部署风险 。

研究团队的持续探索

代表为刘勇副教授的研究团队,长久以来专注于机器学习基础理论事务一直不懈。他们于TPAMI、ICML等顶级期刊会议写出的系列论文,展现出了从理论直至应用历经连贯思索的成果。这项针对无监督泛化误差开展的工作,属于其在大规模学习统计理论方向又一次展开的深入探寻。

学术交流的价值

这种类型的专题讲座,是学院内部知识进行流动的十分重要的形式,是由资深教授来主持的,青年教师以及研究生共同参与其中,营造出了深入研讨的氛围,它不但传播了特定的知识,还启发了听众对于基础研究重要性的认识,有可能催生出新的研究想法以及合作 。

需坚实底层理论支撑才有人工智能的发展。对于像无监督学习这种“让机器自行发觉规律”的技术,你觉得其理论研究的突破,最有可能首先在哪个实际领域(比如医疗影像分析、推荐系统、科学研究)造就颠覆性影响呢?欢迎于评论区分享你的所感所想,要是觉得此文有启迪,也请点赞予以支持。

更多内容