icml
主流机器学习模型的基本假设是训练和测试数据的独立同分布iid
主流机器学习模型的基本假设是训练和测试数据的独立同分布(IID),导致其缺乏对分布外数据的泛化能力(Out-Of-Distribution Generalization),使得当前模型在真实、开放场景下的预测性能无法保证,是当前机器学习研究的公认重要难题之一。本报告将重点介绍面向分布外泛化的稳定学习最新研究进展,并针对首届分布外泛化图像分类挑战赛NICO Challenge进行全面介绍和技术分析。 崔鹏,清华大学计算机系长聘副教授,博士生导师
偏微分方程在许多学科和工程应用中扮演着重要的角色
偏微分方程在许多学科和工程应用中扮演着重要的角色,例如物理系统的建模,计算化学,流体力学和数值天气预报等。基于偏微分方程对系统未来的演化进行预测往往需要依赖数值解法。传统数值解法在遇到高维问题,复杂边界,参数变化时,将会遇到计算效率不高,结果不可复用等问题
华南理工大学机器学习与数据挖掘实验室是华南理工大学计算机科学
华南理工大学机器学习与数据挖掘实验室是华南理工大学计算机科学与工程学院的下属实验室,有教授2人(博士导师2人)、副教授3人,具有博士学位5人,博士生5人,硕士生20余人。实验室主要从事认知科学与情感计算、知识库、神经网络、半监督学习、聚类集成等算法和模型构造,在此方面积累了较丰富的经验,具备了较好研究基础。 在学术研究方面,已经发表学术论文300多篇,其中SCI/EI收录200多篇,发表的会议和刊物包括了ICML、IJCAI、KDD、ICDM和Pattern Recognition、IEEE Transactions on Evolutionary Computation、Bioinformatics 等国际著名期刊,以及国内一级学报等