极市导读
首届简约与学习大会 Conference on Parsimony and Learning (CPAL) 将于2024年在香港举办。 >>加入极市CV技术交流群,走在计算机视觉的最前沿
CPAL 的特点是:是一个年度的,研究性质的会议。强调简约 (Parsimonious),低维结构 (Low Dimensional Structures) 这两个特点,因为它们在机器学习,信号处理和最优化问题中很重要。
CPAL 欢迎任何简约和学习相关的理论,算法,应用,硬件,系统等基础科学相关的研究工作。
首届简约与学习大会 Conference on Parsimony and Learning (CPAL) 于2024年在香港举办
会议官网:
https://cpal.cc/
宣传视频:
https://weixin.qq.com/sph/AvVmS8weixin.qq.com/sph/AvVmS8
大会愿景:
"Everything should be made as simple as possible, but not any simpler."
– Albert Einstein
智能或科学之所以存在,本质上是因为世界不是完全随机的,而是高度结构化和可预测的。因此,智能或者科学存在的目的就是从可预测的结构中学习模型或规律。
在过去的十年里,机器学习和大规模计算的出现极大地改变了我们在工程和科学中处理、解释和预测数据的方式。像一些过去常常使用的稀疏和低秩模型,在现代数据驱动的背景下得到了极大的丰富。比如,现代的大规模神经网络经过预训练之后,可以适应各种具体的任务。但是,无论是现代的 "数据驱动" 的范式,还是经典的 "基于模型" 的范式,关键在于正确识别现实世界数据中存在的低维结构,这一点在神经网络的作用里面体现的尤其突出。
在过去的十几年里,有几条丰富的研究路线。有人试图理解深度网络和非线性、多模式数据结构之间的互动,有人通过硬件和软件的协同设计探索神经网络模型的压缩和稀疏化方法。最近,基础模型的出现使一些人认为,简约和压缩本身是智能系统学习目标的一个基本部分,这也与神经科学中压缩的观点有联系。
总的来说,尽管这些工作有共同的基础和目的,但到目前为止,这些工作的发展在某种程度上是相互孤立的。CPAL 会议的目的是为了解决这个问题:从事机器学习、应用数学、信号处理、优化、智能系统以及所有相关科学和工程领域的研究人员可以聚集在一起,分享 insight,并最终致力于建立一个共同的现代理论和计算框架,从简约的角度理解智能和科学。
本文目录
港大马毅牵头,首届 CPAL 2024 学术会议在香港举办
1 会议主办方团队介绍
2 论文模板和学科领域
3 关键日期和 Deadline
4 提交轨道
1 港大马毅牵头,首届 CPAL 2024 学术会议在香港举办
会议名称:Conference on Parsimony and Learning (CPAL)
1 会议主办方团队介绍
Genral Chairs
CPAL 会议的 General Chairs 中的华人包括 HKUST 的沈向洋老师和 HKU 计算机系主任马毅老师。
Program Chairs
CPAL 会议的 Program Chairs 中的华人包括 CMU 的池跃洁老师,密歇根大学的曲庆老师和德州大学奥斯汀分校的汪张扬老师。
Area Chairs
CPAL 会议的所有的 Area Chairs 的列表如下:
https://cpal.cc/area_chairs/
Advisory Committee
咨询委员会中的华人包括 MBZUAI 的邢波老师,HKUST 的张潼老师等。
2 论文模板和学科领域
CPAL 论文模板
CPAL 会议包括两条 track:一条主要的论文集轨道 (存档),和一条 "最近的焦点 "轨道 (不存档),详情可以参考这里:
https://cpal.cc/tracks/
注意!这两条轨道都在 OpenReview 上进行投稿。
https://openreview.net/group%3Fid%3DCPAL.cc/2024
官网还给出了论文的 Overleaf 模板:
https://www.overleaf.com/latex/templates/cpal-2024/kcdjgbnkzmpj
CPAL 学科领域
CPAL 欢迎以下兴趣领域相关的投稿,只要你的研究与简约和学习相关,包括但不限于:
模型和算法 (Models and Algorithms)
数据 (Data)
理论 (Theory)
硬件和系统 (Hardware and Systems)
应用和科学 (Applications and Science)
具体来讲,每个大领域细分的小领域有:
模型和算法 (Models and Algorithms)
-
简约的神经网络训练和推理算法 (Parsimonious training and inference algorithms for deep networks),包括但不限于:
-
Pruning, sparse training, lottery ticket hypothesis -
Low-rank training, quantization, distillation, retrieval-augmented models -
Adaptive/conditional computation, including mixture of experts -
Parsimonious transfer learning methods, such as sparse tuning or LoRA -
紧凑,高效的神经网络设计 (Compact and efficient neural network architectures by design)
-
结构化模型启发的架构 (Model-based architectures as inspired by structured models),比如 unrolling
-
鲁棒/稳定/的模型或者推理算法等 (Robust/stable/invariant models or training/inference algorithms, guided by parsimony principles)
-
非线性降维方法 (Nonlinear dimension reduction methods),比如 autoencoders, subspace learning, manifold learning, 等
-
简约模型的可解释性 (Interpretability induced by parsimonious modeling),比如 feature selection, model visualization
-
简约原则指导的生成式模型 (Generative models guided by parsimony principles)
-
分布式、联合式和交流式的高效训练或推理,充分利用模型的简约性 (Distributed, federated, and communicated-efficient training or inference, that leverage model parsimony)
-
Efficient neural scaling, and next-generation parsimonious architectures beyond common in-use models
数据 (Data)
-
现代信号模型:概率、几何 (流形、图形)、视觉/三维、语言、动态、分层结构 (Modern signal models: probabilistic, geometric (manifolds, graphical), visual/3D, language, dynamical, hierarchical structures) -
数据集简约化 (如数据过滤等),以及非欧几里得领域的稀疏数据格式,如图 (Dataset parsimony (such as data filtering, coreset selection), and sparse data formats in non-Euclidean domains such as graph) -
用结构化数据进行表征学习的经验和理论研究 (Empirical and theoretical studies of representation learning with structured data)
理论 (Theory)
-
深度学习中的泛化、优化、鲁棒性和近似性 (Generalization, optimization, robustness, and approximation in deep learning, rigorously relating to its implicit parsimony) -
经典稀疏编码、字典学习、结构化稀疏、子空间学习等理论 (Theories for classical sparse coding, dictionary learning, structured sparsity, subspace learning, etc., and their connections to neural network sparsity) -
稀疏导致的遗忘,包括公平、隐私和偏见问题 (Forgetting owing to sparsity, including fairness, privacy and bias concerns)
硬件和系统 (Hardware and Systems)
-
用于加速稀疏计算的库、内核和编译器 (Libraries, kernels, and compilers for accelerating sparse computation) -
支持稀疏计算的定制硬件 (Hardware with customized support for sparse computation) -
边缘或云端的资源节约型学习和共同设计应用 (Resource-efficient learning and co-design applications at the edge or the cloud)
应用和科学 (Applications and Science)
-
用于科学和工程应用的拟态人工智能 (Parsimonious AI for science and engineering applications, such as various inverse problems that benefit from parsimonious priors) -
简约的理论神经科学和认知科学基础,以及生物启发的算法 (Theoretical neuroscience and cognitive science foundations for parsimony, and biologically inspired algorithms) -
其他跨越学科界限并可能和简约主题进一步合作的应用领域:计算机视觉、机器人学、强化学习等 (Other application fields crossing disciplinary boundaries and suggesting further collaborations under the theme of parsimony: computer vision, robotics, reinforcement learning, and more)
3 关键日期和 Deadline
-
August 28th, 2023: Proceedings Track(https://openreview.net/group?id=CPAL.cc/2024/Conference) 投稿截止 -
October 10th, 2023: Recent Spotlight Track(https://openreview.net/group?id=CPAL.cc/2024/Recent_Spotlight_Track) 投稿截止 -
October 14th, 2023: 2周的 Rebuttal 开始 (Proceedings Track) -
October 27th, 2023: Rebuttal 结束, 作者和审稿人讨论环节开始 (Proceedings Track) -
November 5th, 2023: 作者和审稿人讨论环节结束 (Proceedings Track) -
November 20th, 2023: 最终意见发布 -
December 5th, 2023: Camera-Ready 截止日期 (Both Tracks) -
January 3rd-6th, 2024: 主要会议 (In-Person 形式参与,地点港大校园)
4 提交轨道
详情参考:
https://cpal.cc/tracks/
论文集轨道 (存档):
提交和审查阶段将是双盲的。CPAL 会议使用 OpenReview 来托管论文,并允许公开讨论。在作者-审稿人讨论阶段结束前,除了官方评审,任何人都可以发表公开可见的评论;而作者可以参与讨论,也可以随时更新他们的投稿。之后,审稿人和 AC 之间会有一个内部讨论阶段,目的是对审稿过程进行总结,之后由 AC 做出最终决定。
在通知截止日期之后,被接受和选择拒绝的论文将被公开,并开放给非匿名的公众评论。他们的匿名评论、元评论、作者回应和评论员回应也将被公开。被拒论文的作者将在通知截止日期后的两周内选择加入,以便在OpenReview中公开他们的去匿名化的被拒论文。
与以前发表的论文基本相似,或同时提交给其他有论文集或期刊的同行评审场所的论文,不得提交到论文集轨道。以前在研讨会上发表的论文是允许的,只要它们没有出现在会议论文集(如CVPRW论文集)、期刊或书籍上。
存在非匿名的预印件(在arXiv或其他在线存储库、个人网站、社交媒体上)不会导致被拒绝。作者可以向CPAL提交已经作为预印本的匿名工作(例如,在arXiv上),而不需要引用它。
被接受的论文将在机器学习研究论文集(PMLR)上发表。完整的论文集最多可以有9页,参考文献和附录的页数不限。论文被接受后,至少有一名作者必须参加会议。
关于大语言模型的看法
与 NeurIPS 2023 做法一致,CPAL 大会欢迎作者使用任何适合编写高质量论文和研究的工具。然而,官方要求作者牢记两个重要的标准。首先,CPAL 大会希望论文能充分描述他们的方法,任何对该方法重要的工具,包括 LLM 的使用,也应该被描述。例如,作者应该提到用于数据处理或过滤、可视化、促进或运行实验以及证明定理的工具 (包括 LLMs)。也可以描述在实现该方法时对 LLM 的使用 (如果这相当于该方法的一个重要的、原创的或非标准的组成部分)。其次,作者要对论文的全部内容负责,包括所有的文字和数字,因此,虽然作者可以使用任何他们希望的工具来撰写论文,但他们必须确保所有的文字是正确的和原创的。

公众号后台回复“极市直播”获取100+期极市技术直播回放+PPT
极市干货

点击阅读原文进入CV社区
收获更多技术干货

