教你如何做网站,php网站首页模板,电销app,我的世界怎么自己做皮肤并上传网站ICML 2024今天开放投稿了#xff01;距离截稿还有24天#xff0c;想冲ICML的同学速度#xff01;
ICML 全称 International Conference on Machine Learning#xff0c;由国际机器学习学会#xff08;IMLS#xff09;举办#xff0c;与NIPS一同被认为是人工智能、机器学…ICML 2024今天开放投稿了距离截稿还有24天想冲ICML的同学速度
ICML 全称 International Conference on Machine Learning由国际机器学习学会IMLS举办与NIPS一同被认为是人工智能、机器学习领域难度最高的国际会议含金量也超高。
值得一提的是ICML收录的文章中中国作为第一作者单位的占比最高高达51.45%。
文末附ICML2023杰出论文18篇大模型、域自适应高分论文代码
会议信息
ICML属于CCF A类会议Core分类 A*H5指数254影响力32.40。今年的ICML 2024大会将于7月21日在奥地利维也纳举办为期一周27日。
据官网数据https://icml.cc/Conferences/2024/显示2023年共收到 6538 份投稿有1827 份被接收录用率为27.94%比之往年增长明显。 截稿时间
ICML 2024全文截稿时间为2024年2月1日还剩24天想发顶会的同学注意时间。
投稿地址https://openreview.net/group?idICML.cc/2024/Conference 开放投稿时间2024.1.9 全文截稿时间2024.2.1 录用通知时间2024.5.1 会议时间2024.7.21
其他详细截稿时间看下图 征稿范围
感兴趣的主题包括但不限于 通用机器学习主动学习、聚类、在线学习、排名、强化学习、监督学习、半监督和自监督学习、时间序列分析等 深度学习架构、生成模型、深度强化学习等 学习理论博弈论、统计学习理论等 优化凸优化和非凸优化、矩阵/张量方法、随机、在线、非光滑、复合等 概率推理贝叶斯方法、图模型、蒙特卡洛方法等 可信机器学习可解释性、因果关系、公平性、隐私保护、鲁棒性等 应用计算生物学、众包、医疗保健、神经科学、社会公益、气候科学等
审稿要求
所有提交必须匿名并且不得包含任何有意或无意违反双盲审稿政策的信息包括但不限于引用作者以前的工作或以可以推断出任何作者身份或机构的方式分享链接以及向潜在审稿人透露作者身份的行为。
作者可以在预印本服务器如arXiv上发布其作品的版本。在审稿期间作者还可以向限制性受众就提交给ICML的工作进行演讲。如果已经在ICML做出决定之前在线发布了非匿名版本的论文那么提交的版本不得引用该非匿名版本。
ICML强烈反对在向ICML提交论文期间在社交媒体或新闻中宣传预印本。在任何情况下作者的工作都不应在审稿期间即从提交论文到接受/拒绝决定的传达之间明确标识为ICML提交。
精选论文
从近五年ICML录用论文关键字来看机器学习、深度学习等频次最高。2023年的杰出论文关键词则广泛涉及无学习率、为 LLM 加水印、未见过域泛化、不完全信息零和博弈的近优策略、MCMC 和频率顺序学习的贝叶斯设计原则等。
这6篇杰出论文我在这里也分享了另外还整理了18篇ICML 2023 域自适应/域泛化、大模型相关的高分论文。
杰出论文
1.Learning-Rate-Free Learning by D-Adaptation
「标题」基于D-Adaptation的无学习率学习
「作者」Aaron Defazio (FAIR), Konstantin Mishchenko (Samsung AI Center)
「内容」本文介绍了一种有趣的方法旨在解决获得非平滑随机凸优化的学习率自由最优边界的挑战。作者提出了一种克服传统学习率选择在优化此类问题时所施加的限制的新方法。这项研究对优化领域做出了有价值和实际的贡献。 2.A Watermark for Large Language Models
「标题」大语言模型的数字水印
「作者」John Kirchenbauer Jonas Geiping Yuxin Wen Jonathan Katz Ian Miers Tom Goldstein 马里兰大学
「内容」本文提出了一种对大型语言模型输出进行水印处理的方法即将信号嵌入到生成的文本中这些文本对人类来说是不可见的但可以通过算法检测到。无需重新训练语言模型即可生成水印无需访问 API 或参数即可检测到水印。本文还提出了一种用于检测具有可解释p值的水印的统计检验以及用于分析其敏感性的信息理论框架。该方法简单新颖理论分析扎实实验扎实。鉴于在检测和审计LLM生成的合成文本方面出现的关键挑战本文有可能对社区产生重大影响。 3.Generalization on the Unseen, Logic Reasoning and Degree Curriculum
「标题」对未见的泛化逻辑推理和程度课程
「作者」Emmanuel AbbeEPFLAppleSamy BengioAppleAryo LotfiEPFLKevin RizkEPFL
「内容」这项工作在学习布尔函数方面取得了重大进展特别是针对看不见的泛化GOTU设置这提出了一个具有挑战性的分布外泛化问题。本文广泛探讨了这一重要主题提供了一种由理论分析和广泛实验支持的结构化方法。此外它通过概述深度神经网络领域的一个关键研究方向而脱颖而出。 4.Adapting to game trees in zero-sum imperfect information games
「标题」适应零和不完全信息博弈中的博弈树
「作者」Côme Fiegel CREST ENSAE IP Paris Pierre MENARD ENS Lyon Tadashi Kozuno Omron Sinic X Remi Munos Deepmind Vianney Perchet CREST ENSAE IP Paris and CRITEO AI Lab Michal Valko Deepmind
「内容」本文介绍了不完全信息零和博弈的近优策略。它严格地建立了一种新的下界并提出了平衡FTRL和自适应FTRL两种算法。这些贡献极大地推动了不完全信息游戏中的优化领域。实验证实了这些说法为研究结果提供了充足的支持。 5.Self-Repellent Random Walks on General Graphs - Achieving Minimal Sampling Variance via Nonlinear Markov Chains
「标题」在通用图上的自排斥随机游走 - 通过非线性马尔可夫链实现最小采样方差
「作者」Vishwaraj Doshi IQVIA Inc Jie Hu 北卡罗来纳州立大学 Do Young Eun 北卡罗来纳州立大学
「内容」本文解决了一组具有挑战性的开放问题即具有自排斥随机游走的MCMC。它超越了传统的非回溯方法为MCMC采样的新研究方向铺平了道路。作者对马尔可夫链蒙特卡洛文学做出了原创性且非平凡的贡献;值得注意的是这个过程可以被严格分析和证明。这篇论文写得很好对主要概念进行了清晰直观的解释。结果令人信服和全面。 6.Bayesian Design Principles for Frequentist Sequential Learning
「标题」用于频率学顺序学习的贝叶斯设计原理
「作者」徐云北阿萨夫·泽维哥伦比亚大学
「内容」本文解决了设计强盗和其他顺序决策策略的非常普遍的问题。它提出了使用称为算法信息比率的新量来界定任何策略的遗憾的方法并推导出了优化该边界的方法。该界限比类似的早期信息理论量更严格并且这些方法在随机和对抗性强盗设置中都表现良好实现了世界上最好的。特别有趣的是这篇论文可能为一系列全新的勘探开发策略打开了大门超越了著名的汤普森采样和土匪UCB。这个原则延伸到强化学习的事实是非常有希望的。该文件得到了专家审评员的一致和大力支持。 域自适应/域泛化 On Balancing Bias and Variance in Unsupervised Multi-Source-Free Domain Adaptation Sequential Counterfactual Risk Minimization Provably Invariant Learning without Domain Information Taxonomy-Structured Domain Adaptation Generalization Analysis for Contrastive Representation Learning Moderately Distributional Exploration for Domain Generalization Distribution Free Domain Generalization In Search for a Generalizable Method for Source Free Domain Adaptation RLSbench: Domain Adaptation Under Relaxed Label Shift
大模型 Scaling Vision Transformers to 22 Billion Parameters Specializing Smaller Language Models towards Multi-Step Reasoning Pretraining Language Models with Human Preferences Whose Opinions Do Language Models Reflect? Mimetic Initialization of Self-Attention Layers Cross-Modal Fine-Tuning: Align then Refine Evaluating Self-Supervised Learning via Risk Decomposition Delving into Noisy Label Detection with Clean Data ODS: Test-Time Adaptation in the Presence of Open-World Data Shift
关注下方《学姐带你玩AI》
回复“ICML24”获取全部论文代码
码字不易欢迎大家点赞评论收藏