你好,欢迎进入江苏优软数字科技有限公司官网!

诚信、勤奋、创新、卓越

友好定价、专业客服支持、正版软件一站式服务提供

13262879759

工作日:9:00-22:00

codejock 17 ICLR 2026年录取结果公布! AI大佬分享成绩单,今年AI滥用最严重

发布时间:2026-02-08

浏览次数:0

放榜了!

顶会ICLR,在评审员和作者互相开盒之后,录用结果来了。

ICLR 2026呈现出一种「极度紊乱」的状况,首先是评审结果引发了诸多争议,有不少投稿人遭遇了投稿分数全部为零的情况,之后又有评审系统被披露存在漏洞,使得各位审稿人完全处于毫无隐私可言的境地。

最终,ICLR 2026送来了一丝曙光,录用通知于1月25日开始发出,——。

根据Paper的统计情况知晓,ICLR 2026总的投稿论文数量再次创造了新的高度,所涉及的数量达到了19,000篇;其录用的比率仅仅有28.18%,与之相对应的平均所得分数是5.39、并且最低的分数是2.50、而最高的分数则是8.50,这些数据全部都是最近三年里处于最低的水平;该录用率达成了28.18%,成为了最近3年之中较高的情形。

参与投中的那位作者发布帖子用以庆祝,历经诸多艰难困苦后终于迎来好结果,所付出的努力最终有了收获,不过这并非不存在任何争议,尤其是涉及到关于LLM滥用方面的争议。

顺便说一说,这一届的ICLR,会在2026年4月23日开始,一直持续到27日,于巴西的里约热内卢举办。

网友纷纷晒出成绩单

存在着多名作者,他们于国内外社交平台之上发布文章,以此来庆贺ICLR 2026取得了优异的成绩。

我们先看一下国内平台上大家晒出的「成绩单」。

北大张铭教授组顶会ICLR中5篇:

上下滑动查看

韩松,身为MIT教授且是清华校友,在其投稿ICLR的第十年之际,联合战队的生产力呈现出极为显著的大爆发态势,所投文章成功中稿至少达到9篇。

TAMU计算机系助理教授涂正中,喜提5篇ICLR。

上下滑动查看

港科大田泽越ICLR+4:

上海交通大学郦洋和团队投中3篇:

1. 类自监督学习范式是基于掩码生成的,在TSP上比起SOTA实现了超过99%的gap缩减,且带来10倍的加速。

针对组合优化的掩码扩散框架NEXCO,它把解的解码进程转化成扩散模型的固有机制,于确保约束得以满足之际,明显提高解的质量以及推理效率。

3. 针对组合优化问题一种统一构成的表示学习架构,达成跨越不同问题范畴的预先训练行动,让表示质量得以显著提高,泛化方面的相关能力得到提升,并且使下游优化性能也显著增强。

南洋理工加小俊和团队取得了优异成果。

据相关介绍表明,在此次情况中,他参与进行了三篇ICLR 2026方面的论文工作,其中一篇论文他所处的是共同一作这样的角色情况,另外两篇论文他担当的是通讯作者这样的角色情况,这三篇论文分别是将重点聚焦于LLM安全对齐这一个方向,以及多模态越狱安全评测这一个方向,还有文言文越狱攻击这一个方向。

上下滑动查看

清华正处于在读博士生阶段的李凯,其两篇以第一作者身份撰写的论文,顺利达成了“双杀”成绩,还将论文、代码以及全部相关内容都进行了开源。

Work 1: 高效音视频语音分离codejock 17,小海豚游得快!

Paper:https://.co//2509.23610

Space: https://.co///

Work 2: Audio LLM 的可信度评估。

论文:网址为https://.co//2505.16211的那个东西。

: https://.co///

上下滑动查看

中国科学技术大学的梁锡泽,在ICLR上有两项成果,其研究方向涵盖大模型在多个领域的强化学习,以及大小模型的协同推理。

多领域RL方面,他们在数学领域提出了算法,在代码领域提出了算法codejock 17,在科学领域提出了算法,在创意写作领域提出了算法,在这4个领域的7个基准上取得了平均+2.3分提升,带来了更快的奖励增长,比如训练50步后奖励提升达到基线的2–3倍,同时每步额外开销仅2–5%。

在大小模型协同推理这个领域当中,他们提出了一种框架,这种框架让小模型跟其独立基线相比较的时候,准确率达到了最高能提升13.9%的程度,速度提高到了2倍,与此同时,整体推理速度跟大模型相比,快到了4倍。

华师大王嘉宁,同样ICLR+2:

R-:大模型长程推理分析与RL优化

:面向AI for 的工作流评估

港科广的宋文轩,以共通讯作者以及负责人身份参与的两篇VLA相关文章,而且都分别是在两条不同路线探索方面的成果从而被接收了,一条是关于VLA的视觉表征学习的探索,另一条未知,这两篇工作都已经开源了,并且开源后星标数量都达到了100以上。

: https://-..io/

一种被称作VLA的 ,可通过链接https://arxiv.org/abs/2511.01718获取的事物。

英伟达的谢恩泽,其参与的SANA Video系列中了ICLR 2026,其参与的Fast dLLM系列也中了ICLR 2026!

这次他们在LLM语言模型上的研究取得了不错的进展,这是在线性注意力在视觉生成应用的基础之上达成的。

北大有个叫任韬的,在ICLR 2026中成功投中两篇论文。这两篇论文聚焦于LLM以及后训练强化学习算法,是从风险度量,还有随机梯度估计的这样的角度给出了一些不一样、有区别的看法。

香港科技大学(广州)的陈晋泰,有关「心电全景图()」的Nef-Net v2,正式被予以录用。

版本二实现了对于任意时长的心电设备的覆盖,同时也实现了对任意心电设备的覆盖,其效果已经远远超过了初代版本。他觉得更为重要的是要落地:

发表论文往昔从来都不是终极目的,当下要是目标单单只是发表一篇顶级会议论文并不是件难事。而实际真正蕴含得意义在于我们针对心电全景图的应用朝着临床方向又迈进了极为显著的一大步。我们的v3已然在前行得道路之上。

被接收的一项复旦仝竞奇等人所涉及的工作里,有这样的情况,通过游戏任务训练,能够实现提升AI通用推理能力的效果。

论著连接之处为:https://arxiv.org/abs/2505.13886。

代码仓库:https://.com//Game-RL

数据与模型:https://.co///-140K

上下滑动查看

国外社交平台上,也很热闹。

被称作诺奖风向标其中之一的斯隆研究奖获得者、OSU教授Yu Su所在的实验室发表了11篇成果,兴奋地发布帖子称:「OSU NLP Group发表了11篇,涵盖智能体记忆、安全、评估、机制解释性以及面向科学的AI等方面的话题。」。

普林斯顿的博士后,和合作者一道,在“大模型和扩散语音模型上”这个范围内,有一人成功发了4篇:

来自香港中文大学的博士后Yafu Li,成功投中了6篇,并且这些全部都是开源的,对于推理、强化学习以及多模态理解方面的内容可予以关注。

在读博士 Sun参与的3篇论文被ICLR 2026接收。

作为第一作者,网友Egor 有4篇论文被接收。

在国内的高校当中,有一些学生达成了解锁「首篇顶会论文」这样的成就,而且其中甚至还存在那些处于大二阶段的学生呢!

因出现误报虚构参考文献的情况,从而被ICLR 2026执行桌面拒稿操作,待到最后局势迎来转折,结果是Yu - Xiang Wang分享了一篇有着「有史以来ICLR该中稿论文」这般最低水准的故事。

听闻传言,于一篇ICLR这类顶会论文之中,作者便能够正式宣称自己为「AI研究员」,恭贺。与新晋的AI研究员一同分享这般喜悦吧。

上下滑动查看

在此,恭喜所有ICLR 2026论文作者。

但AI研究社区涌现出了新的问题,不容小觑。

AI顶会之乱,ICLR之殇

被泄露的不是最大问题的审稿人信息,投稿人不去和别的对象对线,而是和审稿人直接对线,可这还不算完,更严重的最大问题其实是评审质量在下滑。

比如,AI开始反噬AI研究。

之前,卡内基梅隆大学的教授,运用Labs的AI文本检测工具,发觉ICLR公开的75800条评审意见里,21%被极为怀疑「完全是由AI生成的」。

AI用于写论文了,AI进行评阅呀!顶级AI学术会议ICLR达成了「AI闭环」,五分之一的审稿意见是完全由AI给出的。

这种AI滥用现象并没有得到解决:

上下滑动查看

发布了评审或元评审过程中使用LLM的相关政策:

然而,ICLR好像并未给出恰当的机制去保障AI评审的质量,仅仅是要求「评审人对于评审内容承担最终责任」,并且要遵循学术伦理。

有投稿人直言,100%的评审意见全是AI生成的。

有网友直言,受够了整个匿名评审这套游戏——

即便获取了高分,即便众多审稿人皆表文章可被接收,仅需一位审稿人便能够使录用结果遭到推翻。

更糟糕的是,你可能收不到任何解释。

审稿人的偏见在匿名审稿中似乎看不到如何被纠正。

上下滑动查看

更不要说,审稿人的学术品味也不一定足以胜任顶会审稿工作。

国内,有一位人大副教授刘勇,他从事大模型基础理论研究,然而却出现了有多篇论文被“误杀”的情况。

他发出感慨,说搞理论的本就不是那么容易的事情,期望审稿人能够具备专业性,还呼吁要给理论研究留存下“火种”。

如有侵权请联系删除!

13262879759

微信二维码