华人一作!Meta等复刻AlphaZero神话,AI甩开人类自修成神
创始人
2025-12-28 00:01:05

新智元报道

编辑:元宇 好困

【新智元导读】当模型学会「左右互搏」的那一刻,平庸的模仿时代结束了,真正的硅基编程奇迹刚刚开始。

编程界的AlphaZero时刻,终于来了?

当年,AlphaZero抛弃人类棋谱,仅凭「左右互搏」便参透了超越千年的棋道。

而今天,AI程序员的致命伤,恰恰就在于它们太像「人」了——

靠学习人类代码长大的AI,注定无法突破人类的平庸。

就在最近,来自Meta、UIUC和CMU的研究团队,凭借最新成果Self-play SWE-RL(SSR,正在试图复刻AlphaZero的神话——

抛弃人类教师,拒绝模仿。

论文地址:https://arxiv.org/pdf/2512.18552

只要给AI一个代码库,让它分饰「破坏者」与「修复者」进行死斗。

在这场无需人类插手的自我博弈中,一种真正的、超越人类经验的编程奇迹,正在诞生。

被「喂养」的AI与人类数据的天花板

从Devin到OpenDevin,再到各大厂内部的代码助手,它们确实能帮程序员干不少脏活累活。

但这里有一个隐形的瓶颈

目前主流的训练方法,无论是SWE-RL还是DeepSWE,本质上都是在教AI「模仿」

这种依赖人类知识的模式有三个致命伤:

  • 数据不够用:高质量的、带测试用例、带详细描述的Bug修复数据,其实非常稀缺。

  • 质量不可靠:人类写的issue经常含糊不清,测试用例也不一定完美,这导致训练信号充满了噪声。

  • 天花板太低:如果AI只是模仿人类,它顶多变成一个平庸的初级程序员。

这也是为什么论文把它称作通向超级智能的一道根本性障碍:

一旦训练信号必须由人类提供,你就很难想象它能无限扩展到「开放式、自我进化」的层级。

核心玩法

代码沙盒里的「搏击俱乐部」

SSR的核心理念非常简单,却又极其精妙:自博弈(Self-Play)。

在这个系统中,同一个LLM被赋予了两个截然不同、相互对抗的角色。

角色一

破坏者(Bug注入智能体)

它的任务不是写代码,而是搞破坏。

给它一个正常的开源项目(比如一个Python库),它需要潜入进去,研究代码逻辑,然后制造一个Bug。

但这个破坏者不能随便乱来(比如删掉所有文件),它需要生成一套完整的「作案工具包」(Artifacts):

bug_inject.diff :这是真正的破坏补丁,把代码改坏。

test_.sh :一个能运行测试的脚本,证明Bug确实存在。

test_files.txt :指定哪些测试文件是用来验证这个Bug的。

test_parser.py :一个解析器,用来把测试结果翻译成机器能读懂的JSON格式。

test_weaken.diff :它会修改或删除现有的测试用例,让Bug在当前的测试套件下不报错。

    在SSR中,缺陷生成是一项由破坏者智能体执行的任务,该智能体利用工具与执行环境交互以生成缺陷工件,并进一步验证其一致性后提供给修复者智能体。

    一个优秀的破坏者智能体的关键特性在于其能够生成多样化的缺陷,以捕捉真实软件开发中的复杂性,从而在广泛的软件调试与工程场景中训练修复者智能体。

    角色二

    修复者(Bug解决智能体)

    当破坏者完成工作后,轮到修复者登场了。

    修复者面对的是一个被注入了Bug,且测试被「弱化」了的代码库。

    修复者拿到的任务非常具有挑战性,它看不到那个原始的Bug是怎么注入的,它必须像一个侦探一样,通过阅读代码、运行测试、分析报错,最终写出一个修复补丁(Fix Patch)。

    通过破坏者和修复者两种模型角色的对抗,可以让模型实现闭环进化。

    让魔法打败魔法

    如何保证AI不「瞎编」?

    如果你让AI随便生成Bug,它大概率会产生幻觉,为此SSR设计了一套如同安检般严格的一致性验证(Consistency Verification)流程。

    一个合格的Bug工件,必须通过以下所有关卡:

    • 存在性检查:引用的测试文件,原仓库要有;

    • 解析器检查:Python解析器要能读懂测试输出;

    • 脚本有效性:在没改坏代码之前,测试脚本要跑得通;

    • Bug范围控制:改动的文件数量要适当,符合设定的难度。

    • Bug有效性(关键):注入Bug后,原本通过的测试必须变失败。如果注入了Bug测试还通过,说明Bug根本没生效。

    • 掩盖有效性:应用了「掩盖补丁」后,原本失败的测试必须变通过,证明成功欺骗了测试套件。

    最精彩的一招

    逆向变异测试

    逆向变异测试(Inverse Mutation Testing),是一个为了验证Bug质量而发明的新概念。

    传统的变异测试是改乱代码看测试能不能发现。

    而逆向变异测试刚好反过来,把Bug涉及的文件逐个恢复成原样。

    • 如果恢复某个文件后,失败的测试变通过了,说明这个文件确实是Bug的起因。

    • 如果恢复了文件测试还是有问题,说明这个文件跟Bug没关系。

    这一步确保了AI生成的每一个改动都是必要的。

    如何制造一个「完美」的Bug?

    如果「破坏者」只是简单地把x=1改成x=0,那「修复者」学不到任何东西。

    为了让AI变得更聪明,研究团队探索了几种极具创意的Bug注入策略。

    策略A

    直接注入(Direct Injection)

    告诉AI:「去,搞个Bug出来」,这是最笨的方法。

    结果不出所料,AI经常就在代码里随便改个数字或符号。

    这种Bug太肤浅,修复者一眼就能看穿,训练效果最差。

    策略B

    暴力删除(Removal-only)

    告诉AI:「把这块核心功能的代码删了!」

    这逼迫修复者必须根据上下文和剩余的测试代码,重新实现这部分功能。

    如此一来,能极大地锻炼AI的代码重构和理解能力。

    策略C

    历史回滚(History Rollback)

    告诉AI:「去翻翻以前的提交记录,把代码回滚到某个旧版本。」

    因为代码库的历史往往充满了真实的Bug和功能的演进。

    让AI面对过去的代码状态,相当于让它重新经历一次项目演化的过程。这种生成的Bug最自然,最具实战意义。

    实验证明,「删除策略」和「历史回滚」混合使用,效果最好。这既保证了难度,又保证了真实性。

    终极杀招

    高阶Bug

    如果修复者尝试修复Bug但失败了,SSR认为这也可以「废物再回收利用」。

    修复者失败的代码,往往是一个半成品——它可能修好了一部分,但引入了新问题。这不就是一个更复杂、更隐蔽的Bug吗?

    系统会将这个「失败的修复」作为新的Bug状态,再次扔给修复者。

    这种多轮次、分层级的故障模式,极大地丰富了训练数据的维度。

    残酷的奖励机制与对抗博弈

    在强化学习中,奖励函数是指挥棒。

    SSR的奖励设计充满了一种「微妙的平衡感」。

    对于修复者,奖励很简单:全对得+1分,否则-1分。成王败寇。

    但对于破坏者,这就很有趣了。

    • 如果破坏者生成的Bug太简单,修复者每次都能修好(解决率s=1),破坏者得不到高分。

    • 如果Bug太难,根本修不好(解决率s=0),破坏者会被惩罚(因为它可能生成了逻辑矛盾的死局)。

    SSR采用了一个基于解决率s的公式:

    其中,s∈[0,1]是解决率(solver成功修复bug的比例),α∈(0,1)是一个超参数,用于控制对退化解决率的惩罚强度,在实验中设置为0.8。

    它的意思是:最好的Bug,是那些让修复者感到棘手、通过率不高不低、处于「能力边界」上的Bug。

    这迫使破坏者不断提升难度,正好卡在修复者「跳一跳够得着」的地方,从而推动双方共同进化。

    战果揭晓

    AI真的变强了吗?

    研究团队使用了Code World Model(CWM)的32B模型作为底座,在512个H100 GPU上进行了训练。

    他们在两个权威榜单上进行了测试:

    • SWE-bench Verified:经过人工验证的真实GitHub issue集合。

    • SWE-Bench Pro:更复杂、更企业级的问题集合。

    竞争对手是基于同样模型架构、同样环境镜像,但使用「人类数据」(Human Data)训练出来的基准模型。

    所谓人类数据基准,就是用传统的「Issue描述+测试用例」方式训练的。

    结果令人振奋:

    • SSR完胜:在整个训练轨迹中,SSR的表现始终高于「人类数据」基准。

    • 分数提升:在SWE-bench Verified上提升了10.4%,在SWE-Bench Pro上提升了7.8%。

    • 零样本泛化:SSR在训练时从未见过任何自然语言描述的Issue,它只看过代码和测试。但在测试时,它却能完美处理带有Issue描述的任务。这说明它学到的不是「做题技巧」,而是真正的「编程内功」。

    测试结果显示,随着训练步数的增加,SSR的能力稳步上升,而没有出现过拟合或崩溃,证明了自博弈产生的「课程」是持续有效的。

    通向超级智能的最后一块拼图

    SSR的出现,意味着我们终于找到了一条摆脱「数据饥渴」的路径。

    以前我们认为,要想AI写好代码,必须有无数的人类程序员贡献代码和修Bug的记录。

    现在SSR告诉我们:只要有代码库(Raw Code)就够了。

    当然,SSR还只是第一步。

    它目前的验证还主要依赖单元测试,还没法处理那种跨越数月的大型重构任务。

    但它指明了方向:

    超智能软件系统的诞生,可能不需要人类作为老师,只需要人类的代码作为战场。

    作者简介

    Yuxiang Wei

    Yuxiang Wei

    Yuxiang Wei是伊利诺伊大学厄巴纳-香槟分校(UIUC)计算机科学系的博士生,由Lingming Zhang教授指导。

    他同时在Meta FAIR担任兼职研究员,与Sida Wang、Daniel Fried等人合作,致力于推进大型语言模型(LLM)在代码智能方面的应用。

    Zhiqing Sun

    Zhiqing Sun

    Zhiqing Sun是Meta超级智能实验室(MSL)TBD Lab的AI研究科学家,专注于训练大型语言模型(LLM)用于深度研究、代理开发和复杂任务。

    此前,他在OpenAI的后训练团队担任研究科学家,并曾在AllenNLP和MIT-IBM Watson AI Lab实习。

    Zhiqing Sun于2025年2月在卡内基梅隆大学语言技术研究所获得计算机科学博士学位,并在北京大学获得计算机科学专业荣誉学士学位。

    David Zhang

    David Zhang

    David Zhang是Meta基础AI研究(FAIR)巴黎实验室的研究科学家,专攻使用LLM的代码生成机器学习和深度学习技术。

    David Zhang拥有阿姆斯特丹大学机器学习博士学位、慕尼黑工业大学计算机科学硕士和学士学位。

    Lingming Zhang

    Lingming Zhang

    Lingming Zhang是伊利诺伊大学厄巴纳-香槟分校(UIUC)计算机科学系的副教授,隶属于Grainger工程学院。

    相关内容

    热门资讯

    科学与健康|追“风”逐“云” ... 新华社北京12月27日电 题:追“风”逐“云” 气象卫星家族添了“葫芦娃”! 新华社记者宋晨 12月...
    开源之魅:大模型在2025年的... 开源,大模型的未来战场? 2025年,科技界最热的词汇是什么?不是AI,也不是元宇宙,而是“开源”。...
    传媒科技动漫游戏行业人士齐聚成... 12月27日,第二届传媒科技动漫游戏博览会开幕式暨数字内容产业峰会在四川成都举办。本次活动以“智媒新...
    华人一作!Meta等复刻Alp... 新智元报道 编辑:元宇 好困 【新智元导读】当模型学会「左右互搏」的那一刻,平庸的模仿时代结束了,...
    原创 售... 大家知道,小米 17 Utra 已经正式发布,并为用户带来了常规版和徕卡版两种选择,成为了这两天网上...