港中文联手美团开源“视觉推理通才”!图像视频10类任务一网打尽
创始人
2025-12-12 14:21:23

OneThinker团队 投稿

量子位 | 公众号 QbitAI

横扫31个主流基准、拿捏10类核心任务,视觉模型界的“通才”来了!

香港中文大学MMLab与美团研究团队开源提出OneThinker——一个基于RL的统一多模态视觉推理通才模型,覆盖图像与视频两种模态下的十类核心视觉任务。

在31项主流视觉任务测试中,OneThinker均表现亮眼。它不仅能在多任务训练中实现相互促进,还能在从未见过的任务上做出合理推理,初步展现了通才模型的泛化能力。

虽然以Vision-R1、Video-R1、VLM-R1等为代表的工作,已经在图像问答、视频理解、目标检测等任务上取得显著效果。

但这类RL模型大部分存在一个限制:只能处理单一模态或单一任务。模态、任务之间缺乏关联,推理能力被割裂,难以泛化应用。

来看看OneThinker是如何做的。

从“专才模型”到“通才系统”

现实世界中的视觉数据复杂多样,往往同时包含静态图像与动态视频信息。同时,视觉任务类型也高度多样化,例如问答、定位、分割、追踪等。

在这种背景下,传统的“单任务、单模态”RL思考模型架构存在以下两个根本性问题:

  1. 无法统一建模现实复杂场景

    真实应用中往往需要同时理解图像与视频内容,并完成多类任务协同,专才模型难以满足。

  2. 知识隔离,迁移受限

    模型之间彼此独立,缺乏知识共享机制,限制了推理能力在任务之间的泛化与迁移。

为了解决这一问题,研究团队提出了一个“通才思考模型”OneThinker,具备统一理解和推理不同模态、任务的能力。

为了让OneThinker真正具备统一推理不同模态和任务的能力,研究团队从两方面入手:一是构建统一的数据体系,二是优化多任务的训练方法。

多模态统一任务数据构建

构建具备通用视觉推理能力的模型,首先需要解决数据覆盖不足、任务割裂的问题。

为此,研究团队精心搭建了一套数据集,分别用于模型的SFT冷启动与强化学习训练:

  • OneThinker-600k

    覆盖图像与视频两种模态,涵盖图像问答、视频问答、时空定位、分割、跟踪等十类核心视觉任务,用于强化学习阶段的主力训练数据。

  • OneThinker-SFT-340k

    基于Seed1.5-VL对OneThinker-600k生成高质量的思维链样本并过滤,用于SFT阶段冷启动

通过图像与视频任务的联合训练,OneThinker能够在空间与时间维度上建立统一的推理能力,从而实现跨模态、多任务的通用理解。

EMA-GRPO:提升多任务RL训练稳定性

传统强化学习方法在多任务、多模态场景中存在显著训练不平衡问题。

不同任务之间的奖励结构差异较大(如检测任务的奖励稠密,而问答类任务往往稀疏),容易导致样本间或任务间训练不平衡的问题。

为此,OneThinker引入了全新的EMA-GRPO(Exponential Moving Average Group Relative Policy Optimization) 强化训练算法,通过对各任务奖励标准差进行滑动平均归一,解决了两个层面的不平衡问题:

  • 任务内样本权重不均:缓解模型对低方差样本的过度依赖;

  • 任务间梯度贡献失衡:防止稀疏任务在反向传播中占据主导,抑制其他任务学习。

实验结果表明,EMA-GRPO能显著提升强化学习阶段的训练稳定性与收敛速度,为大规模统一推理模型的多任务训练提供了有效支撑。

实验结果

为了全面评估OneThinker的能力,研究团队在图像与视频两个模态下不同任务的31个主流 benchmark上进行了系统测试,覆盖图像问答、视频理解、空间定位、时间定位、目标分割、目标追踪等10类核心视觉任务。

OneThinker在图像问答任务中表现出色,MMMU达到70.6%,MathVerse达到64.3%,在视频理解上,VideoMMM取得了66.2%的表现。

对于时间定位和空间定位任务中,模型在RefCOCO testA的空间定位任务中也取得了93.7%的高分,Charades和ActivityNet的R@0.5分别达到68.3和43.6。

同时,OneThinker在追踪任务GOT-10k上AO达到73.0, 在视频分割任务ReasonVOS上J&F得分为54.9,体现了其在感知类任务中的稳健表现,更多的任务表现请参考原文。

研究团队还发现,在某些任务和模态之间,OneThinker能实现有效的知识迁移与共享,不同任务之间相互促进。

同时,OneThinker在未见任务上展现出零样本能力,能直接适应如点追踪、图像质量评估、GUI理解和旋转目标检测等任务,体现出强大的任务泛化能力。

可以说,OneThinker的推出,不仅展示了强化学习在统一多模态、多任务视觉推理上的潜力,也为构建真正的视觉通才模型提供了清晰的路径。

在大模型不断走向多模态、强推理、通才化的趋势下,OneThinker的工作或许只是一个起点,但它所验证的方向,正在成为通往通用视觉智能(AGI)的关键一环。

相关内容

热门资讯

阿尔伯特·爱因斯坦:重塑宇宙的... 在人类历史的浩瀚星空中,有些名字如同超新星爆发,以其耀眼的光芒永久地改变了我们认知的宇宙图景。阿尔伯...
小米、美的、海信等企业联手了!... 说出来你们都不敢信,空调圈的头部企业们,居然也开始抱团取暖了。 12 月 12 日消息,随着我国加快...
三星A57、A37及A07 5... 【CNMO科技消息】据外媒“gizmochina”报道,三星正加快其A系列中低端手机的更新节奏,计划...
2025年旗舰手机推荐 性能卓越,行业新标杆的诞生 在2025年,智能手机市场迎来了新的巅峰之作。这款手机搭载了高通第五代骁...
当传统匠心“遇见”数字智能 新... 来源:滚动播报 (来源:千龙网) 为期四天的第五届全国工业设计职业技能大赛决赛正在浙江宁波举行。作为...