AI能自己赚钱了:100美元狂赚50万美金!

2026-03-13
来源: 元素elements
$OneMillion-Bench:价值百万美金的专家级白领任务,AI已经能做大半了

如果有价值$100万美金的顶级专家任务,AI能完成其中多少?

答案是48万美金,而只需要100美元的Token费用。

这个数字怎么来的?Humanlaya Data Lab联合北京通用人工智能研究院(BIGAI)、xbench、M-A-P,招募来自Morgan Stanley、世达(Skadden)、协和医院、中国电网、清华大学等顶级机构或学府的100+位资深专家,耗时2000+小时,构建了等价于人类专家工作价值百万美元级评测基准——$OneMillion-Bench。

随着OpenClaw的爆火,人们越来越关注AI Agent能够实际替人类完成的任务。$OneMillion-Bench的核心想法很直白:用“人类专家的时间与成本”给任务定价,再用“是否满足专家要求”衡量模型交付质量——如果把AI当成“数字白领专家”,总价值100万美金的任务,模型到底能赚多少钱?

图1:$OneMillion-Bench模型表现和其获取的经济价值

「Agent能挣钱」成为日常,但行业更缺一把尺:可交付、可复核、可控

从2025Agent元年开始,AI逐渐从“答题机”推进到“数字员工”,但业界现有评测集往往缺乏对实际经济价值的衡量,区分度不足、难以自动化且仅有英文语境,因此,$OneMillion-Bench构建了一套兼备高经济价值×高区分度×可自动评测的基准。

它包含400道高难题目(200个英文题+200个中文题),覆盖金融、法律、医疗、自然科学与工业五大领域的92个三级领域,与常见的考试题不同,每道题都是真实行业场景下的开放专家任务,采用Rubrics + LLM as Judge评测。要求模型给出可落地的实操方案与判断链路,在这些开放问题上,不仅回答“是什么”,更要说明“怎么做、按什么顺序做、为什么这么做”。

图2:$OneMillion-Bench5个领域,37个二级和92个三级细分类别

之所以是$OneMillion,是因为这些任务真的很「贵」。

不同于传统只评估模型准确率的榜单,我们用“钱”来标价每一道题的现实劳动价值——任务经济价值=资深专家完成该任务的耗时×专家时薪。时薪锚定官方或行业权威数据,如中国部分城市人社局、美国劳动统计局,任务的耗时来自多个领域专家的共同评估。据此,把所有任务的经济价值加和计算后,超过了100万美元。如果在现实世界里把这些工作交给资深专家团队完成,你需要支付的成本就是百万美元量级。这样一来,模型评测不再停留在分数上,而是更直观地回答:AI现在到底能稳定交付多少“可兑现价值”,以及距离真正上岗还差什么。

表1:$OneMillion-Bench经济价值计算

四大关键设计:多样化真实场景+高价值任务+非对称负分机制+高质量与一致性

(1)经济价值出发,构建高真实性、高含金量专家任务

我们在评测中引入用货币度量的“经济价值”,核心是衡量模型在真实世界中能创造多少可交付的经济价值。开放式问题很难用单一标准答案衡量,我们邀请一线资深专家将真实工作流拆解为细颗粒度考点:每道题设计15–35个考点,累计7000+考点。题目覆盖5–15年经验从业者在真实场景中常见的典型任务,专家来自各类头部机构,不只考知识点,更考验特定场景下的专家级决策能力。

(2)引入“负分项”,防止Reward Hacking

在开放式任务里,模型最容易走向“越说越多、看起来越专业”,蒙到考点就得分。为了避免虚高,我们加入行文逻辑和结构、扣分项考点。模型如果只是堆砌内容,没有合理的逻辑展开,无法“撞到”高分。在考点分值设置上,我们采取+10~-20的非对称考点分值:正向能力给分更克制,明确或致命错误惩罚更重。这套结构的效果更接近真实使用体感——做对不一定加分很多,但做错往往会带来更大代价。

(3)覆盖92个三级分类,含CN+Global两大子集单独区分中国大陆题目,场景足够真实、丰富

我们将任务细化到覆盖92个三级分类的真实岗位工作流;CN是中文题目,Global是英文题目,收集本地化、真实的题目,尽量还原真实的法规、流程与业务语境,从而更精准刻画不同模型在特定地域业务场景中的能力差异。

(4)一套“像生产线”的专家Pipeline:让高难Rubrics题可规模化、可质控

为了确保数据场景真实、考点合理,团队在专家招募、选拔与培训上投入大量成本,专家平均整体通过率低于5%,题目最终质检通过率38.1%。数据生产采用3-4名专家协作的Pipeline,包含对抗性评审与仲裁机制。在难度控制上,我们采取双向截断策略,剔除过易样本,对于过难样本二次复审,确保数据质量。

图3:$OneMillion-Bench题目示例

成绩单解读:SOTA的分数已经合格,但距离交付仍有距离

目前最强模型通过率超过40%,在100万美元的任务上,大约可以产出50万美元,而完成任务的API成本也就100美元左右!AI不但已经能“干活”,而且在极高难度、极高单价的专业任务里,已经能交付相当可观的美元级别的价值。

表2:模型的平均通过率、平均分和可以产生的总经济价值

Insight 1:成绩已经合格,但离“可托付”还很远

如果只看平均分,头部模型已经进入了合格区间(60%+),第二梯队也普遍在50%以上,说明AI在专业任务上确实能覆盖不少关键点。但在真实工作里,平均分其实不够用,未达到一定质量需要返工。因此,我们引入了更贴近落地的指标——通过率(Pass Rate):单题得分达到70%及以上,本题才算“通过”。

基于这个定义,本榜单的Economic Value(经济价值)也不是按平均分线性折算,而是严格按“可交付”口径计算,只有通过的任务才计入“能赚到的钱”。平均分像“考试成绩”,而通过率才是“上岗证”。

而从通过率的视角来看,即使是排名第一的 Claude Opus 4.6 Web Search,也骤降到43.5%,即只有不到45%的任务可以通过验收,第二梯队多在25~30%区间徘徊。换句话说,平均分看起来“能用”,但能在一半以上任务里稳定达到可交付标准的模型,目前还不存在。

目前,AI 已经能稳定交付一部分题目、并且能赚到很可观的价值,但榜单也清楚告诉我们另一半真相:距离可交付专业任务仍有相当一段路程。

Insight 2:Web Search 是一把双刃剑

Web Search 工具调用通常能显著补齐事实,尤其在经济金融领域的时效性问题,同样适用于医疗、工业、法律中不断迭代和演进的规范和约束。

但它也会引入噪声与“看似权威的错误来源”,从而出现波动甚至回退。下一阶段竞争不只是“有没有搜索”,而是“会不会搜索”以及搜索工具的效果如何:会不会选源、会不会交叉验证、会不会把证据链写进推理、会不会在噪声下保持一致性。

Insight 3:复杂推理仍是通用瓶颈,方向正确但缺乏可执行的细节

模型擅长写一段看起来连贯的解释,但一旦任务需要深层理解、多步演绎、或在巨大可能空间里探索,就仍会出现深度不足与准确性波动。典型例子包括软件工程、机器学习相关任务中的探索式问题。这类任务必须先建立结构,再做推导,再做反证,再回溯修正。模型往往会在中途跳步,或者用看似合理的叙述替代真正的推理。

此外,模型容易给出方向正确但是缺乏可执行细节的回复。比如在医疗场景下,需要的是可执行的临床要素,但模型容易泛泛而谈,遗漏关键点。自然科学任务里存在类似的对实验条件的预期不足、对约束不够细、机制链条理解浅。这种失败在真实落地里杀伤力很大,因为它看起来“很对”,但没有可实践的信息量。

One Step Further ——将把模型推进到“可交付”的那一步

如果站在2024年的视角,会觉得AI还是一个“大玩具”。但站在2026年、OpenClaw把Agent推到大众面前之后,我们看到的是另一件事:AI已经能交付50万美元级别的专业价值;接下来竞争的关键,是继续提升这份价值,并且将这份价值变得更稳定、更可复核、更可控,使智能的边际提升能直接转化为生产力和收入。

$OneMillion-Bench的意义不在于“再做一个排行榜”,而是把“数字员工”的能力边界量化出来:你今天和未来可以放心把哪些工作交给它?

关于Humanlaya

Humanlaya是一家成立于2025年的AI数据实验室,通过定义真实、高经济价值的可验证任务,推动大模型能力边界的拓展与经济价值的落地。

网址:www.humanlaya.com

开源链接:

Paper:https://arxiv.org/abs/2603.07980

GitHub:

https://github.com/humanlaya/OneMillion-Bench

Hugging Face:

https://huggingface.co/datasets/humanlaya-data-lab/OneMillion-Bench

Website:

1. Humanlaya:www.humanlaya.com

2. BIGAI:https://www.bigai.ai

3. xbench:https://xbench.org

4. M-A-P:https://huggingface.co/m-a-p

第一时间获取股权投资行业新鲜资讯和深度商业分析,请在微信中搜索“融中财经”公众号,或者用手机扫描左侧二维码,即可获得融中财经每日精华内容推送。

融中 热门

您可能也喜欢的文章