给奶奶讲一下AI最新物种“大模型代理”

-- 奶奶,我告诉您什么是"大模型代理"吧!

从小翠到小超——AI的成长故事

奶奶:"听说现在有个叫'Agent'的东西很火,是不是又是年轻人玩的啥新花样?"

小雅:"奶奶,您知道吗?这个'Agent'其实就像是一个会上网、会用电脑、还能帮您干活的电脑孙子!"

奶奶:"电脑孙子?那我这都几个真孙子了,还要电脑孙子干啥?"

小雅:"哈哈,比方说原先的Siri就像是您家的小保姆小翠。您说'小翠,明天天气怎么样?',她就回您'明天晴天,最高温度25度'。您问啥她答啥,就这么简单。"

奶奶:"这不挺好的吗?知冷知热的。"

小雅:"是挺好,但您想想,如果您说'小翠啊,帮我买张去北京看我闺女的火车票',小翠就只会说'好的,我马上帮您查询',然后呢?然后什么都没有!她不会真去买票。"

奶奶:"那可不中!"

小雅:"对啊!但现在的'Agent',就像是升级版的小超,您说'小超,帮我买张后天去北京的火车票',小超不但会回您'好的奶奶',它还会真的去:

    1. 打开12306网站
    2. 输入您的身份证号码(它记得)
    3. 查最合适的车次(它知道您膝盖不好,会选有卧铺的)
    4. 自动付款(它记得您的支付密码)
    5. 然后把车票信息发到您手机上

就跟一个懂您、能干活儿、还不要工资的孙子似的!"

奶奶:"哎呦喂!这小超比我孙女还懂我!"

小超是怎么练成的?

奶奶:"那这小超咋就这么能干呢?"

小雅:"奶奶,您记得咱家那个老缝纫机吗?踩着脚踏板才能动那个?"

奶奶:"当然记得,我用它给你伯父做过衣服呢!"

小雅:"后来不是换电动的了吗?再后来不是又买了那种全自动的,您只要放布进去,它就能自己缝好?AI就是这么升级的!

第一代就像老缝纫机,你踩一下它走一步; 第二代就像电动的,省力了,但还得您一直握着; 现在这'Agent',就像全自动的,您只要说个大概,它自己就把活儿干完了!"

奶奶:"那它得多聪明啊!"

小雅:"它有三大法宝:

第一,超级记性 - 比老庙里的账房先生还能记,不光记得住咱家的事儿,还记得网上千万本书的内容;

第二,能写代码 - 这个您就理解成它能给自己编'操作手册',教自己怎么干活;

第三,会用工具 - 它不光会说,还会'动手',能操作电脑、手机,像真人一样!"

数字孙子们打起来了?

奶奶:"这小超是谁家的?"

小雅:"现在好多公司都在养这种'数字孙子'。有的像全能型的,啥都会一点;有的像专家型的,就专门懂一行。就像现实里有的孙子是全科医生,有的是专门治牙的牙医。"

奶奶:"那哪种好使啊?"

小雅:"奶奶,您想想,如果您牙疼,是找全科大夫好,还是找专门的牙医好?"

奶奶:"那肯定牙医更在行啊!"

小雅:"对啦!所以现在正打得火热呢!有Manus这样的全能型,啥都会一点;也有专门帮律师写合同的,专门帮医生看片子的,各有各的本事。"

电脑孙子会不会太皮?

奶奶:"这电脑孙子靠谱吗?会不会像我那个小孙子一样,老给我捣乱?"

小雅:"哈哈哈,奶奶担心得有道理,这还真是个问题。这电脑孙子是很能干,但有时候也会犯糊涂:

比如您说'帮我定个好吃的餐厅',它可能订了一个超贵的,把您养老钱都花了;

或者您说'帮我查查最近的药店',它给您找了个假药店。

所以现在这些公司还在训它们呢,就像您当年教育孙子一样,得慢慢来。"

奶奶:"那得好好驯它!"

奶奶的电脑孙子啥时能到岗?

小雅:"奶奶,您猜这种能干活的电脑孙子啥时候能真正进咱家门?"

奶奶:"得等几年吧?"

小雅:"您还真说对了!今年这些电脑孙子还在'幼儿园'阶段,刚学会走路没多久。到2025年,它们可能就上'中学'了,能帮您干些简单活儿;再过几年,等它们上了'大学',那就厉害了,说不定能帮您:

    • 自动监控您的血压血糖,提醒您吃药
    • 管理您的医保卡,自动报销医药费
    • 帮您和远在外地的儿女视频聊天,翻译您听不懂的方言
    • 提前一周就提醒您老姐妹的生日,还帮您挑好礼物"

奶奶:"这不比我孙女还贴心嘛!什么时候能给我整一个?"

小雅:"奶奶别急,好东西都在路上呢!肖弘这样的年轻人正在加班加点给您'调教'数字孙子呢!"

奶奶:"那个'小红'是谁啊?"

小雅:"不是'小红',是'肖弘',是个90后小伙子,对电脑孙子特别有想法。他说过,做这种孙子,得'用最疯狂的想象',不能小看它的本事。他跟他的团队正在打造这种电脑助手,说不定以后真能成您的贴心小棉袄呢!"

奶奶:"90后?那不比我孙子大不了几岁?现在的年轻人真是了不得!下次他要来我们这儿,让他来家里吃顿饭,我亲自下厨!"

小雅:"奶奶,您呀,还是关心实际的!不过说真的,这些电脑孙子真正普及可能就在几年内。到时候,可能我们都不用教您怎么用手机了,您只要对着手机说话,电脑孙子就把一切都安排好啦!"

奶奶:"那敢情好啊!我就等着那一天了!"

 

【相关】

Decoding LLM-native Agents: Bridging Compilation and Interpretation in AI

Introduction

Since ChatGPT's explosive rise in 2022, artificial intelligence has rapidly transitioned from mere "chatbots" capable of responding to queries, to autonomous "agents" capable of executing tasks independently. In the emerging field of AI Agents, two architectural paradigms seem to have emerged: Compiled Agents and Interpreted Agents. Understanding their differences, capabilities, and limitations is essential for grasping the broader evolution of AI-driven productivity.

Compiled vs. Interpreted Agents

To simplify:

    • Compiled Agents embed intelligence predominantly during development, using pre-defined workflows and scripts. They excel in tasks with predictable outcomes.
    • Interpreted Agents dynamically apply intelligence at runtime, adjusting actions based on immediate context and feedback, suited to open-ended, unpredictable tasks.

Just as traditional software differentiates between compiled (pre-wired) and interpreted (runtime-decided) languages, AI agents exhibit similar distinctions.

Technical Deep Dive

Compilation in LLM: Parameter Fixation and Knowledge Internalization

In LLM-native agents, "compilation" occurs during model training. Vast textual data is compressed into fixed neural parameters. Post-deployment, these parameters act like "compiled" code, setting fixed probabilistic boundaries on potential behaviors.

Interpretation in AI: Dynamic Runtime Decisions

However, runtime inferences from LLMs reveal an "interpreted" quality, characterized by:

    • Dynamic CoT (Chain-of-Thought) generated spontaneously
    • Adaptive path planning reacting to real-time feedback
    • Probabilistic decisions, allowing the same prompt to yield different outcomes

Thus, LLMs represent a hybrid computational paradigm, combining "probabilistic compilation" and "constrained interpretation"—leveraging pre-trained parameters while dynamically interpreting and adapting at runtime.

Architectural Comparison

Compiled Agents: Reliability and Predictability

Unlike LLM-native agents, compiled agents follow strict, pre-defined workflows:

    • Clear, predetermined logic paths
    • Fixed decision branches
    • Limited context management
    • Deterministic results

Examples: ByteDance's Coze platform exemplifies this model. Users visually design the agentic logic via drag-and-drop workflows, ensuring consistency and reliability. Ideal for well-defined business automation tasks like RPA (Robotic Process Automation), compiled agents excel in repeatable, predictable operations.

Limitations: Rigidity and inability to adapt dynamically. Any unforeseen changes in environment or input can disrupt workflows, necessitating manual reconfiguration and/or re-training the models behind.

Interpreted Agents: Runtime Autonomy and Flexibility

Interpreted agents are LLM-native autonomous agents that dynamically formulate and revise their execution plans:

    • Goal-driven, high-level task definitions
    • Real-time strategic planning
    • Environmental awareness
    • Autonomous decision-making with dynamic tool selection

Examples: Manus and AutoGPT embody interpreted agents. AutoGPT autonomously breaks tasks into subtasks, sequentially executes them, adapts based on interim results, and maintains persistent memory states to handle complex, multi-step operations. Manus, employing a multi-agent collaborative framework, autonomously executes complex workflows—from data analysis to report generation—demonstrating a complete "idea-to-execution" loop.

Strengths: Highly adaptive, capable of handling diverse, unforeseen scenarios. Ideal for research, creative tasks, and personal assistance.

Challenges: Unpredictability, higher computational resources, potential security risks, and more intricate development and testing procedures.

Interface Strategies: Universal vs. Specialized

Agent capabilities heavily depend on interaction modes with external environments:

    • Universal Interfaces (browser-like interactions) grant agents broad compatibility but face efficiency, reliability, and security issues.
    • Specialized Interfaces (API calls) offer speed, stability, and security but lack flexibility and require direct integration.

Strategically, agents leveraging specialized APIs can form more robust, defendable positions, avoiding easy internalization by LLM providers.

Future Directions and Challenges

Emerging Hybrid Architectures

Future agents will increasingly blend compiled reliability with interpreted adaptability, embedding runtime-flexible modules within structured workflows. Such hybrids combine precise business logic adherence with adaptive problem-solving capabilities.

Technical Innovations

Advances needed include:

    • Further enhanced runtime reasoning and self-reflection via RL (Reenforcement Learning) post-training to improve decision accuracy
    • Integrated multimodal perception (visual, auditory, tactile) for richer environmental understanding
    • Robust resource management and runtime environments supporting persistent, background-running interpreted agents

Societal and Ethical Considerations

Widespread agent deployment raises security, privacy, and ethical issues, demanding stringent governance, transparent operational oversight, and responsible AI guidelines.

Conclusion

Compiled and interpreted agents represent complementary, evolving paradigms. Their convergence into hybrid architectures is forming the backbone of a new, powerful LLM-native agent ecosystem. As this evolution unfolds, humans will increasingly delegate routine cognitive tasks to agents, focusing instead on strategic, creative, and emotionally intelligent roles, redefining human-AI collaboration.

In essence, the future of AI agents lies in balancing the precision and predictability of compilation with the flexibility and creativity of interpretation, forging an unprecedented path forward in human-technology synergy.

 

[Related]

Xiao Hong Red:肖弘其人

 

Xiao Hong 君 非常人也!通透、门儿清,难在还有心态、有执念,也有积累。我要是投资人,也投他。

一口气听完 张小珺 独家对话Manus肖弘,在在精彩。Xiao Hong 讲的都是白话,坦诚地道,不玄乎、不做作,却非常到位。他对自己及其产品的定位,对生态、对模型与应用两边,对未来,都有自己非常清晰的认知。作为10年创业者,他有自己的定力,坚持做自己(be yourself)。大模型 agent,他深知大厂如字节一定会短期内赶上来,但他相信,一定有空间容纳他这种应用狂。对模型厂家始终保持特别的推崇, 特别提到 DeepSeek 给应用生态带来了意想不到的积极因素。

肖弘(Xiao Hong, Red)是最近大火的大模型 agent Manus 的 CEO,继 DeepSeek 后国内大模型行业的新星。听肖弘的访谈,感觉就是AI应用新时代的"创业笔记"。这位90后但已创业10年的创始人不仅把大模型应用的发展脉络梳理得明明白白,还用大白话告诉创业者:在这场AI革命中,即使你不是DeepSeek这样的"模型大佬",也能找到自己的一席之地。

从表单到Agent:AI应用的进化史

AI应用的进化就像是从翻盖手机到iPhone进化一样的戏剧性:

Jasper时代:抄作业思维,"亲,请填写您的目标受众和主题~"
ChatGPT时代:对话式指令,"嗨,我能帮你做什么?"
Monica时代:上下文感知,"我看到你在看这篇文章,需要我帮你总结吗?"
Cursor时代:代码执行力,"我不仅会聊天,还能写代码解决你的问题!"
Agent时代:异步规划执行,"我来帮你拆解任务,一步步完成,有结果随时汇报~"

这不就是从"功能机"到"智能手机"的进化吗?肖弘发现这种进化背后有一条清晰的主线:越来越符合普通人的习惯,能力边界越来越大。

"新安迪比尔定律":应用公司如何吃掉模型能力

肖弘提出了"新时代的安迪比尔定律":不管模型厂商造出多强大的模型,应用公司都可以把这些能力吃掉,并转化成用户可感知的价值。这就是大模型应用弄潮儿应有的定位。

这就像当年英特尔(Andy Grove)一旦提供更强的芯片,微软(Bill Gates)就会用更强大的操作系统把这些算力吃掉。现在,模型厂商提供了更强的推理能力,应用公司正在把它变成了能写代码、调用API、规划执行的智能代理(Agent)。

肖弘甚至半开玩笑地提供了一个创业秘诀:"你预判下一个模型能力是什么,先把这部分应用做好,在前方等着模型能力变强。等那个模型能力提升到位,你就赢在了你预见的起跑线上!" 作为一位优秀产品大咖,他曾经用过这招,成就了他的第一次创业。

Agent活了!大模型应用的"啊哈时刻"

访谈中令人叫绝的一个场景是肖弘描述他们测试Agent的"啊哈时刻":

他们给Agent一个任务,要它分析一个YouTube视频中某个时间点出现了几种动物。结果Agent不仅打开了YouTube,还自己决定使用快捷键以提升效率,精确定位到指定时间,然后分析画面内容给出答案。

肖弘的反应:"你是真的会觉得自己在创造一个生命。"

这不就是《西部世界》的真实版前传吗?只不过现在的Agent还只是在数字世界里探索,而不是实体世界。

"用博弈的方式思考,而不是逻辑推理"

肖弘对创业思维的总结堪称清奇:不要用逻辑推理("百度有最好的算法工程师,所以百度一定会把推荐做好"),而要用博弈思维("因为某个玩家的加入,整个游戏规则都变了")。逻辑推理里面没有字节什么事儿,博弈思维却可以容纳 Liang Wenfeng 与 Xiao Hong 这些新的玩家。

这就像下棋,不是简单地推导"如果我走这步,对方一定会走那步",而是要考虑"因为我走了这步,对方可能会改变整个策略"。

在这种思维下,即使面对巨头林立的竞争环境,创业者也能找到自己的机会——不是通过线性推导(那样只会得出"一切都是巨头的机会"的悲观结论),而是通过成为改变游戏规则的变量。

就是说,Sam 鼓吹的头部大模型厂家碾压一切的前景最多只是一半的真理。模型与应用各司其长的空间大概率会长久存在。

XiaoHong 金句集锦

访谈中肖弘还抛出了一堆值得创业者贴在墙上的金句:

    • "当你意识到你在创新、在领先,应当更激进,超级激进"
    • "应该用最疯狂的幻想去理解,最好不用做空它"
    • "不要把应用公司和模型公司对立"
    • "Be Yourself最重要,而不是应激"

最后,面对AI飞速发展的未来,肖弘引用黄仁勋的话作结:"接下来几年,什么事情发生会让你觉得很惊讶?"黄仁勋的回答是:"Basically nothing(基本上没有什么)。"

换句话说,在AI时代,不管发生什么疯狂的事,都不要太惊讶——哪怕是你的Agent开始按快捷键看YouTube视频并回答问题。毕竟,agent 醒来才刚刚开始呢!

 

 

【相关】

张小珺 独家对话Manus肖弘:世界不是线性外推,做博弈中的重要变量

万字长文解析 LLM-native Agent 及其混合计算方式

楔子

白硕老师对于最近的热门话题 Agent 如是说,不乏洞见:

谈agent,要区分是“编译型”还是“解释型”的。 

智能如果只用在了“编译环节”,那agent就只是一个无码开发工具(智能“鸡”),在运行态就只是一个换汤不换药的RPA(不智能的“蛋”)。 而纯解释型的agent,智能明确地用在了run time。当然还需要进一步区分是“立即执行类”还是“驻留守护类”的任务。 如果是“立即执行类”任务,解释型的agent可以比作孙猴子,除了亲力亲为之外,最多需要的仅仅是临时拔几根猴毛的问题,任务已结束猴毛就不见了。 如果是“驻留守护类”任务,命令下达和事件驱动之间有明显“时延特征(此时下达,彼时执行)”和“多次特征(一次下达,多次执行)”。这时,就需要能够长时间驻留的数字分身和支持分身全天候工作的run time环境。恐怕连agent的技术架构都是不一样的。

当然也可能有中间态。就是编译环节有规划和复杂意图拆解能力,运行态虽然没这个能力,但处理非结构化数据的能力还是有的。解释型的agent不需要固定的“流程”,驱动它执行的,只是“事件”,而谁发起、触发这个事件,完全没有必要硬编码,连扣子那种拖拉拽式的硬编码都不需要。这相当于是一个“半智能的蛋”。对一个企业来说,也无需“多个”,一个足矣。

manus 是哪一种呢?看着像解释型,但似乎没有驻留守护功能。扣子是典型的编译型。

很多讨论和贩卖agent的,连agent是鸡还是蛋、有智能的是鸡还是蛋都没搞清呢。

编译vs解释,立即vs驻留,接口vs内化,三大基本问题。流程硬编码vs事件驱动,这是更根本的架构问题。顶替人类岗位的RPA,一般是需要驻留的。

接口还可以细分:一个万能接口(类浏览器)还是多个专用接口。万能接口更易受到内化威胁,专用接口就基本上不值得内化了。有可能,万能接口集约化、专用接口长尾化会长期并存。垂直领域对专用接口再做一次集约化也是一个巨大的生态重构诱惑。

写提示词,要结果——解释型。解释型自带运行时AI,自己就是agent。

写提示词,要代码——编译型。代码在执行中如果还调用大模型原生能力,就是agent,否则只是用AI生产出来的RPA。

智能代理的双重本质

2022年ChatGPT核爆式崛起以来,AI技术正在经历从"可询问的聊天式工具(chatbot)"到"可执行的智能体(agent)"的根本转变。在这场技术革命中,Agent(智能代理/智能体)作为大语言模型最自然的应用形态正迅速成为研发与商业的热点。然而,当我们深入分析Agent的技术本质时,可以发现一个根本性的架构分化:编译型Agent解释型Agent。这种区分不仅反映了技术实现的差异,更代表了两种不同的智能应用哲学。

编译型Agent将智能主要应用于开发阶段,由人类或AI助手预先设计工作流程,生成固定的执行脚本;而解释型Agent则将智能延伸到运行时,赋予系统在执行过程中自主决策和适应环境变化的能力。这两种范式各有优劣,适用于不同场景,也面临不同的技术挑战。By nature,解释型Agent比编译型Agent更趋于通用。

2025年被业内公认为"Agent元年",这一判断并非偶然。尽管对Agent的探索早在一年多前ChatGPT核爆不久后即已开始,但从技术基础设施的角度看,直到2024年底,推理模型的突破性进展与多模态能力的逐渐成熟,才真正为Agent的大规模应用奠定了必要的坚实基础。这些核心能力的集结,标志着LLM应用生态系统的基础建设阶段性完成,为Agent技术的爆发创造了条件。

本文将深入剖析编译型与解释型Agent的技术架构、运行机制及适用场景,探讨Agent技术面临的核心挑战,并展望其未来发展方向。通过对Manus、AutoGPT、扣子等代表性产品的分析,我们将揭示不同Agent架构背后的技术选择与权衡。最终,我们认为编译与解释并非对立的范式,而是将融合演化出更强大的智能代理形态,开创AI应用的新纪元。

一、LLM-native Agent的编译与解释悖论

在深入技术细节之前,我们首先需要理解LLM-native Agent所体现的一个根本性矛盾:它既表现出编译型系统的特征,又展现解释型系统的行为。这一矛盾不仅挑战了传统软件架构的分类法,也为我们理解Agent的本质提供了新视角。

LLM的"编译":参数固化与知识内化

从广义上讲,LLM的"编译"可以理解为其训练过程。训练完成后,模型的参数被固化,内化了大量的知识和模式。具体而言:

    • 模型通过梯度下降等优化算法,将海量文本数据中的规律"编译"进百亿、千亿甚至万亿的神经网络参数
    • 这些参数一旦训练完成就被固定下来,形成模型的"硬件"部分
    • 模型部署后,参数不再变化,这点类似于编译型程序的机器码固定不变

因此,从参数结构的角度看,任何部署后的LLM应用,其基础模型本身都具有"编译完成"的特质——模型权重定义了系统可能行为的边界和概率分布。

LLM的"解释":推理过程的动态性

然而,当我们观察LLM的实际推断过程时,又会发现其高度的动态性和不确定性:

    • 思维链的动态生成:面对复杂问题时,推理模型LLM(例如 DeepSeek R1)会实时构建思维链(Chain-of-Thought),这是一种由不同input引发的即时“意识流”路径,无法在训练时预先确定
    • 现场路径规划:在推理模型赋能的Agent应用中,LLM能根据当前环境和任务目标,动态规划执行步骤,甚至在执行过程中根据中间结果调整原计划
    • 概率性执行:LLM的每次推理本质上是对概率分布的采样,即使输入完全相同,多次运行也可能产生不同结果,尽管大同小异
    • 上下文依赖:LLM的推理过程高度依赖输入的上下文窗口内容,同一提示在不同上下文中会产生截然不同的响应

这些特性明显体现了解释型系统的核心特征:提示input好比用户指令,模型运行时的灵活性属于对于用户指令的概率性解释执行。与传统编译型程序固定的执行路径不同,LLM的输出路径是无法完全预测的。

LLM的混合计算范式

这个表面上的矛盾源于LLM代表了一种全新的计算模型,它不同于传统的符号逻辑编程架构,而是一种神经网络结构的概率分布模型。在这种模型中:

    • 训练过程类似于"概率编译":不是生成确定性的执行指令,而是塑造一个复杂的参数化概率空间模拟函数运算过程
    • 推断过程类似于"约束解释":在预编译的概率空间内进行受约束的探索,既有固定结构的约束,又有随机采样的自由度

LLM的运行可以理解为:在编译好的知识(参数)基础上,通过指令跟随的“解释”执行模拟,动态地生成输出。这既不是纯粹的编译执行,也不是完全自由的解释,而是二者的有机融合。

概率编译与约束解释

为了更准确地描述LLM-native Agent的这种混合本质,我们引入两个概念:

    1. 概率编译(Probabilistic Compilation):LLM训练过程不产生确定性程序,而是生成一个概率分布空间。编译的产物不是固定的执行路径,而是定义了可能性边界的参数化模型。
    2. 约束解释(Constrained Interpretation):LLM的执行过程是在预编译的概率空间内进行的受约束探索,没有解析解。这种解释受到模型参数定义的先验概率分布的约束,但仍保留了对输入指令的遵从性和创造性。

这种"概率编译+约束解释"的混合范式,使LLM-native Agent既具备了编译型系统的“大气候”稳定性,又保留了解释型系统的“小气候”灵活性,代表了一种全新的计算模式。

对Agent架构设计的启示

理解LLM的这种双重本质,为Agent架构设计提供了关键启示:

    1. 我们应充分利用LLM已有的知识潜力,用于任务拆解和路径规划,坚持 LLM-native,减少不必要的外部流程
    2. 需要发扬LLM的动态推理能力,使Agent能灵活应对运行时的环境变化和未预见情况
    3. 系统需要妥善处理LLM内在的概率性,包括设计容错机制和结果验证流程

在实践中,我们需要认识到LLM的决策既不是完全随机的(有参数的约束),也不是完全确定的(有采样的随机性)。这种认识超越了简单技术分类的争论,指向了一种更本质的架构哲学:Agent系统应当是固定结构与灵活行为的辩证统一,是确定性基础与创造性表现的有机融合。

二、编译型Agent

定义与核心特征

编译型Agent是指在开发阶段就将Agent的行为逻辑和任务流程规划完善,生成固定的执行程序的智能系统。其核心特征包括:

    • 静态流程图:任务执行路径在开发时就被明确定义,通常使用可视化流程编辑器设计
    • 预定义决策分支:所有可能的情况和响应策略都需要预先编码
    • 有限上下文:只维护任务所需的最小状态,不需要复杂的记忆和推理机制
    • 确定性执行:相同输入产生相同输出,行为高度可预测
    • 封闭边界:只能处理设计时考虑到的场景,无法应对未预见的情况

技术架构剖析

编译型Agent的技术架构通常包含以下关键模块:

    1. 任务分析引擎:负责解析用户需求,将其转化为结构化的任务描述
      • 使用自然语言处理技术理解用户意图
      • 提取关键任务参数和约束条件
      • 将高层任务目标映射到预定义的任务模板
    2. 流程设计器:将分析结果转化为可执行的流程图
      • 可视化工作流编辑器,支持拖拽操作
      • 条件分支和循环结构设计
      • 错误处理和回退机制定义
    3. 执行引擎:按照预定义流程执行任务
      • 上下文管理,维护必要的临时变量
      • 外部API调用集成
      • 异常捕获和处理
    4. 工具适配器:连接各种外部系统和服务
      • API客户端库
      • RPA界面自动化控制器
      • 数据转换和格式化工具
      • 安全认证和权限管理

编译型Agent的核心是将复杂任务分解为明确的条件分支和确定性操作序列。虽然在设计阶段可能借助AI技术来辅助流程创建,但一旦流程确定,执行过程就变成了按图索骥。

运行时行为分析

在运行阶段,编译型Agent的行为遵循严格的预设路径。以下是典型的运行时执行流程:

    1. 接收输入:获取用户指令或系统触发信号
    2. 参数解析:将输入转化为流程所需的参数
    3. 条件评估:根据当前状态和输入确定执行路径
    4. 步骤执行:按顺序执行当前步骤定义的操作
    5. 状态转移:根据执行结果更新状态,确定下一步
    6. 异常处理:遇到预定义异常时执行对应的处理逻辑
    7. 输出生成:完成任务并生成结果

这种执行模式高度确定,每个步骤都有明确的预期结果和后续动作。然而,这也意味着编译型Agent缺乏适应环境变化的能力。

代码实例分析

以下是一个编译型Agent处理客户订单的简化伪代码示例:

# 编译型Agent预定义的订单处理流程
def process_order(order_id):
    # 步骤1: 验证订单
    order = db_api.get_order(order_id)
    if not order:
        return {"status": "error", "message": "订单不存在"}
    
    # 步骤2: 检查库存
    inventory = inventory_api.check_stock(order.items)
    if not inventory.all_available():
        return {"status": "pending", "message": "部分商品缺货"}
    
    # 步骤3: 处理支付
    payment_result = payment_api.process(order.payment_info)
    if payment_result.status != "success":
        return {"status": "failed", "message": f"支付失败: {payment_result.message}"}
    
    # 步骤4: 更新库存
    inventory_api.allocate_stock(order.items)
    
    # 步骤5: 安排配送
    delivery = delivery_api.schedule(order.shipping_address)
    
    # 步骤6: 发送确认邮件
    email_api.send_template("order_confirmation", order.customer_email, {
        "order_id": order_id,
        "items": order.items,
        "delivery_date": delivery.estimated_date
    })
    
    return {"status": "success", "message": "订单处理完成", "delivery_id": delivery.id}

这段代码展示了典型的编译型Agent特征:固定的执行顺序、明确的条件分支、预定义的API调用。每一步都明确知道调用什么服务,流程是刚性的,无法根据运行时发现的新情况自行调整策略。

应用场景与优劣势

编译型Agent最适合那些流程固定、规则明确的任务场景:

    • 企业流程自动化:如审批流程、报表生成、数据同步等重复性工作
    • 客户服务自动化:处理标准化的查询、订单状态追踪、常见问题解答
    • 定时任务执行:按计划执行备份、清理、汇总等维护性工作

优势

    • 可靠性高:行为可预测,结果一致性好
    • 资源效率:执行过程轻量,不需要复杂推理
    • 安全可控:权限和行为边界明确
    • 易于调试:问题定位简单,执行路径可追踪
    • 合规性强:易于实施审计和监管要求

局限性

    • 适应性差:环境变化或输入变异时容易失效
    • 开发成本高:需要预先考虑各种场景和异常情况
    • 扩展性有限:新需求通常需要重新设计流程
    • 缺乏学习能力:难以从经验中改进
    • 长尾问题难解:难以覆盖所有边缘情况

典型产品案例:扣子(Coze)

字节跳动推出的Coze(扣子)平台是编译型Agent的典型代表。它允许用户通过可视化界面设计对话机器人的工作流程:

    • 可视化流程编辑:拖拽节点构建对话和任务处理流程
    • 知识库集成:导入专业知识为机器人提供参考信息
    • 条件分支路由:根据用户输入或系统状态选择不同处理路径
    • API插件调用:在特定节点调用外部服务
    • 模板化响应:预设回复模板,结合变量生成个性化回应

扣子的设计哲学明显体现了编译型思路:开发者在设计阶段定义所有可能的交互路径和响应策略,Bot在运行时按照这些预设路径执行。虽然扣子也集成了大语言模型来增强对话理解和生成能力,但这些AI能力是在固定流程节点中被调用的,而非由AI自主决定执行路径。

扣子的成功证明了编译型Agent在特定场景下的价值。通过降低开发门槛,它使得企业可以快速构建符合业务规则的特定任务型app,表现为场景化chatbot,在可控性和功能定制方面表现出色。然而,这种平台也继承了编译型Agent的固有限制:难以应对高度开放性的任务和动态变化的环境。

三、解释型Agent:运行时智能的自主决策者

定义与核心特征

解释型Agent将智能的核心部分延伸到运行时,让Agent在执行过程中能够根据实时情况动态规划和调整行为。这类Agent不依赖预先硬编码的完整流程,而是赋予Agent某种程度的自主决策能力——接受一个现场目标后,Agent可以自行思考如何达成,一边遵行用户指令,一边调整策略。解释型Agent的核心特征包括:

      • 目标导向:接收高层次目标而非详细步骤指令
      • 动态规划:实时生成和调整执行计划
      • 环境感知:能理解并适应执行环境的变化
      • 工具使用:根据需要选择并调用合适的工具
      • 自主决策:在执行过程中做出关键选择而非仅遵循预设规则

技术架构剖析

解释型Agent的技术架构通常包含以下关键组件:

    1. 意图理解模块:负责理解用户的目标和约束
      • 深度语义解析,从自然语言提取目标和要求
      • 多轮对话管理,补充和澄清模糊信息,包括自主提问用户
      • 推断隐含需求,完善任务上下文
    2. 规划引擎:将目标分解为可执行的子任务序列
      • 基于推理模型的任务分解和路径规划
      • 动态规划和重规划能力
      • 多步骤推理和预测执行后果
      • 目标-子目标层次结构管理
    3. 工具选择与调用模块:决定使用哪些工具完成子任务
      • 工具需求评估和匹配
      • 参数构造和验证
      • 结果解析和整合
      • 错误处理和重试策略
    4. 记忆系统:维护长期和短期记忆
      • 对话历史和执行状态追踪
      • 向量数据库对接场景数据
      • 语义搜索和相关性排序
      • 上下文压缩和重要信息保留
    5. 监控与反馈模块:评估执行进度和结果质量
      • 中间结果验证
      • 目标完成度评估
      • 自我纠错和改进
      • 用户反馈整合

解释型Agent的核心优势在于其闭环的"感知-思考-行动"循环,让Agent能够像人类一样,根据环境反馈持续调整策略。

运行时行为分析

一个解释型Agent的典型运行流程如下:

    1. 目标接收:获取用户的高层目标描述
    2. 任务规划:分析目标,生成初步执行计划
      • 任务分解:将复杂目标拆解为子任务
      • 依赖分析:确定子任务之间的顺序关系
      • 资源评估:确定完成各子任务所需的工具和信息
    3. 循环执行:进入"思考-行动-观察"循环
      • 选择当前最优子任务
      • 决定完成子任务的最佳方法(直接回答或工具调用)
      • 执行并获取结果
      • 评估结果,更新内部状态
      • 根据新信息调整后续计划
    4. 结果合成:整合各子任务结果,生成最终输出
    5. 反思学习:总结执行过程,识别可改进点

这种运行模式使解释型Agent具备处理高度不确定任务的能力,因为它可以根据执行过程中获取的新信息不断调整策略。

代码实例分析

以下是解释型Agent处理开放任务的简化伪代码示例:

# 解释型Agent的自主执行框架
class AutonomousAgent:
    def __init__(self):
        self.memory = Memory()  # 初始化记忆系统
        self.tools = ToolRegistry()  # 可用工具注册表
        self.llm = LargeLanguageModel()  # 底层语言模型
    
    def execute_task(self, goal_description):
        # 初始化任务状态
        task_state = {
            "goal": goal_description,
            "status": "in_progress",
            "steps_taken": [],
            "current_context": self.memory.get_relevant_context(goal_description)
        }
        
        # 生成初始计划
        plan = self.llm.generate_plan(
            goal=goal_description,
            context=task_state["current_context"]
        )
        
        # 执行循环
        while task_state["status"] == "in_progress":
            # 确定下一步行动
            next_action = self.llm.decide_next_action(
                plan=plan,
                task_state=task_state
            )
            
            # 执行行动
            if next_action["type"] == "tool_use":
                # 选择并使用工具
                tool = self.tools.get(next_action["tool_name"])
                result = tool.execute(next_action["parameters"])
            elif next_action["type"] == "direct_response":
                # 直接生成回应
                result = self.llm.generate_response(
                    task=task_state,
                    prompt=next_action["prompt"]
                )
            
            # 更新任务状态
            task_state["steps_taken"].append({
                "action": next_action,
                "result": result
            })
            
            # 更新记忆
            self.memory.store(
                action=next_action,
                result=result,
                task_id=task_state["id"]
            )
            
            # 评估任务状态
            task_state = self.llm.evaluate_progress(
                task_state=task_state,
                last_result=result
            )
            
            # 可能需要重新规划
            if task_state.get("needs_replanning"):
                plan = self.llm.refine_plan(
                    original_plan=plan,
                    task_state=task_state
                )
        
        # 生成最终结果
        final_output = self.llm.synthesize_results(task_state)
        return final_output

这段代码展示了解释型Agent的关键特征:目标驱动的规划、动态决策循环、工具选择与使用、记忆管理以及不断的自我评估和调整。与编译型Agent的固定路径不同,解释型Agent的执行路径是在运行时动态生成的,由LLM的判断和环境反馈共同决定。

解释型Agent的实现模式:立即执行vs驻留守护

解释型Agent根据任务持续时间和触发方式的不同,可以进一步分为两种实现模式:

立即执行型Agent

这类Agent接收任务后立即执行,完成后即结束存在:

    • 任务即时性:在单次会话中启动并完成
    • 用户监督:通常用户在线等待并可能提供额外指导
    • 资源临时占用:任务完成后释放所有计算资源
    • 状态短暂性:只在执行期间维持状态,不保留长期记忆

立即执行型Agent适合需要快速响应的任务,如数据分析、内容创作、问题排查等。用户可以全程监督Agent的工作并在必要时提供额外信息。

驻留守护型Agent

驻留守护型Agent是长期存在的"数字分身",能在用户不在场时自主执行任务:

    • 时延特征:指令与执行之间可能存在显著时间差
    • 多次特征:一次指令可能触发多次或持续性执行
    • 事件驱动:可以响应各种系统事件而非仅用户直接指令
    • 状态持久化:维护长期记忆和执行状态
    • 后台运行:无需用户持续在线监督

这类Agent需要特殊的运行时环境支持,包括状态持久化、事件监听、调度系统、虚拟机等,技术复杂度更高。它们适合长期监控任务、日程管理、资源优化等需要持续关注的场景。

多Agent协作系统

更复杂的解释型Agent实现可能采用多Agent协作架构,将不同功能分配给专业化的子Agent:

    • 规划Agent:负责整体策略和任务分解
    • 执行Agent:专注于具体任务的实施
    • 记忆Agent:管理系统的长短期记忆
    • 评估Agent:监控结果质量和目标完成度
    • 协调Agent:管理多Agent间的通信和协作

这种架构通过"分而治之"提高系统可靠性和性能,同时使整体系统更具可扩展性。不同Agent可以使用不同的底层模型,或者专注于不同的任务域,形成优势互补的协作网络。

应用场景与优劣势

解释型Agent最适合那些开放性、非确定性高的任务场景:

    • 研究与探索(deep research):收集和分析信息,生成见解和报告
    • 创意工作:内容创作、设计辅助、创意头脑风暴
    • 个人助理:日程管理、邮件分类、信息整合
    • 复杂决策支持:分析多源数据,提供决策建议
    • 学习辅导/面试:根据学生反应调整教学策略或主动提问和评估

优势

    • 适应性强:能处理环境变化和意外情况
    • 任务覆盖广:无需预设所有可能路径
    • 持续改进:能从经验中学习优化策略
    • 自主程度高:减少人工干预和监督
    • 长尾场景覆盖:能应对小概率、未预见的情况

局限性

    • 可靠性挑战:行为不完全可预测,可能出现意外结果
    • 资源消耗大:需要持续的计算资源支持推断
    • 安全风险:自主决策可能导致越权或错误行为
    • 开发复杂:架构设计和实现难度高
    • 测试困难:难以全面测试所有可能的行为路径

典型产品案例:Manus

Manus作为"全球首款通用AI Agent",采用了典型的解释型架构。从它的demo及其相关资料看,它的核心特性包括:

    • 多Agent协同:规划Agent负责任务分解和策略制定,执行Agent实施具体操作,验证Agent评估结果质量
    • 全流程自主执行:从任务理解到结果交付的完整自主流程
    • 跨平台执行引擎:集成RAG、浏览器自动化、RPA工具和API调用等多种执行能力
    • 复杂任务处理:能独立完成如简历筛选、市场分析等需要多步骤推理的任务

Manus支持云端异步执行,允许用户关闭设备后仍继续工作,但它仍缺乏持续监听环境变化并主动采取行动的机制。真正的驻留守护型Agent(如智能家居管家、长期个人助理等)仍处于早期发展阶段,面临资源管理、安全控制等一系列技术挑战。

四、接口设计:Agent与世界的交互方式

Agent要发挥作用,必须能与外部世界进行有效交互。接口设计直接影响Agent的能力边界和适用场景,主要分为"万能接口"和"专用接口"两种策略,各有优劣。

万能接口:计算机界面模拟

万能接口策略让Agent通过模拟人类使用计算机的方式与各种应用程序交互,主要包括:

    1. 屏幕理解技术
      • 计算机视觉模型分析屏幕内容
      • UI元素识别和语义理解
      • 页面结构和层次关系解析
    2. 人机交互模拟
      • 精确的鼠标定位和操作(点击、拖拽、滚动)
      • 键盘事件生成(输入、快捷键、组合键)
      • 交互时序控制(等待加载、动画完成)
      • 手势和多点触控模拟(移动设备)
    3. 反馈处理机制
      • 操作结果验证(成功/失败判断)
      • 异常状态识别(错误消息、警告)
      • 自适应重试策略
      • 交互序列修正

万能接口的核心价值在于其通用性:理论上,任何人类能通过图形界面操作的软件,Agent都可以通过这种方式使用,无需专门的API集成。这使得Agent能跨越不同软件生态系统的边界,处理包括legacy系统在内的各种新老应用。

然而,万能接口也面临显著挑战:

    • 可靠性问题:对界面变化高度敏感,UI更新可能导致操作失败
    • 性能瓶颈:视觉处理和交互模拟比直接API调用慢得多
    • 精度限制:复杂界面元素识别可能出错
    • 安全限制:许多现代应用实施反自动化措施
    • 资源消耗高:需要持续的计算资源进行屏幕分析

以Manus为代表的先进Agent采用万能接口作为核心能力之一,通过计算机视觉和交互模拟来操作各种应用程序。这使它能够执行从文件管理到复杂软件操作的广泛任务,实现真正的"见人所见,为人所为"。

专用接口:API直接调用

专用接口策略通过标准化的API与特定应用或服务集成,主要包括:

    1. API调用框架
      • REST/GraphQL客户端
      • SDK集成
      • WebSocket连接
      • 微服务通信
    2. 数据处理能力
      • 结构化数据序列化/反序列化
      • 格式转换和验证
      • 模式匹配和字段映射
      • 错误和异常处理
    3. 安全与认证
      • 多种认证方式支持(OAuth, API密钥等)
      • 权限范围控制
      • 安全通信加密
      • 访问审计

专用接口的优势在于其可靠性和效率

    • 直接与应用后端通信,不受UI变化影响
    • 数据交换格式明确,减少理解错误
    • 执行速度快,资源消耗低
    • 权限边界清晰,安全性更高
    • 支持细粒度操作和批量处理

然而,专用接口的局限性也很明显:

    • 需要为每个目标系统单独开发集成
    • 受限于API提供者的功能开放程度
    • 对未提供API的系统无能为力
    • 需要管理多种认证凭证和访问令牌
    • 接口变更时需要同步更新Agent

内化的威胁:接口选择的战略考量

接口选择不仅是技术问题,也是战略问题。尤其是"内化"风险——平台方将某项功能直接整合为自身能力,从而碾压和平替外部Agent的价值。

万能接口面临的内化风险

    • 通用性导致替代门槛低
    • 平台可轻松复制相同功能
    • 操作系统可能加入原生自动化能力
    • 缺乏独特数据或专有算法护城河

专用接口的防御策略

    • 深度垂直行业集成建立壁垒
    • 获取专有API授权形成排他性
    • 整合公私多源数据创造独特价值
    • 针对特定领域定制专业模型和算法

从战略角度看,成功的Agent产品需要平衡通用能力与垂直专精。纯粹依赖万能接口的通用Agent可能面临平台方直接集成同类功能的威胁;而深度集成特定领域API和专有数据的垂直Agent则能构建更持久的竞争优势。

垂直领域集约化与长尾应用并存

从生态系统角度看,Agent技术可能同时催生两种趋势:

    1. 垂直领域集约化
      • 金融、医疗、法律等专业领域形成深度优化的垂直Agent
      • 行业巨头将Agent作为核心能力整合进现有产品线
      • 专业垂直Agent深度集成行业知识和工作流程
    2. 长尾需求满足
      • 万能接口Agent满足长尾需求
      • 通用Agent平台允许用户自定义自动化场景
      • "Agent App Store"生态兴起,共享特定场景的Agent

这两种趋势并非相互排斥,而是相互补充。专业领域需要深度集成和定制化,而长尾需求则需要足够通用和灵活的Agent平台。未来的Agent生态可能呈现"双轨并行"的格局:垂直专业化的Agent服务高价值、高合规性需求;通用灵活的Agent平台满足多元化、个性化长尾场景。

接口标准化的未来趋势

随着Agent技术的成熟,接口设计可能朝着更高层次的标准化发展,标准制定权会落在 agent 狂潮中的引路者手中:

    1. Agent通用接口协议
      • 跨平台的Agent标准
      • 类似于API接口的统一描述语言
      • 安全的Agent间通信协议
    2. Agent友好型应用设计
      • 语义化UI元素便于Agent理解
      • "Agent模式"的标准化界面
      • 对Agent行为的反馈机制

这种标准化将极大降低Agent开发和使用的门槛,推动其在各行各业的普及,最终形成一个开放、互联的Agent生态系统。

五、LLM-native Agent的核心技术挑战

尽管Agent技术展现出巨大潜力,但其全面落地仍面临一系列核心技术挑战。理解并解决这些挑战是推动Agent从实验走向实用的关键。

概率性与确定性需求的根本矛盾

LLM-native Agent面临的首要挑战是其内在概率性与实际应用确定性需求之间的矛盾:

    1. 概率采样的不确定性
      • LLM的输出本质上是对概率分布的采样
      • 相同输入可能产生不同输出
      • 随机性导致行为不完全可复现
      • 无法保证百分百稳定的决策
    2. 实际应用的确定性需求
      • 企业级应用要求结果可预测
      • 关键操作需要一致的决策逻辑
      • 合规场景需要可审计的行为链
      • 用户期望相似情况下得到相似响应

这一矛盾的存在使得LLM-native Agent在关键任务和高风险场景中的应用受到限制。目前的主要缓解策略包括:

    • 多次采样:对重要决策进行多次采样,采用投票制或其他多路径选优(例如 beam search)方法
    • 温度控制:通过调整采样温度在创造性和确定性间寻找平衡
    • 验证机制:增加独立验证步骤,确保输出符合预期标准

然而,这些策略只能部分缓解而非根本解决问题。长期来看,可能需要在模型架构层面进行创新乃至范式转变。

长程依赖与错误累积

Agent执行复杂多步骤任务时,面临长程依赖与错误累积问题:

    1. 长程依赖挑战
      • 跨多步骤保持目标一致性
      • 前后决策逻辑自洽
      • 长时间执行过程中维持状态
      • 处理远距离信息相关性
    2. 错误累积效应
      • 多步骤任务成功率随步骤增加而下降
      • 不完美决策的连锁反应
      • 执行偏离轨道后难以自动纠正

解决这些挑战的技术方向包括:

    • 分层规划与监控:高层计划指导低层执行,定期重新评估整体进度
    • 检查点与中间验证:关键节点设置验证逻辑,及时发现偏差
    • 自我反思机制:Agent定期回顾已执行步骤,评估是否符合目标
    • 专家干预设计:在复杂决策点预留人类专家干预的机会
    • 记忆优化:改进对关键信息的长期保留和重要性判断

这些技术不仅能提高Agent的任务完成可靠性,也能增强其处理长序列任务的能力,使其能够执行更加复杂和持久的工作流程。

计算资源与延迟问题

解释型Agent特别是运行时高度依赖LLM推理的系统,面临严峻的计算资源和延迟挑战:

    1. 计算资源消耗
      • LLM推理需要大量计算资源
      • 多步骤决策需要频繁调用模型
      • 长期运行面临资源累积压力
      • 多Agent协作倍增资源需求
    2. 响应延迟问题
      • 模型推理时间导致决策延迟
      • 工具调用和环境交互增加总延迟
      • 复杂任务的累积延迟降低用户体验
      • 实时性要求与推断时间的矛盾

这些问题直接影响Agent的可用性和经济可行性。可能的解决方向包括:

    • 模型蒸馏与量化:为特定任务优化的轻量级模型
    • 推断优化:推断引擎优化、批处理技术、硬件加速
    • 分层决策架构:简单决策使用轻量模型,复杂决策才用大模型
    • 预计算与缓存:常见决策路径预计算并缓存
    • 本地化部署:敏感或高频场景采用边缘部署

随着专用AI硬件和优化技术的发展,这些挑战有望得到缓解,使Agent技术在更广泛的场景中变得实用和经济可行。

安全、隐私与伦理问题

Agent技术的快速发展也带来一系列安全、隐私和伦理挑战:

    1. 安全风险
      • 权限边界控制
      • 防止恶意利用和攻击
      • 系统资源保护
      • 潜在的破坏性行为预防
    2. 隐私问题
      • 敏感数据处理和存储
      • 跨境数据合规
      • 用户同意与知情权
      • 记忆系统的隐私保护
    3. 伦理挑战
      • 决策偏见与公平性
      • 责任归属问题
      • 透明度与可解释性
      • 人机关系的界定

解决这些问题需要技术与政策的共同进步:

    • 安全沙箱:Agent运行在受控环境中,限制可能的危险行为
    • 运行时监控:实时监控Agent行为,检测异常模式
    • 差分隐私:保护个人数据的同时保留有用信息
    • 本地处理:敏感数据仅在本地设备处理,不传输到云端
    • 可解释性工具:帮助用户理解Agent决策过程和依据
    • 伦理准则:为Agent设计和使用制定明确的伦理框架

随着Agent技术走向主流,这些安全、隐私和伦理考量将变得愈发重要,需要技术社区、政策制定者和用户共同参与解决。

六、Agent元年:2025年技术生态的临界点

Agent技术生态已达到爆发的临界点,2025年被业内称为"Agent元年"绝非偶然。尽管Agent概念的探索早在一年多前就已开始,但从技术基础设施的角度看,直到近期,支撑Agent发展的关键组件才真正就位,形成了一个完整的技术栈。

基础设施完备:Agent技术腾飞的基石

Agent技术的突破性发展得益于以下核心技术组件的成熟:

    1. 超长上下文模型的出现:从最初的几千token到现在的数十万甚至百万token,这一突破使Agent能够维持复杂的工作记忆,处理长时间任务并保持上下文连贯性。大型语言模型的上下文窗口扩展,为Agent提供了"工作记忆"的基础设施,使其能够在复杂任务执行过程中保持连贯的理解和推理。
    2. 推理模型的革命性进展:2024年底推理模型的推出是Agent技术发展的关键里程碑。从简单的Chain-of-Thought到更复杂的Tree-of-Thought,再到具备自我反思能力的推理架构,这些进展使模型能够进行更精确的多步推理,解决复杂问题,并进行有效的任务规划。推理能力的质变,使Agent从简单的指令执行者转变为深思熟虑的问题解决者。
    3. 多模态理解能力的整合:现代Agent不仅能处理文本,还能理解和生成图像、分析视觉界面、处理结构化数据等。这种多模态能力拓展了Agent的感知范围,使其能够与视觉界面交互、理解图表和文档,在更真实的信息环境中运作。
    4. 工具使用框架的标准化:Function Calling、Tool Use等接口的规范化,例如 MCP(Model Context Protocol,模型上下文协议)的建立,使Agent能够一致地与各种API和外部服务交互。这类标准化大大降低了Agent集成外部功能的难度,为"工具使用型Agent"生态的发展铺平了道路。
    5. Computer Use能力的突破:使Agent能像人类一样操作计算机界面的技术取得了关键性进展。屏幕内容理解、交互操作模拟、状态感知等能力的提升,使Agent能够突破API的限制,操作几乎任何有图形界面的软件。
    6. Agent运行时环境的成熟:专为Agent设计的运行时环境开始出现,解决了状态管理、任务协调、资源调度等关键问题。这些基础设施为Agent的稳定运行和长期任务执行提供了必要支持。

这些技术组件的融合,创造了一个支持Agent完成"感知-思考-行动"闭环的完整技术栈,标志着从概念验证阶段向实用化阶段的转变。

从史前探索到成熟应用

Agent技术的发展历程可分为三个明显阶段:

    1. 初代Agent(2022-2023):主要是简单的聊天机器人或专用助手,缺乏实际执行能力。这一阶段的代表是OpenAI的GPT Store和早期的专业领域chatbot,它们虽然被称为"GPT"或"Agent",但本质上仍是对话机器人chatbot的变体,属于agent的初级阶段。
    2. 过渡阶段(2023-2024):开始集成外部工具和API,但能力有限,主要关注"Agent开发平台"(即"鸡")而非Agent本身("蛋")。这一阶段的产品强调开发环境和框架,具有一定的自然语言编程能力,而非端到端的自主Agent解决方案。
    3. 成熟期(2025-):核心技术组件齐备,Agent开始展现真正的自主执行能力、环境感知能力和决策能力,从实验室产品走向实用化阶段。代表性产品如Manus和Deep Research展示了Agent完成复杂任务的能力,标志着Agent技术进入应用爆发期。

这一演进过程反映了从"能对话"到"能思考"再到"能行动"的质变,2025年作为Agent元年,正是因为技术基础设施的完备使得"能行动"的智能体成为现实。

市场格局与竞争战略

随着技术基础设施的完善,Agent市场呈现出明显的战略分化:

    1. 通用Agent战略:以Manus为代表的通用Agent尝试打造"全能型数字助手",横跨多种应用场景,提供统一的用户体验。这类产品的价值主张是降低用户在多个系统间切换的成本,提供一站式智能服务。然而,这条路线面临被大模型厂商直接集成相关功能而"碾压"的风险。但是,鉴于模型公司与应用公司需要不同的技术基因和人才配比,在LLM应用红海遨游的通用agent赛道,与大模型赛道平行,应该可以容纳一些独角兽甚至巨无霸的。
    2. 垂直Agent战略:专注特定行业或场景的专业化Agent,通过深度整合领域知识和专业工具构建竞争壁垒。从金融分析师、法律助理到医疗智能助理,垂直Agent通过专业化赢得特定领域的市场认可。

这种市场分化反映了技术路径的差异,也代表了不同的商业模式和市场定位。通用Agent依靠灵活性和广泛适用性获取用户;垂直Agent则通过深度专业化和场景优化创造溢价空间。

Agent技术的社会影响与未来展望

Agent技术的广泛应用将带来深远的社会经济影响:

    1. 知识工作自动化加速:Agent技术将使许多知识工作者的角色从"执行者"转变为"监督者",大量重复性认知任务将被自动化。
    2. 人机协作模式重构:工作流程将围绕"人类战略思考+Agent执行"的新模式重组,改变组织结构和工作分工。
    3. 隐私与安全挑战加剧:Agent广泛接入各系统带来的安全风险和隐私挑战需要新的治理框架。

展望未来,Agent技术可能沿着以下方向继续演进:

    1. 物理世界的延伸:Agent与机器人技术结合,将能力从数字世界扩展到物理环境。
    2. 自我优化Agent:能够自我评估、学习和改进的Agent系统,逐步减少人工干预。
    3. 复杂Agent网络:多个专业Agent形成协作网络,共同完成超出单个Agent能力的任务。
    4. 个性化数字分身:每个人拥有专属的长期Agent,它深度了解用户偏好和行为模式,成为真正意义上的"数字分身"。

七、结论:编译与解释的辩证统一

通过对Agent技术架构的深度剖析,我们认识到编译型与解释型并非简单对立的范式,而是反映了不同应用场景下的技术权衡。两种架构各自的优势与局限性决定了它们的适用场景:编译型Agent在确定性、可控性和效率方面表现出色;解释型Agent则在灵活性、自适应性和创造性方面具有优势。

随着技术的发展,二者的界限正在变得模糊,一种兼具编译型的可靠性与解释型的灵活性的混合架构正在形成。这种混合架构不仅反映了技术的自然演化,也代表了解决实际问题的更实用方法。通过在系统的不同层次和功能点上有机集成确定性和 best practice,混合架构Agent能够在确保核心功能可靠性的同时,灵活应对变化和不确定性。

同时,我们也认识到LLM-native Agent所体现的"概率编译+约束解释"的混合计算范式,不同于传统的编译型或解释型程序,它是一种全新的计算模型。这种模型在固定参数的约束下保持了采样的随机性,既有确定性结构又有创造性表现,为我们理解和设计下一代智能系统提供了新的视角。

Agent技术的发展正处于从"实验室探索"向"实用化落地"转变的关键时期。2025年作为"Agent元年",标志着技术基础设施的完备和市场应用的起点。在这一新兴领域,技术创新与商业模式的探索将并行展开,推动Agent从概念走向现实,改变人类与数字世界的交互方式。

随着Agent技术的成熟,我们将迎来人机协作的新范式:人类专注于创造性思考、战略决策和情感连接等高价值活动,而将具体任务执行交给Agent处理。这不是简单的工作替代,而是能力互补—人类提供目标和价值判断,Agent提供执行力和一致性。

展望未来,我们有理由期待Agent技术的持续发展将带来生产力的全面升级,开创一个人类与智能系统合作的新时代。这场从"可询问的知识"到"可执行的智能"的范式转变,不仅是技术的飞跃,更是人类与人工智能关系的重新定义。

 

【相关】

o3 deep research: LLM 驱动的 Agent 综述

引言

大型语言模型(LLM)的崛起在过去几年引发了人工智能领域的飞跃式发展。尤其是 2022 年底 OpenAI 推出的 ChatGPT,短短两个月内月活用户就突破一亿,成为史上用户增长最快的消费者应用 (ChatGPT sets record for fastest-growing user base - analyst note | Reuters)。ChatGPT 所展现的强大自然语言对话和内容生成能力,如一场“核爆”引发全球对于通用人工智能的极大关注,各行各业开始思考如何将这类大模型应用到实际业务中。紧随其后,OpenAI 发布了更先进的 GPT-4 模型,能够理解更复杂的指令,并支持图像等多模态输入。这场由 ChatGPT 引领的LLM浪潮,不仅催生了大量类似产品和开源模型,也让“ AI 更自主地完成复杂任务”成为下一个技术探索热点。在这种背景下,由 LLM 驱动的 Agent(智能代理)概念逐渐兴起,成为 AI 技术爱好者和产业从业者共同关注的前沿方向。

从 Copilot 到 Agent:概念演进

Copilot(协作助手)与Agent(智能代理)是近期 AI 应用发展的两个重要概念。二者在定位和功能上有差异:Copilot一般指能够辅助人类完成任务的智能助手,它与用户并肩工作,在人类指令下提供建议、自动化部分流程,但始终由人来掌控最终决策 (AI Co-Pilot vs Agentic AI – Key Differences)。例如,GitHub Copilot 可以根据开发者当前的代码上下文自动补全代码片段,但不会自行决定要编写哪个功能;微软 Office Copilot 能帮助撰写文档或生成幻灯片,也是根据用户提示进行内容生成。本质上,Copilot 更像是人类的副驾驶,增强人类能力但不取代人做主导。

与此相对,Agent(智能代理,智能体)则代表了一种更加自主的 AI 系统。Agent可以在给定高层目标后自主决策下一步行动,具备自主规划和任务执行能力 (What is an AI Copilot? How is It Different From an AI Agent?) (AI Co-Pilot vs Agentic AI – Key Differences)。智能代理不仅能像 Copilot 那样提供建议,还能在必要时自行调用工具、执行操作,完成整个任务流程,而只需较少的人为干预 (What is an AI Copilot? How is It Different From an AI Agent?) (What is an AI Copilot? How is It Different From an AI Agent?)。一句话,Agent更强调全流程的任务负责:从理解目标、制定计划、执行步骤、到最终达成目标,均可由 AI 系统自主完成 (AI Co-Pilot vs Agentic AI – Key Differences)。例如一些自主代理可以根据用户的一个高阶指令(如“帮我规划一次欧洲旅行”),自己上网搜索信息、调用日历和邮件 API 安排行程,最后给出完整的旅行计划。这样的自主性是 Copilot 所不具备的。可以说,Copilot 是在人类驾驶下的辅助,而 Agent 更接近一种自主驾驶的 AI。正因如此,Agent 被视为 AI 应用形态的下一步演进,能释放 AI 更大的潜力。

需要指出的是,Agent 并不是全新的概念。在经典 AI 文献中,“智能体”概念由来已久,只是以前的智能体往往采用规则算法或狭窄AI,而如今的 Agent 则借助 LLM 的通用智能和推理能力,实现了以自然语言为思维和行动媒介的自主智能体 (Introduction to LLM Agents | NVIDIA Technical Blog)。

LLM 驱动的 Agent在2023年随着 AutoGPT、BabyAGI 等agent早期开源项目而进入大众视野 (Introduction to LLM Agents | NVIDIA Technical Blog)。这些系统展示了在几乎无人干预下,AI 代理可以基于一个开放目标,不断生成行动方案、调用工具执行、并迭代调整,最终完成复杂的问题求解。这标志着从 Copilot 到 Agent 的理念飞跃:AI 不只是辅助,而是开始展现出一定程度的自主性和连续决策能力。下一节我们将深入剖析,实现这种自主智能代理所需的核心技术能力。

Agent 关键技术能力

要让 LLM 驱动的 Agent 真正拥有自主解决问题的能力,背后涉及多项关键技术和架构设计。本节将从Agentic Flow(代理流程)工具使用(API 调用与计算机操作)自主规划以及多模态能力四方面解析智能代理的核心能力。

Agentic Flow:智能代理流程

Figure 1. General components of an agent

LLM智能代理的一般架构示意图(made by ChatGPT o3)

Agent接收用户请求(目标),经由中心的“Agent Core”协调记忆模块、规划模块和工具执行等组件,最终产生对用户的回应或实际行动结果。如图所示,Agent Core(代理核心)是大脑,负责总体决策和流程控制;它一方面与用户需求和长期/短期记忆交互,另一方面调用规划模块来分解任务并选择合适的工具执行 (Introduction to LLM Agents | NVIDIA Technical Blog) (Introduction to LLM Agents | NVIDIA Technical Blog)。

典型的代理流程如下:首先,Agent 读取用户指令和当前上下文,将其转化为内部的目标表示;然后通过Reasoning(推理)过程思考如何完成任务,可能将大任务分解为子任务;接下来进入Planning(规划)和Decision(决策)阶段,确定需要调用的工具或采取的行动序列;随后,Agent执行具体Action(行动)例如调用某个API或函数、检索信息等,并观察获得的结果 (Plan-and-Execute Agents);Agent 将观察结果存入记忆或用于更新下一步策略,如此在“思考-行动-观察”的循环(即 Agentic Loop)中不断迭代,直到达到任务目标或满足终止条件 (Plan-and-Execute Agents)。

在整个过程中,LLM 充当了核心推理引擎,结合提示(Prompts)来决定每一步该做什么。相比简单的一问一答式对话,这种 Agentic Flow 使得 AI 可以多步连贯地处理复杂任务,正如人类解决问题时需要反复思考、尝试、纠正一样。为了支持这一流程,Agent 通常需要配套短期记忆(记录当前对话和思考链)和长期记忆(存储长期知识或历史),以确保决策具有连贯性和智能性 (Introduction to LLM Agents | NVIDIA Technical Blog) (Introduction to LLM Agents | NVIDIA Technical Blog)。通过精心设计提示和上下文,LLM Agent 可以在这种循环中保持方向感,不断朝着最终目标逼近。

工具使用与计算机操作

赋予 Agent 行动能力的关键是在需要时调用外部工具或执行计算机操作的能力。这通常通过为 LLM 提供插件接口、API 调用权限甚至直接的计算机操作权限来实现。当仅靠语言模型自身难以完成任务时,Agent 可以调用预先定义的一系列工具,例如访问网络API、数据库查询、运行代码、控制第三方应用等 (Introduction to LLM Agents | NVIDIA Technical Blog)。

OpenAI 的 ChatGPT 插件和函数调用机制就是让模型产生特定格式的输出以调用工具函数,从而查询实时信息或执行计算任务。例如,当用户问天气如何,Agent 可以调用天气API获取实时数据;又如面对复杂的算术或数据分析任务,Agent 可调用 Python 代码执行并返回结果。这种Tool Use能力极大拓展了 Agent 的能力边界,使其不仅能“思考”,还能真正“动手”。

目前常见的工具类型包括:搜索引擎(用于信息检索)、知识库/RAG检索(基于向量数据库查资料)、浏览器(访问网页)、编程解释器(执行计算和代码逻辑)等 (Introduction to LLM Agents | NVIDIA Technical Blog)。一些 Agent 框架还结合了传统的RPA(机器人流程自动化)技术,使LLM能够控制鼠标键盘去操作应用界面,实现如自动表单填写、跨系统数据搬移等复杂操作流程。需要注意的是,在调用工具时,Agent 必须先通过决策模块判断何时需要工具以及选择何种工具,这通常由LLM根据当前任务状态和预设的工具列表自主决定 (Agents | Mistral AI Large Language Models)。因此,工具使用能力依赖于LLM对自身能力边界的“自知”,知道何时该借助外力。总体而言,让Agent学会用工具,就像教会AI使用人类的双手和眼睛,它是实现从语言到行动的桥梁,也是当前Agent技术最具实用价值的方面之一。

自主规划与决策

自主规划(Planning)是智能代理得以自主完成复杂任务的核心支柱。LLM 通过连贯的推理,可以对给定目标进行分解和计划:将复杂任务拆解成更小的子任务,确定执行顺序,并动态调整策略 (Introduction to LLM Agents | NVIDIA Technical Blog)。

早期的 Agent 实现(如 ReAct)采用逐步推理,每一步只考虑当前可以采取的一个动作 (Plan-and-Execute Agents);而更先进的方法则引入了显式的规划步骤,例如先让LLM输出一个完整计划再逐一执行 (Plan-and-Execute Agents)。

自主规划能力使Agent在面对开放式目标时能够有条理地前进,而不至于漫无目的或陷入死循环。此外,决策优化与自主推理也是近年来的研究重点。一种称为“自我反思(Reflection)”或“自我批评(Critic)”的技术被引入,让Agent在行动过程中审视自己的思路和结果,发现偏差并加以修正 (Introduction to LLM Agents | NVIDIA Technical Blog)。比如,Agent 执行一系列步骤后可以调用内部的“Critic”模型来检查当前方案是否走偏,从而避免一直沿着错误方向行动。这类似于人类在解决问题时停下来反思。目前一些实验表明,加入反思循环的Agent在复杂推理任务上的成功率明显提升。

另一个趋势是引入树状思维(Tree-of-Thoughts)等算法,让LLM能在内部探索多个解题路径并比较选择最佳方案,而非贪婪地逐步生成。总体看来,自主规划与决策能力的不断增强,正让Agent变得越来越善于长程思考和自主纠错,从而胜任更复杂、更开放的任务场景。

多模态理解与处理能力

人类智能的重要体现是可以综合运用多种感官信息;类似地,智能代理也正朝着多模态(Multimodal)方向发展。传统的 LLM 只处理文本,而多模态 LLM Agent 可以同时理解和生成包括图像、音频、视频在内的多种数据形式 (Gemini - Google DeepMind) (Google Gemini and LLMs: A New Frontier for Multimodal AI - Medium)。

具备多模态能力的 Agent 意味着它不仅能“读”文本,还能“看”图、“听”声,从而在更多元的任务中大显身手。典型例子是 OpenAI 的 GPT-4 已支持图像输入,可以根据一张图片回答问题或描述内容 (Introducing Gemini 2.0: our new AI model for the agentic era - Reddit);Google 最新发布的 Gemini 模型更是从架构上原生支持多模态,在训练时就融合了文本、代码、图像、音频、视频等不同模态的数据,从而具备跨模态的推理能力 (Introducing Gemini: Google’s most capable AI model yet) (Introducing Gemini: Google’s most capable AI model yet)。

多模态Agent能够执行如下任务:根据照片内容回答用户问题、观看一段监控视频后给出分析报告、听取语音指令并执行任务。这样的能力在实际应用中非常关键:例如在医疗领域,Agent可以同时阅读医学影像和医生的文字记录来提供诊断支持;在客服场景中,Agent可以查看用户上传的截图来判断问题所在。需要注意,多模态并不止于感知输入,Agent 也可以生成多模态输出,例如生成图片或语音。这通常通过将LLM与扩展模型(如扩散图像生成模型、文本转语音模型)结合实现。得益于多模态能力,LLM Agent 正在从“语言专家”成长为“全能型AI”。

多模态 LLM Agent 可接受音频、文本、图像、视频等多种输入,并以多模态配合的形式给出综合输出 (Understanding Multimodal LLMs - by Sebastian Raschka, PhD) (Understanding Multimodal LLMs - by Sebastian Raschka, PhD)。例如,用户给出一张物品照片并询问“这是什么?它有什么用途?”,多模态 Agent 能够先识别图像内容(如图中电话机),再结合知识以文本回答其功能。综合来看,多模态能力将大幅拓展 Agent 在真实世界场景中的适用性,使其更加接近人类智能的广度。

行业案例分析

随着 LLM 和 Agent 技术的演进,产业界涌现出多个具有代表性的应用和探索案例。以下将分析几家领先企业的进展以及垂直行业中的专用 Agent 应用。

OpenAI(GPT-4 Turbo):作为引爆本轮热潮的OpenAI,在Agent方面的布局主要体现在为其通用模型赋能工具使用和多模态能力上。GPT-4 Turbo 是 OpenAI 在 2024 年底推出的改进版模型,不仅大幅扩充了上下文窗口,还原生支持图像输入和语音输出,实现真正意义上的多模态 (OpenAI Announce GPT-4 Turbo With Vision: What We Know So Far)。更重要的是,OpenAI为GPT系列模型引入了函数调用和插件机制,使ChatGPT从一个纯语言对话助手升级为具备Agent雏形的系统。借助函数调用,开发者可以预先定义工具接口,让GPT在回答问题时自动调用这些工具,获取实时结果再返回给用户。这一能力已经在ChatGPT插件中得到验证,例如Browsing插件让GPT能上网搜索,Code Interpreter插件让其能运行代码并返回结果。OpenAI官方将这套能力称为“扩展GPT的眼界和手脚”,使其可以访问外部信息源并执行操作 (Introduction to LLM Agents | NVIDIA Technical Blog)。可以说,OpenAI 正在把ChatGPT由一个静态问答模型,转变为一个可执行复杂任务的平台型智能代理

目前,GPT-4 已被广泛用于开发各种自主代理实验,如开源的 Auto-GPT 就是基于 GPT-4 API 实现,让 AI 连续自主执行用户给定目标的一系列操作。这些探索也反过来推动OpenAI不断改进其模型的可靠性和自主决策能力。因此,OpenAI 在Agent领域的显著特点是:以通用大模型为核心,通过插件和API扩展实现代理功能,并逐步增强模型的推理和多模态表现,为各行业构建AI代理打下基础。OpenAI 最新的智能体表现是基于其推理模型o3的 Deep Research 功能,可以就任何题目自动搜寻资料、研读并汇总融合成全面完整、信息可追溯的综述性调查报告。(本文就是 o3 deep research 完成。

Google Gemini:作为谷歌与DeepMind融合后的产物,Gemini 被定位为面向“代理时代”的下一代大模型 (Introducing Gemini 2.0: our new AI model for the agentic era)。

根据Google官方介绍,Gemini从一开始就按多模态通用智能来设计,能够无缝理解和生成文本、代码、图像、音频、视频等多种模态数据 (Introducing Gemini: Google’s most capable AI model yet)。Gemini在2024年底发布的版本很快取得各类基准测试的领先成绩,展现出卓越的推理和问题求解能力 (Introducing Gemini: Google’s most capable AI model yet) (Introducing Gemini: Google’s most capable AI model yet)。相比前代的PaLM或GPT系列,Gemini的一大亮点是其原生的代理能力。Google在介绍中提到,Gemini不仅擅长对话和问答,还能用于驱动各种AI Agent应用,例如作为机器人控制的“大脑”或复杂软件的自动化脚本助手 (Gemini - Google DeepMind)。DeepMind更展示了一个名为Astra的研究原型,体现Gemini如何作为通用AI助手在多任务环境中充当智能代理 (Gemini - Google DeepMind)。

Google正将Gemini融入其生态系统(如 GCP 云服务等),为开发者提供强大的平台来构建各类智能代理。从某种意义上说,Gemini体现了行业对于“一个模型搞定一切”的追求:既是强大的LLM,又天生适配多模态Agent场景,被誉为谷歌迈向AGI(通用人工智能)愿景的重要一步。

Mistral AI:这是一家崛起于欧洲的开源大模型创业公司,尽管成立不久却在Agent领域引人注目。2023年,Mistral发布了参数规模仅7B的开源模型 Mistral 7B,以小巧模型实现媲美更大型号的性能,展示了高效模型的潜力。更值得关注的是,Mistral AI 正在构建一个完整的平台,帮助用户定制和部署专用的AI代理 (Mistral AI Agent - AI Agent Review, Features & Alternatives (2025))。其官方文档提供了易用的 Agent 创建接口,支持通过简单的高层指令和示例来配置代理行为 (Agents | Mistral AI Large Language Models) (Agents | Mistral AI Large Language Models)。开发者既可以使用 Mistral 提供的 Web 界面拖拽组件生成 Agent,也可通过编程使用其 Agents API 将智能代理集成进自身应用 (Agents | Mistral AI Large Language Models)。Mistral 强调其代理能够利用公司内的专有模型(如精调后的领域模型)以及连接企业自有数据源,打造定制化的企业 AI 助手 (Agents | Mistral AI Large Language Models)。例如,一家金融机构可以用 Mistral 平台快速创建一个熟悉本行内法规和数据的AI代理,帮助完成合规检查和报告生成等任务。

作为开源力量的代表,Mistral AI 正把尖端的LLM能力平民化,让各行业的团队都能“掌控未来”,将大模型部署在自己的环境中 (Mistral AI | Frontier AI in your hands)。其背后的趋势是:开源高效模型 + 易用代理开发平台,为垂直领域AI代理的诞生提供了肥沃土壤。这也为大模型生态引入更多创新和竞争,促进整个Agent技术的成熟。

垂直行业专用 Agent:除了通用模型公司,许多领域也在开发专业的智能代理,以满足行业特定需求。例如在金融领域,一些 AI 代理可以连接实时行情和企业财务数据库,帮助分析海量金融数据、生成投资报告,甚至给出个性化的投资建议 (Applications of LLM Agents in various industries)。它们还能自动执行例行的合规审查、风险评估等任务,大幅提高运营效率 (Applications of LLM Agents in various industries)。又如在医疗领域,有医疗智库开发了医生助手Agent,能辅助医生检索最新医学文献、根据患者病历提供诊断支持 (Applications of LLM Agents in various industries)。它可以读取患者的症状描述和检查报告,然后查询知识库给出可能的诊疗方案建议。在法律行业,一些法律科技公司推出了法律Agent,可以快速查找相关案例法条、起草法律文件甚至为律师的辩论准备要点。大型律师事务所开始试用这类工具来提升工作效率。在客服服务领域,采用LLM的智能客服Agent已经相对成熟,不仅能回答FAQ,还能处理复杂问题、根据上下文调取用户历史进行个性化响应 (Applications of LLM Agents in various industries) (Applications of LLM Agents in various industries)。

总的来说,各垂直行业的专用Agent往往结合了领域知识图谱和行业数据,使其在专业任务上更加可靠。通用大模型提供“大脑”,行业数据赋予“场景知识”,再加上工具接口实现行动,这成为许多行业解决方案的典型架构。可以预见,随着LLM成本降低和定制手段增多,各行各业都会培育出自己的“AI代理”,就像如今几乎每个行业都有专用的软件系统一样。

以上大厂和新创主要是提供基于大模型的专用智能体构建平台,对于终端使用者,智能体构建的 agents 与传统 apps 没有不同,但内部的差异表现在:1. agents 是 LLM-native,就是说智能体apps,背靠大模型,天然具有语言能力,典型表现在自然语言的用户接口上; 2. 智能体平台开发的 agents 无需工程师编码,而是通过自然语言指令让大模型编程实现,这为 agents 的涌现创造了条件。

2025 年 Agent 发展趋势

展望未来,LLM 驱动的智能代理技术在 2025 年及以后有几大值得期待的发展方向:

1. 多Agent协作与自治体系:目前大多数Agent还是单体在工作,而未来复杂任务可能需要多个智能体分工合作

多Agent系统的理念是构建一个“AI团队”,让不同专长的Agent各司其职,通过通信协作完成单个Agent无法胜任的复杂目标 (Multi Agent LLM Systems: GenAI Special Forces) (Multi Agent LLM Systems: GenAI Special Forces)。例如,一个软件工程Agent团队可以包括架构设计Agent、编码Agent、测试Agent,它们相互交流检查,从而自动完成一整个软件项目。

多Agent协作也意味着需要一个调度或仲裁机制(如元代理或“首席Agent”)来分配任务、整合结果。研究者已在探索让一个主Agent对任务进行分解(Task Decomposition),并启动多个子Agent分别解决子问题,最后汇总答案的框架。这类似于人类的项目管理和团队合作,只不过执行者变成了一群AI。

同样的理念也可扩展到人机协作的混合团队中:未来办公室里也许人类同事和AI代理共同协作完成工作,各自发挥所长。实现多Agent协作需要解决Agent间通信协议、共享记忆和冲突解决等问题,但一旦成功,将显著提升AI系统处理复杂任务的规模和鲁棒性。正如有分析指出的,多智能体LLM系统有望像“梦之队”一样将各自专长结合,产生远超单一模型的效能 (Multi Agent LLM Systems: GenAI Special Forces) (Multi Agent LLM Systems: GenAI Special Forces)。

多智能体代理体系结构中,一组 Agents 通过共享记忆协同,在数字业务环境和物理环境中协作完成复杂目标 (The Anatomy of Agentic AI | International Institute for Analytics)。这种架构体现了未来Agent网络化的发展趋势:多个Agent既能各自独立感知、决策,又能通过共享记忆和消息传递实现协同工作,联手处理跨领域、跨环境的复杂任务。

2. 自主推理与决策能力提升:未来的Agent将在自主智能方面取得长足进展,包括更强的连贯推理、更可靠的决策和更少的人为干预需求。

我们预计LLM模型本身的能力还将持续提升,让模型拥有更接近人类专家的推理深度。同时,一系列辅助手段会进一步强化Agent的自主性和智能性:长短期记忆机制将更完善,避免上下文窗口限制带来的“健忘”问题,使Agent在长对话或长任务链中保持一致性;“自我反思 (self-reflection)”机制将成为Agent标配,让Agent学会自主检查和调整自己的思路,在遇到困难时懂得改进方法 (Introduction to LLM Agents | NVIDIA Technical Blog);还有研究者提出让Agent具备“内省”能力,即模型能对自己的回答进行不确定性评估,从而在不够自信时请求额外信息或帮助,而非给出错误答案。所有这些改进都指向让Agent变得更聪明、更可靠。到2025年,我们有望见到一些Agent在特定任务上达到并超越人类专家水平(例如复杂策略游戏AI、金融投资AI顾问等),因为它们可以不眠不休地优化自己的决策。

值得一提的是,如何让Agent的决策更“可解释”和“可控”也将是趋势之一。随着Agent变得更自主,人们会希望了解它是如何做出某个决定的,以及如何干预纠正。这将促进Agent系统在可解释AI、安全限制机制等方面的发展,确保自主智能在带来便利的同时不会偏离人类意图 (Building Effective AI Agents | Anthropic \ Anthropic) (Building Effective AI Agents | Anthropic \ Anthropic)。总而言之,更高的自主推理与决策力将推动Agent从“能用”进化到“好用”,应用范围和复杂度将大幅拓展。

3. 融合实体世界,虚实一体的智能代理:2025 年的另一个重要趋势是LLM Agent将从数字世界走向物理世界,与机器人等实体系统相结合,成为现实生活中的“智能体机器人”。

目前已经有科技公司在探索将大语言模型用于机器人控制,例如Google DeepMind开发了RT-2模型,将LLM知识用于机器人操作决策,让机器人可以根据人类自然语言指令执行一系列物理操作 (LLMs Meet Robotics: The Rise of AI-Driven Machines in 2024 | Entrepreneur) (LLMs Meet Robotics: The Rise of AI-Driven Machines in 2024 | Entrepreneur)。MIT的研究也提出了用语言描述代替视觉训练的方法,成功让机器人执行“把衣服拿去洗衣机”等多步操作 (Researchers use large language models to help robots navigate | MIT News | Massachusetts Institute of Technology) (Researchers use large language models to help robots navigate | MIT News | Massachusetts Institute of Technology)。这些进展表明,LLM代理有潜力成为通用机器人的大脑,大幅降低机器人对复杂环境的适应难度。

未来,配备LLM Agent的大型机器人可以在工厂、仓库中自主协作完成生产任务;服务型机器人可以听懂人类口头指令,灵活应对家庭中的杂务。甚至在自动驾驶、无人机等领域,语言模型代理也可用于高层决策规划,让交通AI能够理解人类乘客的需求和偏好。从虚拟走向现实也带来新的挑战,如物理世界的不可预测性、安全约束以及实时性要求等,需要在Agent中加入传感器数据处理、实时规划、容错等模块。然而,一旦突破这些障碍,“AI代理+机器人”将开启前所未有的应用场景

可以想象,未来我们身边可能环绕着各种各样的智能代理:手机里的虚拟助理与家里的机器人管家相互通信,共同维护我们的数字和物理生活。可以说,物理世界的融合将使Agent从软件层面的助手,进化为拥有“身躯”和行动力的真正智能体。

结论

综上所述,由大型语言模型驱动的智能代理正引领着新一轮的AI应用变革。从最初协助人类的Copilot,到如今初具自主性的Agent,我们看到了AI系统在自主决策、持续任务和多模态处理方面的长足进步。

时至 2025 年,相关技术组件如LLM、工具接口、多智能体架构等日趋成熟,已经为孕育“爆款”级别的Agent产品奠定了基础。可以预见,各行业将很快出现能够大幅提升生产力的AI代理,从而推动业务模式的革新与效率飞跃。当然,我们也应保持理性,关注Agent技术带来的新挑战,如可靠性、安全性和伦理风险,并在技术演进中逐步建立规范和治理。然而,展望未来,LLM生态与Agent技术的融合前景令人振奋——一个人机共生、多智能体协作的时代或将加速到来。正如业内分析所言,随着技术的演进,智能代理的应用范围几乎是“无限且不断扩张”的,人类将持续发现新的方式将其融入工作和生活 (Applications of LLM Agents in various industries)。我们有理由相信,LLM 驱动的 Agent 将在未来几年释放出更大的潜能,成为数字时代不可或缺的基础设施和创新源泉,值得所有AI技术爱好者和从业者持续关注和投入。

 

【相关】

Agent:数字代理的崛起与未来

大模型进化史:从问答交互到数字员工的蜕变

在ChatGPT引发的人工智能热潮中,我们亲眼见证了AI应用形态的戏剧性演变。回想2022年底,当人们首次体验ChatGPT时,那种震撼感仍历历在目——一个能够理解复杂问题并提供流畅回答的聊天机器人(chatbot),彻底改变了我们对机器智能的期望。这种应用形态——我们姑且称之为"对话式AI"——本质上是大语言模型(LLM)应用的初级表现形式,一种简单的信息交换机制。

然而,人类与机器的共舞很快便不满足于这种单一的问答模式。技术世界随即引入了"Copilot"(副驾驶)概念,定位为辅助人类完成任务的智能伙伴。这个隐喻非常贴切:就像汽车副驾驶可以阅读地图、调整音乐、甚至在必要时提醒驾驶员注意路况,但最终驾驶决策权和操控方向盘的责任仍在主驾驶手中。Copilot式应用(如GitHub Copilot、Microsoft Copilot)在专业领域展现出惊人的价值,但其本质仍是"被动响应式"工具。

真正的革命性转变出现在最近的"Agent"(智能代理)概念兴起之时。与Copilot不同,Agent代表了AI应用的质变——从被动的辅助者转变为主动的执行者。这种转变堪比从"帮厨"到"主厨"的角色跃升,从根本上改变了人机协作的本质。

打个比方,Copilot是坐在副驾驶座位上的导航员,而Agent则是接管方向盘的全自动驾驶系统。你只需告诉它目的地,剩下的路径规划和驾驶操作它都能自主完成。

这种角色的转变绝非只是市场营销的噱头,而是反映了底层技术能力的本质跃升。Agent之所以能够进化到"数字员工"的水平,源于四个关键技术突破:

    1. 上下文窗口的大幅提升:现代大模型已能理解超长对话历史(从最初的4K tokens到如今的100K甚至1M tokens),使其能够在复杂任务中保持连贯的"工作记忆"。
    2. 思维链与推理引擎的兴起:从简单的"思维链"(Chain-of-Thought)到更复杂的"思维树"(Tree-of-Thought)和"反思机制"(Reflection),推理大模型使AI能够进行非线性思考和自我修正。
    3. 环境交互能力的拓展:通过API调用、工具使用和计算机操作能力,Agent获得了"数字化肢体",不再仅仅是数字大脑,而是也能够实际操作并影响数字环境。
    4. 多模态处理的全面整合:现代Agent不仅能理解文本,还能处理图像、声音甚至视频,使其感知和交互能力更接近人类全面认知,其生成能力可以图文并茂、声色逼真。

Agent的核心技术解析:七大支柱能力

要理解Agent对于AI应用的革命性意义,我们需要深入剖析其七大核心技术支柱,这些能力共同构成了Agent的"数字神经系统",而且它们都已成熟,基本就绪:

1. 知识获取引擎(Search与RAG技术)

任何专业人士的价值首先来源于其获取和处理信息的能力。同样,Agent的基础价值也建立在其信息获取能力之上。现代Agent通过两种途径弥补大模型固有的知识时效性限制:

外部搜索(Search):Agent能够主动连接互联网,实时获取最新信息。例如,当讨论刚刚发布的研究论文或当天的股市波动时,Agent不会局限于训练数据的固有知识,而是通过API访问搜索引擎、专业数据库或行业平台,确保信息的时效性和准确性。这种能力极大减轻了LLM的"幻觉"问题——即生成看似合理但实际虚构的内容。

检索增强生成(RAG):除了公开信息,Agent还能连接私有知识库。想象一下企业内部部署的Agent,它能够即时检索公司政策文档、产品手册、历史会议记录甚至员工目录。当你询问"谁负责亚太区的销售策略?"时,Agent不会生成泛泛而谈的回答,而是精确定位到组织架构中的特定角色和人员。RAG技术的核心在于将非结构化文本转化为向量表示,然后通过语义相似度检索最相关的信息片段,最后将这些关键信息融入生成过程。

以医疗领域为例,一个基于RAG技术增强的临床决策支持Agent能做到:

    • 检索最新发表的特定疾病治疗指南
    • 查询患者历史电子病历中的关键信息
    • 分析类似病例的治疗方案和结局
    • 整合这些信息提供个性化治疗建议

这种实时、精准的知识获取能力是Agent区别于传统聊天机器人的第一道技术壁垒。

2. 代码生成与执行环境(Code Generation & Execution)

在数字世界中,掌握了代码,几乎可以实现任何操作。顶级Agent具备强大的代码生成和执行能力,使其能够动态创建解决方案。

这种能力远超简单的"生成代码片段"——成熟的Coding Agent能够:

    • 理解问题的编程本质:将自然语言描述转化为算法和数据结构层面的理解
    • 生成完整可执行代码:不仅是代码片段,而是包含错误处理、边界条件检查的生产级代码
    • 编排复杂的代码工作流:协调多个组件、API和库的交互
    • 测试和调试自己的代码:识别潜在问题并主动修复

例如,Windsurf项目展示的代码Agent能够仅通过自然语言描述,独立开发包含用户认证、支付处理和数据可视化的完整Web应用。

对企业而言,这意味着大量重复性编程工作可以交由 Coding Agent(数字码农)完成,从数据清洗脚本、自动化测试到内部工具开发,极大提升效率。

3. 数字界面交互能力(Computer Use)

Agent落地最重要的能力之一是其"Computer Use"——能像人类一样操作计算机界面。这项技术突破解决了一个长期困扰AI应用的瓶颈:如何与没有开放API的软件和网站交互?

传统上,AI只能通过正式的API与其他系统集成。然而,现实世界中大量软件和网站并不提供API接口,或者API功能严重受限。Computer Use技术赋予Agent"数字视觉"和"数字手指"用于:

    • 屏幕理解:Agent能"看到"并理解屏幕上的元素——按钮、文本框、下拉菜单、错误提示等
    • 界面操作:Agent能模拟鼠标点击、键盘输入、拖拽操作等人机交互方式
    • 视觉反馈处理:Agent能根据界面变化(如加载动画、成功提示、错误警告)调整后续行动

这种能力的应用场景异常广泛:

    • 自动化工作流:Agent可以登录企业OA系统→填写报销表→上传发票图像→提交审批→跟踪进度,全程无需人工干预,碾压或平替了低代码RPA(Robotic Process Automation)的工作。
    • 跨平台数据迁移:Agent可以从一个系统提取数据,然后登录另一个系统填入相应字段
    • 复杂网络任务:如比价、预订、注册等需要与多个网站交互的任务

以Manus demo为例,它展示了如何通过Computer Use能力在常见的办公软件中执行复杂操作——从Excel数据分析、PowerPoint演示制作到Photoshop图像处理,模糊了AI助手和真实人类操作者之间的界限。

4. 流程规划与执行引擎(Planning & Execution)

Agent的核心智能体现在其流程规划能力上——将抽象目标转化为可执行步骤的能力。这种能力的突破得益于近期推理模型的重大进展。

高级Agent的规划能力分为几个层次:

    • 任务分解:将"组织销售会议"这样的高层指令分解为数十个具体子任务
    • 资源评估:确定每个子任务需要的工具、数据和权限
    • 依赖分析:建立任务间的逻辑依赖关系,形成 agentic flow 的有向执行图
    • 风险预判:识别可能的失败点并制定备选方案
    • 优先级排序:基于时间敏感性、重要性等因素确定平行组件的执行顺序
    • 适应性调整:根据执行过程中的反馈和环境变化动态修改计划

以一个市场分析项目为例,当用户提出"帮我分析竞争对手的最新产品"这一模糊请求时,成熟的Agent会通过多轮思考将其转化为结构化计划:

    1. 确定目标竞争对手清单(通过搜索或情报挖掘)
    2. 收集每个竞争对手的最新产品信息(网站、新闻稿、社交媒体)
    3. 提取产品关键参数(功能、价格、目标市场)
    4. 对比分析竞争产品与我方产品的差异
    5. 识别市场趋势和潜在机会
    6. 生成可视化比较图表
    7. 撰写分析报告和建议

这种自主规划能力使Agent从简单的指令执行者转变为真正的问题解决者,能够处理开放性、非结构化的任务。

5. 数据存储与个性化记忆系统

Agent的持久价值很大程度上取决于其"记忆"能力——能否记住用户偏好、过往交互和工作背景。这一能力通过两种技术实现:

向量数据库存储:现代Agent使用向量数据库存储大量非结构化信息,包括:

    • 用户偏好和工作习惯
    • 常用流程和最佳实践
    • 历史对话和决策记录
    • 场景特定知识

这些信息被转化为向量表示,能够通过语义相似度快速检索。向量数据库的优势在于能够处理模糊查询:"上次那个关于销售预测的报表,就是用蓝色图表那个"——Agent能理解这种不精确描述并检索到相关文档。

本地化部署:为保护隐私和提高性能,越来越多的Agent架构支持本地化部署向量存储,确保敏感数据不离开企业环境。例如,一家金融机构可以部署私有Agent,所有客户交易数据和投资组合信息都存储在内部安全系统中。

个性化记忆系统使Agent能够逐渐适应特定用户或组织的独特需求,从而提供更加定制化的服务——就像一位经验丰富的私人秘书,了解你的喜好和工作方式。

6. 多模态感知与生成系统

现代工作环境充满了各种形式的信息——文档、图表、图像、视频、语音等。真正有用的Agent必须能够理解和生成多种模态的内容。

最新一代Agent的多模态能力包括:

多模态输入理解

      • 图像分析:识别图表中的数据趋势、照片中的关键元素
      • 文档理解:提取PDF、Word文档中的结构化信息
      • 语音转文本:将口头指令转化为可执行任务

多模态输出生成

      • 数据可视化:根据数值数据创建图表和仪表盘
      • 演示制作:生成包含文本、图像和图表的演示文稿、PPT、小视频等
      • 丰富文档:创建包含格式化文本、图像和链接的综合报告

案例分析:金融分析Agent能够:

    1. 接收投资组合Excel文件
    2. 分析数字数据识别风险点
    3. 生成资产分配饼图
    4. 创建历史表现曲线图
    5. 合成一份包含文字解析和可视化图表的完整金融趋势报告

多模态能力使Agent能够处理现实世界的复杂信息环境,而不仅限于文本交流。

7. 多Agent协作框架

对于特别复杂的任务,单个Agent的能力可能不足。这时,多Agent协作系统展现出强大潜力——多个专业化Agent组成"智能团队",分工合作解决问题。Manus 就采取了多agent框架。

一个成熟的多Agent系统通常包含以下角色:

    • 协调Agent(Coordinator):负责整体任务规划、资源分配和进度跟踪
    • 专家Agent(Specialist):专注于特定领域任务,如数据分析、内容创作、代码开发
    • 研究Agent(Researcher):负责信息收集和验证
    • 质检Agent(Validator):审核其他Agent的输出,确保质量和准确性
    • 用户交互Agent(Interface):管理与人类用户的沟通,解释过程和结果

这些Agent之间通过结构化协议交换信息和任务状态,形成一个自组织系统。例如,完成一份市场调研报告可能涉及:

    1. 协调Agent制定整体研究计划
    2. 研究Agent收集行业数据和竞争对手信息
    3. 数据分析Agent处理原始数据并提取洞见
    4. 可视化Agent创建数据图表
    5. 内容Agent撰写分析文本
    6. 质检Agent审核最终报告
    7. 交互Agent向用户展示结果并收集反馈

这种"分布式智能"方法使Agent系统能够处理远超单个Agent能力的复杂任务,同时提供更高的可靠性和专业性。

Agent两条发展路径:通用与垂直

Agent技术的商业化正沿着两条不同但互补的路径发展,反映了不同的市场需求和技术策略:

通用Agent路线

以Manus为代表的通用Agent尝试成为"全能型通用数字助手",能够横跨多种应用场景。这些产品的关键特点是:

    • 广谱能力覆盖:从简单信息查询到复杂任务规划,从内容创作到数据分析
    • 统一用户体验:提供一致的交互界面,无需针对不同任务切换工具
    • 通用基础设施:建立在多模态LLM、推理LLM和云架构的标准组件之上

Manus代表了这一路线的典型产品——它能够操作各种办公软件,浏览网页,管理文件,甚至完成基本的图像处理任务。通用Agent的价值主张是"一站式"解决方案,降低用户学习多个工具的成本。

然而,这种路线也面临严峻挑战:大模型厂商正迅速将Agent核心能力整合到自己的产品中。例如,OpenAI的GPT-4o、Anthropic的Claude和Google的Gemini都在快速增强自身的工具使用和执行能力,这可能导致独立通用Agent厂商面临被"平台化"的风险。虽然说平台厂家与应用厂家应该分工合作,各司其长,但面对大模型落地应用这样的大蛋糕,相互争抢也是难免的。

垂直Agent路线

与通用路线形成对比的是垂直Agent策略——聚焦特定行业或职能的专业化Agent:

    • 医疗Agent:辅助诊断、治疗计划制定、医学文献研究
    • 法律Agent:合同起草、法规遵从性检查、判例研究
    • 金融Agent:投资组合管理、风险评估、市场分析
    • 设计Agent:UI/UX设计、品牌资产创建、创意探索
    • 研发Agent:代码开发、系统架构设计、技术文档编写
    • ............

垂直Agent的核心优势在于深度而非广度——它们通过行业专有知识、场景工作流程和监管合规性构建护城河。例如,一个专业医疗Agent不仅具备通用AI能力,还整合了:

    • 医学本体论(ontology)和临床指南
    • 药物相互作用数据库
    • 疾病诊断决策
    • 医学影像分析
    • 医疗记录格式标准化
    • 医疗伦理和隐私合规

这种深度专业化使垂直Agent能够提供真正行业级的解决方案,而不仅是表面的功能模拟。从商业模型角度看,垂直Agent更容易证明其投资回报率,因为它们直接解决特定行业的高价值问题。

Agent技术的现实挑战与未来前景

尽管Agent技术前景光明,但我们必须客观认识当前的限制和挑战:

技术挑战

    1. 可靠性与稳定性:即使最先进的Agent也会遇到失败案例——误解指令、执行错误操作或陷入逻辑循环。当Agent执行连续多步骤任务时,错误也可能累积放大,导致整体任务失败。
    2. 安全边界问题:赋予Agent自主操作能力也会带来安全风险。如何确保Agent不会执行有害操作(如删除重要文件、发送敏感信息)仍是一个开放性挑战。目前的解决方案包括权限分级、人类监督和安全警戒机制,但完美平衡自主性与安全性仍是挑战。
    3. 隐私与数据安全:Agent需要访问大量用户数据才能提供个性化服务,这引发了严重的隐私担忧。企业级Agent部署尤其需要考虑数据本地化、访问控制和加密传输等安全机制。
    4. 幻觉与错误决策:尽管搜索和RAG技术缓解了幻觉问题,但Agent仍可能基于错误理解做出决策。当这些决策导致实际行动(如错误购买、错误数据删除)时,后果远比简单的信息错误严重。

社会与伦理挑战

    1. 责任归属问题:当Agent自主执行任务出错时,责任如何分配?是软件开发者、模型提供商、还是最终用户?这个问题涉及法律、伦理和产品设计的复杂交叉。特斯拉的全自动驾驶agent,目前仍是 supervised 版,明确规定人类驾驶是责任人。但一旦发展到计划中的 unsupervised 版,道理上责任人应该转为特斯拉厂家。
    2. 工作替代与转型:Agent技术必然导致某些工作岗位的自动化,特别是高度程序化的知识工作。社会需要应对这种转型,包括再培训、社会安全网络和新型工作创造。长远一点看,健全社会安全网络,例如全民基本收入(UBI,Universal Basic Income)保障,势在必行。
    3. 过度依赖风险:随着Agent承担越来越多的认知任务,人类可能丧失某些核心能力。例如,过度依赖导航Agent可能导致空间认知能力下降,这种"认知外包"的长期影响值得研究。

未来发展路径

展望未来,Agent技术可能沿着以下方向继续演进:

    1. 自主性提升:未来Agent将能够处理更加模糊、开放的指令,如"为下季度制定营销策略"或"优化供应链流程",无需详细的步骤指导。
    2. 个性化深化:Agent将通过持续学习用户习惯、偏好和工作流程,提供高度个性化的服务,甚至能预测用户需求。
    3. 物理世界扩展:当Agent与机器人技术结合时,其能力将从数字世界扩展到物理环境——控制智能家居设备、操作工业机械或协助医疗手术,“给机器人注入灵魂”。
    4. 协作网络形成:不同专业领域的Agent将形成协作网络,共同解决复杂问题,如一个企业内不同部门的Agent相互协调工作。

总结:新型人机协作范式的曙光

Agent技术的崛起代表了AI应用从"可询问的知识库"向"可执行的智能伙伴"的根本转变。这不仅是技术演进,更是人机协作范式的革命。

在这个新范式中,人类将专注于创造性思考、战略决策和情感交流等高价值活动,而将可编程、可重复的任务交由Agent处理。这种分工不是简单的工作替代,而是能力互补——人类提供目标、价值判断和创意,Agent提供执行力、一致性和全天候服务。

从某种角度看,Agent技术的发展可能如同个人计算机革命一样具有深远影响。就像PC将计算能力从专业机构民主化到个人手中,Agent有潜力将专业服务能力(无论是编程、设计、分析还是创作)从少数专家扩展到更广泛的用户群体。

对于普通用户而言,Agent意味着数字世界的控制权从"需要学习特定指令和技能"转变为"只需表达意图、描述痛点";对于企业而言,Agent代表着生产力工具的新一代升级,有潜力显著提升知识工作者的产出效率。

无论是Manus这样的通用Agent先行者,还是专注垂直领域的专业Agent,都在探索这个新兴技术前沿的商业可能性。随着底层技术的持续进步和商业模式的逐步成熟,2025年或将成为Agent技术真正走向成熟的元年。

在充满可能性的未来,关键问题不再是"Agent能否工作",而是"我们如何设计Agent与人类的最佳协作方式"——一种既发挥机器高效执行力,又保留人类创造力与判断力的协作范式。这或许是AI发展史上最具变革性的一页,也是人类文明进化的崭新篇章。

 

【相关】

Agent元年:从聊天机器人到数字员工的当代进化史

——揭秘2025年最炙手可热的AI应用形态

最近Manus的爆火,让普罗开始关注AI大模型的应用热词 agent,至少算是启发并教育了市场。Manus 内测发布给出的能力 demos 令人印象深刻,让大家看到了 agent 方向的样子。无论 Manus 是真有货色的爆火,还是名不副实的炒作,大家都开始对正在到来的大模型agent时代充满好奇。什么是 agent 呢?

一、从副驾驶到主驾驶:Agent的进化密码

当ChatGPT核爆式走红时,全人类第一次意识到,AI不仅能回答问题,还能成为你的"赛博同事"。早期的Copilot(副驾驶)类助手就像乖巧的实习生——勤快听话,你问它答,你令它动。而如今的Agent(智能代理)已经进化成能独当一面的"数字员工",它不再是只会等待指令的被动助手,而是能自主规划、拆解任务、调用工具的智能管家。

- Copilot模式:你命令"写封英文邮件",它生成文本等你确认或使用
- Agent模式:你说"在x预算下搞定客户投诉",它自动调取订单数据→分析问题→生成解决方案→按照预算预定补偿礼品→将处理记录同步CRM系统

这种质的飞跃,源于三大技术突破:

1️⃣ 超长上下文窗口:新型LLM能记住长达100万token的对话(相当于一部《哈利波特》),构建连续工作记忆
2️⃣ 推理引擎升级:从简单思维链(Chain-of-Thought)进化到思维树(Tree-of-Thought),赋能多路径决策
3️⃣ 数字肢体生长:API调用+RPA(模拟人类操作软件)+多模态输入输出,让AI真正"动手做事",无需人类的过程干预

二、Agent的七种武器:不只是会聊天的AI

当代顶级Agent的战斗力,来自七大核心组件构成的"技术乐高":

① 联网搜商(Search+RAG)

- 实时抓取最新资讯:股票行情、航班动态、学术前沿
- 对接企业知识库:秒查员工手册、产品参数、客户档案
案例:某医疗Agent在诊断时,能同步检索最新临床指南与患者历史病历

② 代码(Coding)

- 自动写脚本处理Excel
- 调试程序时化身"数字码农"
- 甚至能开发APP
震撼现场:Windsurf Agent在测试中独立编写出具备登录/支付功能的网页

③ 软件使用(Computer Use)

- 无API接口?RPA一样直接模拟人类操作!
- 像真人一样点击浏览器、操作Photoshop、登录OA系统
颠覆性场景:Agent自主完成机票比价→下单→填写报销单全流程

④ 记忆保险箱(向量数据库)

- 永久记忆你的工作习惯:
"王总喜欢周一晨会PPT用蓝色模板"
"张会计的报表必须保留小数点后两位"

- 本地化存储保障隐私安全

⑤ 多面手工作室(多模态能力)

- 输入输出不再限于文字:
→ 把语音会议转成图文纪要
→ 将数据报告变成动态视频
→ 听着podcast就能生成思维导图

⑥ 军师联盟(多Agent协作)

复杂任务由"智能小组"协同攻克:

- 指挥官Agent:制定作战计划
- 侦查Agent:实时监控数据
- 质检Agent:交叉验证结果
- 外交Agent:向人类申请资源

⑦ 决策大脑(规划与推理)

- 拆解"举办发布会"这种模糊指令为100+子任务
- 动态调整计划:遇到场地临时取消,立即启动Plan B

三、Agent宇宙的两极战争

当前agent赛道正上演"通专对决":

通用派

- 代表选手:Manus、GPT-5(? 据传GPT5要集成各项能力)
- 优势:通用全能,写代码、做设计、管项目样样通
- 隐患:可能被巨头降维打击(例如,GPT-5或DeepSeek R3碾压Manus)

垂直派

阵容:
- 医疗Agent:能看CT片、做诊断、开处方的AI医生
- 法律Agent:3分钟生成无漏洞合同
- 金融Agent:实时监控全球37个交易所的操盘手
- 护城河:行业know-how+专属工具链构建壁垒

四、Agent时代的希望与烦恼

爆发前夜:

- 技术基建已基本就位(足够长的上下文+成熟工具链)
- 多模态大模型补齐最后短板
- 2025年或成真正"Agent元年"

暗流涌动:

- 隐私隐患:Agent需要深度访问用户数据
- 伦理困境:Agent擅自订的酒店该谁买单尽责?

五、未来已来:人机协作新范式

当Agent逐渐掌握三大终极技能:

预见性:提前预判你的需求("检测到明天下雨,已修改外勤计划")
实体化:赋予“灵魂”的机器人自主执行物理动作(机器人+Agent=机器人管家)
超进化:自主迭代工作方法(每次处理报销单速度提升3%)

人类终于迎来"君子动口不动手"的时代——人类定目标,Agent搞定所有落地细节和解决路径。这场静悄悄的效率革命,正在重塑每个行业的游戏规则。

唯一的问题是:你准备好拥抱你的数字同事了吗?

 

【相关】

The Three-Stage Scaling Laws Large Language Models

Mr. Huang's background features three S-curves, illustrating the scaling relay race across three stages of large language models, demonstrating a persistent spirit akin to the Chinese fable of the legendary Old Man Who Moved Mountains.

We know that large language models have three stages: pre-training, post-training, and online inference. The biggest change in recent months is the community consensus, following Ilya Sutskever's claim, that the pre-training era has ended. The famous empirical scaling laws for pre-training appear to have plateaued. This has led to the rise of inference models (OpenAI's O series and Deepseek's R series, among others), which emphasize investment in chain-of-thought (CoT) reinforcement learning during post-training and utilization of online inference time (so-called "test time compute"). These reasoning models have indeed demonstrated unprecedented achievements in mathematics, coding, and creative writing.

The scaling of post-training for reasoning models has just begun, and it's unclear how far it can go. But we can gradually see this trajectory from O1 evolving to O3, and from R1 to the reportedly soon-to-be-released R2 and their enhanced capabilities. What about the test time scaling in the final inference stage?

Recently, I spoke with my old friend Junlin, one of the earliest advocates for the three S-curves of scaling in China. I mentioned that I hadn't seen any real test time scaling because no one can control the model's test time compute—how much time/computing power it uses and when it completes assigned tasks is determined by the model itself, so test time doesn't seem "scalable." Junlin agreed that this is currently the case.

These past few days, while playing with large models' deep research capabilities, I've gradually experienced some possibilities for test time scaling. The answer is emerging. Fundamentally, it's about whether there's a curve showing that if you give a query or topic more thinking and response time, it performs better. Specifically, with O3-mini, there's a button called "deep research" that users can choose to use or not to use. Without it, your question still follows a chain of thought because you initially selected the reinforced O3 reasoning model. The process for reasoning models typically takes a minute or two. However, if you also press the deep research button, the final reasoning time is extended by several times, potentially lasting up to 10 minutes. This shows us that even with the same model, different inference times produce different results. This should count as a precursor of test time scaling.

How does it work? How can users invest different amounts of test time compute based on the difficulty or challenge of their topic and their tolerance for waiting time to generate different results for the same topic? It turns out it uses an agent-like approach. The functionality provided by the deep research button is essentially a research reasoning agent. Agents are an additional LLM-native feature that doesn't require changing the model—it changes the interaction method during the inference stage. Currently, this interaction is very simple, just one round, but this test time scaling direction is expected to continue exploring longer and more interactions with users to help maximize the effect of test time compute.

If test time compute scaling doesn't quickly hit bottlenecks, we can imagine future deep research interacting with users for extended periods to complete highly complex projects. Perhaps we're moving beyond minute-level reasoning time investments—we can entirely envision large models investing hours or even days to complete challenging tasks, such as projects that would take human researchers months or years, or completing research projects humans cannot accomplish. The current deep research is very simple—after receiving the user's prompt/query, it immediately breaks down the problem and asks the user five or six simple questions to confirm the required sources, breadth, depth, and considerations for the research. After receiving user feedback, the model begins accepting updated materials (if any) and uses search to collect more relevant information. Then, following the decomposed tasks and the plan confirmed with the user, it analyzes each source and finally synthesizes everything into a research report. This naturally extends the required reasoning time because the task is no longer singular, and the materials aren't limited to knowledge already digested within the model but include more sources searched in real-time—processing all this takes time.

For both reinforcement learning in the post-training stage of reasoning models and the investment in test time compute during the inference stage, the scaling journey has just begun. Let's hope these two S-curves can continue to rise steadily for some time, allowing the scaling relay race to help us progress continuously on the path toward artificial general intelligence (AGI) and eventually artificial superintelligence (ASI).

 

【Related】

大模型三阶段的 scaling laws 接力赛

张俊林:从Deepseek R1看Scaling Law

 

o3 deep research: 深度学习局限性研究报告

立委按:这是 OpenAI o3 deep research 生成的研究报告,一字未改。可能尚存幻觉类错误,仅供参考。

我自己驱动的相同综述方向的人工版本是 深度学习的局限性研究综述,可以比对参照。不一定比此版更好。

本文将整理一篇深入分析深度学习局限性的研究报告,涵盖泛化能力、对抗样本、因果推理、黑盒问题,并结合数据驱动方法论的挑战、安全性问题和数学根源展开探讨。 分析统计学习的哲学困境、信息瓶颈理论、拓扑学视角的对抗样本解析、微分几何视角下的外推问题,以及数据缺陷的量子化表达。同时,探讨现有应对策略及其局限性,并展望未来可能的发展路径。

1. 深度学习的泛化能力与局限性

深度学习模型的核心优势在于对复杂数据模式的泛化能力。通过对大量样本的训练,深度神经网络能够学习高维特征表示,并在测试集上取得优异表现。这种泛化能力使其在图像识别、自然语言处理等任务上超越传统方法。然而,这种成功主要局限于训练数据分布内的情形,当面对更广泛的情境时,模型表现出一系列局限性。

相关性与因果关系的混淆:深度学习模型倾向于利用数据中的相关性来做出预测,却缺乏辨别因果关系的能力 () ()。它们可以在海量数据中发现高度相关的特征模式,但无法确定哪些因素是真正的因果因素。例如,模型可能将巧合当作关联,著名的案例如Google流感趋势因过度拟合搜索频率而产生误判 ()。实际上,神经网络无法区分关联与因果,常常对统计上显著却非因果的模式赋予意义,这会导致所谓的“愚蠢的洞察” () ()。正因如此,在复杂系统中缺乏因果推断能力会严重限制模型的预测可靠性 ()。

对抗样本脆弱性:深度模型被发现对对抗样本非常敏感。对抗样本是指在原始输入中加入人类几乎察觉不到的微小扰动,就能使模型信心十足地给出错误输出的输入 ()。例如,只需对一张图像像素做细微修改,就可能令模型将熊猫误识别为长臂猿,而人眼几乎看不出差别 ()。 (Adversarial example using FGSM  |  TensorFlow Core)上图演示了对抗样本攻击:原始图像$x$是熊猫(模型置信度57.7%),加入放大系数$\epsilon=0.007$的微小扰动$\text{sign}(\nabla_x J(\theta, x, y))$后,得到对抗样本$x+\epsilon,\text{sign}(\nabla_x J(\theta, x, y))$,模型被误导将其分类为长臂猿(置信度99.3%)。产生对抗扰动的一种常见方法是快速梯度符号法(FGSM),其公式为:$x_{\text{adv}} = x + \epsilon \cdot \text{sign}(\nabla_x J(\theta, x, y))$,表示沿损失函数对输入梯度的正方向施加微小步长$\epsilon$ (Adversarial example using FGSM  |  TensorFlow Core) (Adversarial example using FGSM  |  TensorFlow Core)。对抗样本现象凸显了深度模型在输入空间局部扰动下的非鲁棒性,表明它更多是根据浅层相关特征作决策,而非抓住人类理解的语义要点 ()。

黑盒性质:深度神经网络往往被视为黑盒模型,缺乏可解释性 () ()。模型内部的高维参数和非线性使人类难以理解其决策依据。实际上,网络只是将输入映射为数字并拟合统计相关性,它无法提供人类可理解的决策理由 ()。研究表明,模型的可解释性往往和灵活性呈反比,而神经网络是灵活性极高的模型,因此其内部机制难以解释 ()。这种黑盒特性意味着我们难以信任深度模型去完成高风险决策任务,例如医疗诊断或自动驾驶中的生死抉择 ()。同时,由于内部机制复杂且缺乏模块化结构,深度模型也很难调试和验证,这为实际部署带来安全隐患 ()。

数据依赖与需求:深度学习在很大程度上是一个数据驱动的范式。深度神经网络对大规模标记数据的依赖程度极高 ()。没有大量多样的训练数据,网络难以学习到稳健的模式。这导致在数据匮乏的场景下,深度学习往往表现不佳。例如,人类可以通过一两次示范就学会新任务(一次学习),但神经网络通常需要成千上万的样本才能勉强泛化 () ()。如果训练数据分布存在偏差或盲区,模型很容易记忆训练集而缺乏真正的理解 ()。正如有研究指出的:“这些模型表面上表现出对任务的理解,其实只是记住了海量数据,在训练数据覆盖不到的地方就会失败” ()。因此,深度学习革命在某种意义上是由“大数据”推动的,当缺乏大数据时,这种方法就陷入困境。

综上,深度学习模型在训练分布内展现了强大的泛化性能,但其对相关性依赖、对抗攻击脆弱、内部不可解释以及对数据的高度需求,构成了其显著的局限。这些问题为我们在更广泛、更复杂的现实环境中应用深度学习敲响了警钟。

2. 数据驱动方法论的挑战

深度学习崛起于数据驱动的统计学习范式,本质上可被视为一个高维的概率密度估计器。模型通过在训练集上最大化似然或最小化误差来捕获输入与输出之间的映射关系。然而,这种纯关联式的学习方法在哲学和实践上都面临挑战:

  • 统计学习的哲学困境:相关不等于因果。深度模型所学到的是训练数据中输入与输出的联合分布或条件分布,并没有内置因果推理机制 () ()。它在本质上是一种复杂的函数拟合,追求在样本内的准确性,却无法保证在介入干预下依然有效。这就像是模型在“盲目”地记录现象,而不理解“为什么”。当数据中存在混杂因素时,模型可能错误地将伪相关当作因果规律。正如上一节提到的例子:在有偏数据集里,模型看到沙漠背景经常伴随骆驼,就误以为沙漠是骆驼出现的原因 (〖深度学习〗因果推断与机器学习的高级实践 | 数学建模_问题根因 分析 机器学习-CSDN博客)。实际中,“沙漠”和“骆驼”只是相关而非因果,模型缺乏常识因此产生了误因果推理。这种哲学困境表明,纯数据驱动的方法难以获得对环境的深层理解。
  • 信息瓶颈理论的启示:信息瓶颈理论认为,一个好的模型应当在保持对输出预测有用信息的同时压缩无关的输入信息。在深度学习中,隐藏层可以被看作输入信息到输出信息的“瓶颈”。研究发现,深度神经网络的训练过程可能包含两个阶段:先是拟合训练数据,尽可能记住输入细节;随后进入压缩阶段,有意或无意地丢弃与输出无关的冗余信息 (Anatomize Deep Learning with Information Theory | Lil'Log)。这种压缩有助于提升泛化能力,因为模型专注于关键信息而忽略噪声。信息瓶颈观点为泛化提供了理论解释:模型最终学到的是关于输出的充分简洁表示,而非输入的完整细节。如果一个模型无法有效压缩信息,仍记忆了大量与任务无关的细节,它在新样本上表现往往较差。这一定程度上解释了为何适当的正则化和表示压缩有利于泛化。
  • 训练数据缺陷导致伪相关:数据驱动方法严重依赖于训练数据的质量和分布假设。如果训练数据存在偏差或瑕疵,模型就会学到伪相关,并在推理时做出错误因果假设。例如,如果狗的图片大多在草地背景,模型可能将“绿色草地”作为识别狗的特征之一。结果是,一张只有草地没有狗的图片也可能被模型高置信度地预测为狗 (〖深度学习〗因果推断与机器学习的高级实践 | 数学建模_问题根因 分析 机器学习-CSDN博客) ()。这就是训练数据中的偏差导致模型学到了错误关联。在现实中,数据常常存在偏倚(例如采集自有限的环境或存在标签噪声),深度模型缺乏自我校正机制,难以分辨哪些特征是偶然相关的。研究者已经观察到,深度模型有将统计上显著却无因果意义的特征据为己用的倾向 ()。这不仅会导致模型在无偏数据上性能下降,还可能产生不公平或不可靠的决策。
  • 外推问题(分布外无能为力):深度学习模型对分布外数据(OOD)表现不佳是一个众所周知的挑战。当输入分布发生轻微变化,或遇到训练集未覆盖的情形时,模型往往束手无策 () ()。神经网络本质上擅长插值(在训练分布范围内进行预测),但在外推(超出已知分布范围进行预测)方面几乎是“绝对失败” ()。正如文献所指出:“在意料之外的新情况或极端条件下,深度模型表现会急剧恶化” ()。这源于模型只能从有限的数据近似真实函数,在超出经验数据范围时,没有依据进行可靠推断 ()。现实世界往往是开放环境,充满了复杂和未见的情境。没有无限的数据去覆盖所有可能,深度学习在开放世界中无法保证性能 ()。例如,一个在晴天公路图像上训练的自动驾驶模型,可能无法应对雪天或泥泞道路,因为这些是训练中未出现的“未知领域”。这种分布外泛化无能限制了深度学习部署在变化环境中的可靠性。

总而言之,当前的数据驱动深度学习方法存在明显的局限。它们在本质上是一种统计关联的学习:捕捉了高维数据中的模式,却缺乏因果推理和开放环境适应能力。信息瓶颈等理论为提升泛化提供了方向,但仍不足以解决由于数据缺陷和分布变化带来的挑战。未来的方法需要在纯关联学习之外,引入因果推断、先验知识和更强的模型假设,才能克服这些方法论上的瓶颈。

3. 对抗样本的数学解析

深度神经网络的对抗脆弱性可以从拓扑学、分析学和微分几何等角度加以理解。这些理论视角揭示了模型决策边界和数据结构的内在缺陷,为对抗样本的产生提供了数学解释。

3.1 拓扑视角:数据流形的结构性漏洞

高维输入数据通常假定分布在一个低维流形上。也就是说,真实样本只占据了输入空间中的一个局部子流形。然而,分类模型的决策边界需要在整个高维空间上划分类别区域。拓扑学角度表明,当数据流形嵌入在高维空间中时,其共维数(codimension)很高,围绕流形会存在大量“空白”区域。在这些流形之外的方向上,模型的决策边界缺乏约束,容易被攻破 (On the Geometry of Adversarial Examples | OpenReview)。正如一项几何分析指出的:对抗样本是深度模型决策边界在数据流形附近不正确分类的自然结果 (On the Geometry of Adversarial Examples | OpenReview)。由于训练时模型只需在流形上正确分类数据,它可能仅在流形表面学得很好,而对于流形附近的点(只差一点点就偏离了训练分布)分类却是任意的 (On the Geometry of Adversarial Examples | OpenReview)。这一结构性漏洞意味着:攻击者可以沿着垂直于数据流形的方向轻微移动样本,使其仍然在原始样本的邻域中(人眼看来几乎没变),却因脱离流形而落入决策边界另一侧。换言之,数据流形犹如悬浮于高维空间中的“岛屿”,四周充满了模型未曾见过的区域,对抗攻击正是利用了这些区域的漏洞。流形结构越是弯曲、高维,留给攻击者可利用的“缝隙”就越多,使得生成对抗样本成为可能 (On the Geometry of Adversarial Examples | OpenReview)。

3.2 李普希茨连续性失效:局部稳定性问题

理想情况下,分类函数应该是足够平滑的,对输入的小扰动保持稳定。然而,深度神经网络通常缺乏全局的李普希茨连续性约束,其输出对输入变化非常敏感。当网络在训练数据上高度拟合时,在某些方向的梯度会变得很大。这意味着存在较大的局部李普希茨常数——输入的一微小变化可以引起输出置信度的巨大变化,从而跨越决策边界。研究已表明,仅修改图像的几个像素就可能导致DNN完全错误地分类,这强调了此类模型局部稳定性的缺失 (Frontiers | Multivariate Lipschitz Analysis of the Stability of Neural Networks)。形式上,如果一个模型$f(x)$的李普希茨常数$L$非常大,那么$|x'-x|$虽很小,但$|f(x')-f(x)|$可能超过判别阈值,导致类别变化。对抗样本正是利用了这一点:通过沿着梯度方向施加精心设计的微小扰动,攻击者使模型输出发生非线性放大,从而产生错误分类。直观来说,深度网络在输入空间形成了复杂的山谷和峰峦,对抗扰动就像在谷底推了一把,看似平静的输出瞬间跃上海拔。稳定性精确拟合间存在矛盾:理论和实证结果都指出,提高模型对对抗扰动的鲁棒性常常要以牺牲部分标准精度为代价 (Frontiers | Multivariate Lipschitz Analysis of the Stability of Neural Networks)。这被视为深度学习中的一种基本权衡:追求对训练数据的极致拟合(高精度)会导致决策函数过于陡峭,从而难以兼顾对输入噪声的稳定性。这种李普希茨连续性的失效解释了为何神经网络在非常局部的范围内缺乏鲁棒性,也指导我们通过控制梯度范数(例如谱范数约束)来提升模型稳健性。

3.3 微分几何视角:测地线攻击路径与决策边界曲率

从微分几何的角度,可以将输入空间视为带有测度的流形,分类决策边界则是嵌入其中的一个超曲面。测地线攻击路径指的是在输入空间中,连接原始样本与目标对抗样本的最短路径。如果模型足够鲁棒,那么在原始类别流形内沿任意短路径都不应越界;但实际情况是,攻击者可以找到一条极短的路径穿过决策边界,将样本送入错误类别。这条路径往往偏离数据流形,抄近道绕过了模型对流形内数据的防御。决策边界的曲率在其中扮演重要角色:如果边界在样本附近高度弯曲或复杂起伏,那么存在局部区域使得很小的扰动即可达到另一侧类别。研究发现,通过对抗训练等方法增强鲁棒性,会显著降低决策边界在输入空间的曲率,使其更加平滑 ([PDF] Robustness via Curvature Regularization, and Vice Versa)。也就是说,脆弱模型的决策边界可能是“皱巴巴”的,充满高曲率的小曲面,导致分类区域犬牙交错;而鲁棒模型的边界更趋于平滑和笔直,需要更大的扰动才能跨越 ([PDF] Robustness via Curvature Regularization, and Vice Versa)。在微分几何上,可以将对抗扰动视作在决策边界法向方向上的微小位移。对抗攻击等价于找到一条绕过边界的捷径,而边界曲率越大,这条捷径越短。比如,当决策边界在样本点附近形成一个凸起,攻击者沿垂直于边界方向前进一点点就跌下凸起进入另一侧分类区域。这解释了测地线极短且几乎贴着数据流形表面的攻击路径是如何存在的。此外,高曲率还意味着不同方向上的鲁棒性各异,模型在某些特征方向上特别脆弱。综合来看,微分几何视角揭示:深度模型决策边界的形状不够平滑规整,存在曲率过大的薄弱环节,这使得对抗样本能够以最小的“能量”越过边界成功欺骗模型。

通过以上拓扑、分析和几何视角的解析,我们更全面地理解了对抗样本形成的原因:高维数据流形之外的大量空间给了攻击以可乘之机,模型的局部不稳定和决策边界弯曲则决定了这些攻击可以以何等微小的代价奏效。这些理论洞见也为提升模型鲁棒性指明了路径,例如通过流形约束、梯度正则和边界平滑等手段来弥补先天的结构缺陷。

4. 安全性问题与防御方案

深度学习模型的对抗脆弱性和不可解释性带来了严重的安全隐患。针对这些问题,研究者提出了多种防御策略。然而,每种方案都有其局限性,需要辩证地加以理解。

对抗样本攻击的防御策略大致可分为以下几类:

  • 对抗训练:将经过算法生成的对抗样本加入训练集中一同训练模型,使模型学会识别并抵抗这些微扰 (Adversarial Attack and Defense: A Survey)。这是目前最主要的防御手段之一,通过在训练阶段模拟攻击来增强模型鲁棒性。对抗训练在小规模数据集上显示出显著效果,但其局限在于对数据和计算量要求更高,而且在大规模数据集(如ImageNet)上训练和调参非常困难 (Adversarial Attack and Defense: A Survey)。即使经过对抗训练,模型的防御也不是牢不可破——往往攻击者稍作调整就能再次骗过模型 (Adversarial Attack and Defense: A Survey)。此外,对抗训练还可能降低模型对干净样本的精度,这体现了鲁棒性与准确率间的权衡。
  • 鲁棒优化:从优化的角度,将训练目标改为极小极大问题,提升模型在最坏情况下的性能。这与对抗训练本质相同,即在损失函数中加入对扰动的最大化过程,寻找模型决策在局部的最坏情况并据此更新参数。一些改进的方法如PGD(投影梯度下降)对抗训练、TRADES等,都属于鲁棒优化范畴。它们通过更强的攻击迭代或修改损失项来提高鲁棒性。然而,这类方法经常面临计算成本高昂的问题,而且当扰动范围增加或攻击方式改变时,模型鲁棒性可能急剧下降 (Adversarial Attack and Defense: A Survey)。鲁棒优化也难以防御分布外或物理世界中的攻击(如真实场景的光线变化、打印再拍摄攻击),因为这些超出了简单范畴内扰动的假设。
  • 正则化与随机化方法:通过在训练时加入各种正则项或在预测时对输入/模型进行随机扰动,来平滑模型决策边界,提高鲁棒性。例如,梯度正则化方法在损失中惩罚输入梯度的大小,使模型学习到更平缓的函数;随机噪声注入输入转化(如输入随机压缩、平移)在预测阶段扰乱潜在攻击者的信息。同样地,防御蒸馏(distillation)曾被提出通过压缩软标签知识来增强模型稳定性。这些方法有时能在非适应性攻击下减少对抗样本成功率,但很多被证明属于**“梯度掩蔽”**(gradient masking)技巧 (Towards Understanding and Improving Adversarial Robustness of Vision Transformers)——它们并未真正提高模型本质鲁棒性,而是通过隐藏有用梯度信息来暂时阻碍攻击。当攻击者认识到防御策略并进行相应调整后,这些防御常被攻破 (Towards Understanding and Improving Adversarial Robustness of Vision Transformers)。因此,仅依赖正则和随机手段往往不能提供持久可靠的安全保障。

尽管上述防御策略层出不穷,深度模型的安全性仍然令人担忧。这些防御的局限性在于:首先,大多数防御只针对已知的特定攻击,在遇到新型攻击或适应性攻击时失效。例如,一些防御通过让梯度不可导或不可用来阻止攻击,但改进的攻击(比如通过梯度估计或期望重写技术)仍能突破。其次,防御往往带来性能开销。对抗训练会降低模型对正常样本的精度,复杂正则项增加了训练难度,有些防御还需要额外的推理步骤。再次,许多防御缺乏理论保证,我们无法证明模型在某扰动范围内一定安全,只能不断地通过各种攻击来检验。事实上,近年来多个声称成功的防御在更强的白盒攻击下纷纷被攻破,表明安全对抗是一个动态的攻防军备竞赛

即便如此,这些研究为未来指明了改进方向。例如,对抗训练的发展催生了混合对抗训练特征层对抗训练等更强方法;鲁棒优化激发了认证鲁棒性研究,尝试从数学上证明模型对一定范围扰动是安全的;正则化手段则逐步与架构设计结合,出现了诸如利用随机平滑获得置信区间的方案等。总的来说,目前没有万无一失的防御——每种方法都有局限,但组合多种策略或探索全新思路可能带来突破。

5. 理论分析与未来发展

面对深度学习当前的局限性,研究者从更深层的理论角度分析问题,并探索未来的发展路径。下面讨论几个具有前瞻性的方向:

数据缺陷的量化表达:对于深度模型因数据导致的泛化问题,有学者借鉴物理概念提出了类似**“正交灾难”“不确定性原理”的观点加以描述。正交灾难指的是在高维空间中,不同样本或特征方向往往近似正交,导致模型难以在各方向上同时保持良好性能——在一个方向上精细拟合数据(降低误差),可能会牺牲在另一个正交方向上的泛化,从而陷入维度灾难的困境。这可以类比于量子多体系统中的正交性灾难:状态空间维度巨大,以致一个微小扰动就使系统基态与原本几乎正交,重叠率骤降。对应到深度学习,微小的分布变化可能令原模型与新形态的“真实函数”几乎无重叠,需要完全重新学习,这解释了模型对分布变化如此敏感的原因。同时,不确定性原理被用来类比深度模型中精度与鲁棒性**的不可同时最大化 (On The Uncertainty Principle of Neural Networks)。有研究提出,网络对输入的识别能力和对扰动的抗噪能力是一对互相制约的“共轭变量” (On The Uncertainty Principle of Neural Networks)——提高对特征的敏感度(提升精度)会降低对梯度扰动的鲁棒性,反之亦然 (On The Uncertainty Principle of Neural Networks)。这种观点将深度学习的权衡提升到原理层面,提示我们在设计模型时必须接受某种形式的折衷,如同测不准原理限制同时精确测定粒子的位置和动量一样。对这些现象的量化分析,能够加深我们对模型固有局限的理论理解,为突破现有瓶颈提供指引。

因果介入学习:鉴于深度学习混淆相关性与因果性的缺陷,融入因果推理被认为是未来的重要方向之一 () (〖深度学习〗因果推断与机器学习的高级实践 | 数学建模_问题根因 分析 机器学习-CSDN博客)。因果介入学习主张在模型中显式地考虑干预和反事实推断,让模型不仅“知其然”还要“知其所以然” (〖深度学习〗因果推断与机器学习的高级实践 | 数学建模_问题根因 分析 机器学习-CSDN博客)。具体途径包括:借助因果图谱和结构方程模型,将领域知识融入网络;在训练过程中对输入进行干预操作(如打破某些相关性,模拟因果试验),迫使模型区分直接原因和伴随因素;开发新型损失函数,使模型对因果不变特征的预测更优(如因果不变风险最小化)。已经有大量研究致力于因果表征学习,希望学习到的中间表示能对应真实的因果因素 (〖深度学习〗因果推断与机器学习的高级实践 | 数学建模_问题根因 分析 机器学习-CSDN博客)。通过因果介入,模型有望获得更稳定的泛化性能更强的可解释性,例如在面对分布变化时,只要因果机制不变,模型决策就应当不变。这对于实现真正可靠的人工智能至关重要。目前,包括科技巨头在内的很多研究团队都在积极探索将因果推断融入深度学习的方法 (〖深度学习〗因果推断与机器学习的高级实践 | 数学建模_问题根因 分析 机器学习-CSDN博客)。尽管这仍处于早期阶段,但它为克服关联学习的瓶颈提供了有力方向。

微分流形增强:上一节讨论的对抗漏洞表明,需要从数据流形的结构入手增强模型鲁棒性。未来模型或训练策略可能显式地考虑流形约束几何信息。一种思路是令模型的表示空间本身构建为一个更合理的流形,使得类内样本分布在紧致光滑的流形上、类间有明显间隔,减少不确定区域。例如,利用流形正则化,在训练时惩罚模型在流形邻域内的输出变化,鼓励决策边界顺着数据流形表面而非横切通过 (Manifold-driven decomposition for adversarial robustness - Frontiers)。又或者,结合流形学习方法(如流形降维、自回归流形建模),先学习数据所在的低维流形结构,再在该流形坐标系中训练分类器,从而避免高维空间那些无效区域的干扰。微分几何还启发我们关注决策边界的平滑度:未来的训练可能直接以降低边界曲率为目标,形成更“平坦”的分类区域,提高对抗鲁棒性。此外,拓扑层面的分析(如利用代数拓扑的持久同调等)也可用于约束模型,使其决策边界拓扑结构与数据真实分类结构一致,不出现奇异的决策区域。从业界进展看,已经有一些针对特定任务的流形防御措施(如在人脸识别中将对抗样本投影回人脸图像流形)取得了积极效果。总体而言,将深度学习与微分流形/拓扑分析结合,有望打造出更理解数据几何结构、更稳健可靠的模型。

量子化正则化:这里的“量子化”并非专指量子计算,而是泛指离散化/量化技术对模型的正则作用。一方面,将模型权重和激活进行数值量化可以减少自由参数的表示能力,从而在一定程度上防止过拟合,提高泛化性能。这类似于把连续的参数空间用栅格划分,模型无法表示非常精细的差异,从而自然具有滤除高频噪声的效果。另一方面,量子力学中的某些原理也被借鉴来改进正则化手段。例如,有人提出利用量子态塌缩机制来随机正则网络权重,使模型在训练过程中跳出某些陷阱解;或者利用量子叠加/纠缠思想构造新的激活函数和正则项,迫使网络学到更具鲁棒性的表示 (Quantum adversarial machine learning | Phys. Rev. Research) ((PDF) Quantum adversarial machine learning - ResearchGate)。此外,真正的量子机器学习也在兴起,利用量子算法求解经典网络的优化问题、或构造量子神经网络等。如果将来量子计算机足够成熟,或许可以训练出内在就具有抗噪性的量子化模型(因量子系统天然服从不确定性原理约束)。当然,目前这些都处于探索阶段,但“量子化”思想提供了一种跳出现有框架限制的新视角,即从离散化与物理原理角度重新审视模型复杂度与泛化的平衡。

新型架构的实践进展:深度学习架构的革新也被寄予厚望以改进模型的局限性。以Vision Transformer (ViT)为代表的自注意力模型是近年出现的与卷积网络不同的新架构。ViT在图像领域不依赖卷积结构,而是采用全局自注意力机制,一开始人们希望这种架构能缓解CNN某些固有偏差(例如CNN偏重局部纹理)。实践表明,Transformer在某些方面展现出与CNN不同的泛化特性和鲁棒性。有研究指出,在采用对抗训练时,ViT在对抗攻击下的泛化性能可能优于同等条件下的CNN (Exploring Adversarial Robustness of Vision Transformers in the Spectral Perspective);但也有研究发现,Transformer在某些频率域扰动下甚至更脆弱 (Exploring Adversarial Robustness of Vision Transformers in the Spectral Perspective) (Exploring Adversarial Robustness of Vision Transformers in the Spectral Perspective)。总体来看,ViT等新模型并非对局限性免疫:它们仍需要大量数据预训练,在缺乏归纳偏置的情况下甚至更依赖数据;同时自注意力机制本身也会遭受对抗攻陷(如针对补丁的攻击)。不过,好消息是,ViT的出现拓宽了架构设计空间,启发了诸如混合架构(结合卷积和注意力)、更强归纳偏置的Transformer(如嵌入位置编码的先验)等探索。这些最新架构为研究模型结构与泛化/鲁棒性的关系提供了新的试验平台。例如,通过比较CNN和Transformer对抗扰动的反应,我们可以更深入了解是什么导致了模型的脆弱性,并据此改进架构设计。未来的模型或许会融合多种机制,既拥有卷积的局部稳定,又具备注意力的全局灵活,以在复杂任务中取得更好的稳健性和平衡性能。

总结展望:深度学习的局限性既源于算法范式(数据驱动的相关学习),也与工程实现(模型结构、训练数据)密切相关。理论分析为我们揭示了这些问题背后的深层原因,如信息瓶颈、维度灾难、对抗攻防中的基本权衡等。在未来的发展中,一个共识是:仅靠堆积数据和参数规模难以彻底克服当前瓶颈,我们需要在学习范式上有所突破。这可能意味着结合因果推理引导学习、融入物理世界的先验和约束、设计更具透明性和模块化的模型,以及跨越经典与量子的思维来正则化学习过程。当下的研究已经在朝这些方向前进,同时新的架构(如ViT)和训练策略也不断涌现,为改进提供了契机。可以预见,未来的深度学习模型将不再是纯粹的数据相关性黑盒,而将逐步朝着更懂因果、更几何鲁棒、更加可控可靠的智能体演进。在这个过程中,本文讨论的各方面局限性研究将持续发挥作用,指导我们迈向下一个人工智能阶段的里程碑。

参考文献:

【1】 Valerii Likholetov. Limitations of Deep Neural Networks. arXiv preprint arXiv:2012.15754, 2020: pp.3-4. ()

【2】 Valerii Likholetov. Limitations of Deep Neural Networks. arXiv preprint arXiv:2012.15754, 2020: p.7. ()

【3】 Valerii Likholetov. Limitations of Deep Neural Networks. arXiv preprint arXiv:2012.15754, 2020: pp.7-8. () ()

【4】 Valerii Likholetov. Limitations of Deep Neural Networks. arXiv preprint arXiv:2012.15754, 2020: p.5. ()

【5】 Valerii Likholetov. Limitations of Deep Neural Networks. arXiv preprint arXiv:2012.15754, 2020: pp.5-6. () ()

【6】 Valerii Likholetov. Limitations of Deep Neural Networks. arXiv preprint arXiv:2012.15754, 2020: p.6. ()

【7】 Valerii Likholetov. Limitations of Deep Neural Networks. arXiv preprint arXiv:2012.15754, 2020: p.10. ()

【8】 CSDN博文. 深度学习因果推断与机器学习的高级实践, 2024. (〖深度学习〗因果推断与机器学习的高级实践 | 数学建模_问题根因 分析 机器学习-CSDN博客) (〖深度学习〗因果推断与机器学习的高级实践 | 数学建模_问题根因 分析 机器学习-CSDN博客)

【9】 CSDN博文. 深度学习因果推断与机器学习的高级实践, 2024. (〖深度学习〗因果推断与机器学习的高级实践 | 数学建模_问题根因 分析 机器学习-CSDN博客)

【10】 Marc Khoury, Dylan Hadfield-Menell. On the Geometry of Adversarial Examples. ICLR 2019. (On the Geometry of Adversarial Examples | OpenReview)

【11】 Marouan Benidir et al. Multivariate Lipschitz Analysis of the Stability of Neural Networks. Frontiers in Signal Processing, 2022. (Frontiers | Multivariate Lipschitz Analysis of the Stability of Neural Networks)

【12】 Francesco Croce et al. Robustness via Curvature Regularization, and Vice Versa. CVPR 2020. ([PDF] Robustness via Curvature Regularization, and Vice Versa)

【13】 Zhen Xiang et al. On the Uncertainty Principle of Neural Networks. arXiv preprint arXiv:2205.01493, 2023: pp.6-7. (On The Uncertainty Principle of Neural Networks)

【14】 Hongshuo Liang et al. Adversarial Attack and Defense: A Survey. Electronics, 11(8):1283, 2022: pp.15-16. (Adversarial Attack and Defense: A Survey)

【15】 Samyak Jain et al. Towards Understanding and Improving Adversarial Robustness of Vision Transformers. CVPR 2024. (Exploring Adversarial Robustness of Vision Transformers in the Spectral Perspective) (Exploring Adversarial Robustness of Vision Transformers in the Spectral Perspective)

【16】 TensorFlow Tutorial: Adversarial example using FGSM. TensorFlow官方教程, 2022.

 

 

【相关】

左脚踩右脚可以飞吗,谈交替使用监督微调和强化学习的后训练

交替使用监督微调(SFT)与强化学习(RL)的策略探讨

在大模型后训练中,像deepseek R1那样交替使用监督微调(SFT)和强化学习(RL),而非单一依赖 RL 或蒸馏,背后的核心逻辑如下。


1. 交替使用 SFT 和 RL 的根本动因

(1) 训练稳定性与策略纠偏

    • RL 的脆弱性
      强化学习高度依赖奖励函数设计,但在现实任务中,奖励信号往往稀疏(例如数学推理任务中仅有最终答案正确性的反馈)或含有噪声(如人类反馈存在标注误差)。如果长期仅依靠 RL,模型可能陷入局部最优,生成虽能获得高奖励却逻辑混乱的答案。
    • SFT 的锚定作用
      定期引入 SFT 训练,通过高质量数据(如人工修正的思维链或模型“拒绝采样”而过滤的思维链)校正模型生成分布,可以有效防止 RL 阶段过度偏离合理路径。例如,DeepSeek-R1 在第二阶段 RL 后,通过 SFT 数据,成功修复了模型在复杂不等式推导中出现的符号错误。

(2) 数据效率与知识复用

    • RL 的数据饥渴性
      生成有效的 RL 训练数据(如通过模型自身采样获得的推理轨迹)成本极高。以 Open-R1 项目为例,每天需用 512 块 H100 GPU 生成 18 万条轨迹,其中只有约 30% 能通过数学验证。【依据细节待查验】
    • SFT 的快速收敛优势
      在关键能力瓶颈期(例如模型无法处理多步逻辑组合时),直接注入少量精标的 SFT 数据(如 5000 条人工编写的分步解析)能迅速突破性能瓶颈,避免 RL 长时间的探索过程。R1第一步的冷启动即是如此。

(3) 防止灾难性遗忘

    • RL 的窄化效应
      当 RL 过度优化特定任务(如数学证明)时,模型可能会牺牲其他能力(例如常识推理)。有研究表明,纯 RL 训练的模型在 MATH 数据集上准确率提升了 5%,但在 TruthfulQA 上真实性得分下降了 8%。【依据细节待查验】
    • SFT 的全域校准
      通过混合多领域 SFT 数据(例如同时包含数学题和事实核查问答),可以有效维持模型的通用性。DeepSeek-R1 第三阶段的混合数据微调正是基于这一设计理念。

2. 为何不持续使用 RL 或仅用蒸馏?

(1) RL 的固有局限性

    • 奖励假设的不可靠性
      RL 假设奖励函数能够完全表征任务目标,但在复杂任务中,这一假设几乎难以成立。例如,代码生成任务若仅以单元测试通过率作为奖励,模型可能生成通过测试但存在安全漏洞(如缓冲区溢出)的代码。
    • 策略坍塌风险
      长期 RL 训练可能导致模型策略多样性丧失。在对话任务中,模型可能反复生成高奖励但公式化、缺乏创意的回答,从而损害用户体验。

(2) 蒸馏的适用边界

    • 表达能力损失
      蒸馏通过模仿教师模型的输出分布实现知识迁移,但这种方式往往会丢失隐式推理能力。例如,DeepSeek-R1-Zero 的蒸馏版本在多跳推理的 MATH 题目上性能较原模型下降了约 12%。【依据细节待查验】
    • 教师依赖陷阱
      蒸馏效果受限于教师模型的整体质量。如果教师模型存在系统性错误(如物理常识错误),学生模型难以自主纠正,而 RL 能够利用环境反馈及时修正此类错误。

3. 交替循环的深层价值

(1) 螺旋式能力进化

    • SFT → RL 的递进
      SFT 阶段提供了基本能力的锚点,RL 则在此基础上探索更优策略。例如,模型在 SFT 阶段学会标准数学符号的使用,随后通过 RL 发现了更简洁高效的路径。
    • RL → SFT 的修正
      RL 阶段暴露出的不足(如过度简化关键步骤)可以通过新一轮 SFT 注入数据进行修正。这种交替循环类似于人类“学习-实践-反思”的认知过程。

(2) 多目标动态平衡

    • 性能与安全性的博弈
      纯 RL 可能为追求高得分而牺牲安全性,例如生成偏激或不当内容。而定期使用 SFT 注入经过伦理审查的数据,可以动态约束模型输出,确保既有高性能又符合安全规范。
    • 通用与专用的适配
      交替训练使得模型既能通过 SFT 保持广泛适用性(如客服对话),又能通过 RL 深耕垂直场景(如医疗诊断中的检查项推荐),从而在多种任务上均表现出色。

总结:交替策略的系统性优势

    • 风险控制:通过 SFT 定期校准,规避了 RL 训练过程中可能出现的失控风险。
    • 资源优化:在 RL 数据生成成本与 SFT 标注成本之间取得了良好的平衡。
    • 能力完备性:既兼顾了 SFT 的模仿学习规范性,又融合了 RL 的探索学习创造性,最终实现了模型能力的稳健提升。

这种交替策略实际上是将“定向引导”与“自由探索”相结合,既避免了纯 RL 的“野蛮生长”,也超越了纯 SFT 的“照本宣科”,最终实现了模型综合能力的全面进化。同时,尽管蒸馏在某些场景下(如移动端轻量化)有其独特优势,但它并不能替代这种系统性的优化路径。

 

【相关】


RPA 赛道与大模型Copilots早期创业者的困局

在大模型技术狂飙的当下,LLM Agents(基于大语言模型的智能体)正以前所未有的速度重构自动化版图。这场革命不仅冲击着传统 RPA(机器人流程自动化)的生存空间,更将早期依赖规则引擎或小模型的RPA创业者以及co-pilot的大模型应用的早期创业者逼至悬崖边缘。这场技术迭代的本质,是在复杂、多变、非结构化数据处理的自动化场景下,自然语言交互对低代码编程的降维打击,更是通用智能对浅垂直场景的暴力覆盖。

一般而言,作为agent的早期形式,co-pilot创业的有两大问题:第一是没有成功案例可循,因为LLM才两三年,还没来得及给除了chatbot以外的copilot证明其商业闭环的机会。第二是co-pilot创业如果没有深厚的独家行业数据基础以及客户渠道,就非常容易把自己定位在大模型的迭代升级的路口上,被大模型升级所碾压。

一、LLM Agents 的 "三重碾压效应"

1. 技术路径的颠覆:从 "低代码" 到 "自然涌现"

- 传统 RPA:依赖工程师编写脚本或流程图(如 UiPath 的拖拽式设计器),需精准定义每一步操作逻辑,如同教机器人跳格子,容错率低。
- LLM Agent:直接理解人类意图("把邮件里的发票信息录入系统"),自主拆解任务链条,动态调整执行路径。
- 典型案例:ChatGPT 插件系统已能调用 API 完成订机票、查数据等操作,而传统 RPA 实现同等功能需低代码脚本。

2. 护城河的瓦解:数据壁垒 vs 通用智能

- 前大模型时代的 RPA 壁垒

行业 know-how(如财务报销流程的细微差异)+ 客户定制化部署能力 + 长期积累的模板库。

但多数RPA公司本来的业务就是深入各行各业办公室的小批次业务累积,而不是垂直行业的数据深耕,基本没有多少垂直行业的门坎。

- LLM Agent 的破壁逻辑

- 通过大模型视觉以及电脑使用(Computer Use)能力直接消化非结构化文档(如五花八门的发票格式)以及模拟人类使用网络(而不是调用API)
- 通过思维链(CoT)零样本学习适应新业务流程(如理解 "将合同关键条款同步到 CRM" 的模糊指令)
- 致命打击:当大部分标准化场景被头部大模型(包括推理模型)原生覆盖,RPA 仅存的护城河只剩特定行业的私有数据接口——而这块蛋糕正被大模型厂家的的定制化、私有部署以及隐私保护能力所蚕食。

3. 生态位的吞噬:从 "工具提供商" 到 "基础设施层"

- 早期 Copilot 创业者的困境:

- Character.ai(个性化对话角色)、Jasper(营销文案生成)等曾风光一时的产品,本质上是对基础模型能力的浅层封装。
- 当 ChatGPT 开放角色预设功能和 DALL·E 3 插件,这些 "中间件" 的生存空间被急剧压缩。

- 幸存者法则:

- Perplexity.ai 以实时搜索+学术级引用杀出血路(弥补了通用模型的事实性缺陷)
- Cursor 通过深度绑定开发者工作流(代码库语义检索、AI 结对编程)建立垂直壁垒

二、RPA 赛道的行业剧变

- UiPath 股价较 2021 年高点严重下跌,其推出的 Autopilot 功能( "用英语描述自动化流程")被用户吐槽为 "套壳 GPT-4"
- 微软 Power Automate 全面接入 Copilot,支持 "描述你想要自动化的任务" 直接生成云端工作流
- 硅谷明星创业公司 Adept(专注训练 AI 执行电脑操作)估值突破 10 亿美元,直接威胁 RPA 生存根基

三、幸存者地图:哪些赛道还能抵抗 LLM 洪流?

1. 重度垂直型

- Cursor 的代码助手:深度集成 IDE 生态(利用VSCode 扩展市场的高占有率),掌握开发者真实工作流数据
- Harvey(法律 AI):通过LexisNexis法律特有语料训练理解法律术语+私有化部署解决合规问题

2. 实时数据型

- Perplexity.ai:构建搜索引擎级索引体系+ 学术数据库独家合作
- Hedgeye(金融分析):聚合 Bloomberg/Reuters 实时行情+行业独家预测模型

3. 硬件耦合型

- Covariant 仓储机器人:将 LLM 与机械臂控制算法深度融合,硬件壁垒延缓大模型侵蚀速度
- Tesla Optimus:通过具身智能实现物理世界操作,暂时规避纯数字自动化竞争

四、Agent 创业的陷阱与对策

常见陷阱

    1. 简单封装大模型
      • 问题:仅对通用大模型进行表层封装,缺乏实质性增值,例如将 ChatGPT 的提示词模板包装成 "智能客服系统"
      • 修正:开发特定领域专用功能,针对垂直场景深度优化
    2. 过度依赖微调
      • 问题:认为对大模型进行简单微调就能构建竞争壁垒,例如微调行业术语就标榜 "医疗大模型",实则临床决策支持需要具有高度隐私敏感的“地下”数据综合能力
      • 修正:构建专有数据闭环和场景优化的工作流程,形成实质性差异
    3. 忽视企业级需求
      • 问题:不重视安全合规、SLA保障和系统集成
      • 修正:构建企业级功能框架,满足组织级部署要求

差异化策略

    1. 工作流集成专家
      • 聚焦特定工作场景深度集成
      • 开发专用连接器和数据通道
    2. 人机协作架构师
      • 设计高效的人机分工模式
      • 构建质量监控和人工干预机制
    3. 行业知识库构建者
      • 整合垂直领域专业知识
      • 开发领域特定的评估标准

RPA 的剩余价值: 虽然 LLM Agent 冲击巨大,但 RPA 并非完全没有生存空间。RPA 在以下方面具有剩余价值:

    • 合规性要求高的场景: RPA 流程的可审计性和可追溯性可能更符合某些行业的合规要求。
    • 与遗留系统的集成: 在某些遗留系统集成方面,RPA 可能比 LLM Agent 更成熟和稳定。
    • 超高精度和稳定性的需求: 在极少数对精度和稳定性要求极高的场景下,例如金融交易核心系统,RPA 的确定性执行可能更受青睐。

残酷结论

LLM Agents 正在重演云计算淘汰本地服务器的历史:通用能力标准化底层服务(AWS 取代企业机房),垂直场景留给细分玩家(Snowflake 在云上长成数据仓库巨头)。RPA 和早期 Agent/Copilot 创业者若不能快速转型为 "领域场景深耕者" 或 "人机协作架构师",必将成为大模型吞噬算力时扬起的尘沙。唯一的好消息是:这场碾压的终局将释放出比 RPA 时代大百倍的自动化市场——但入场券只留给能与 LLM 共舞的垂直场景产品架构师。

大模型创业需要避坑,首要的坑正如Sam所说,就是不要开发大模型边缘迟早会内化的能力。

 

【相关】

语言学家应该很容易理解自注意力机制

作为计算语言学家和NLP老司机,本篇是写给我的语言学老师和同学,以及符号NLP同行的,分享自己的心路历程,希望对大家有所启发。

如果语言学家以前觉得大模型烧脑和不解,那是因为窗户纸没有捅破,存在不同体系下的术语与机制细节的理解障碍,但底层逻辑并不乏不少共同的东西。本篇聚焦在大模型Transformer架构中的核心注意力机制的理解。

我出身计算语言学,这几年又一直在追踪大模型,可以“翻译”一下自注意力机制的核心设计多头的 QKV。

我们做符号文法的 早就该知道 Query 就是 Subcat,主导词为潜在结构“挖坑”用的,例如及物动词 (vt)就挖了两个坑:一个「名词」主语,一个「名词」宾语。主语、宾语是句法结构的角色要求,「名词」是对所要求对象的限制条件(更细致地,Subcat 还有其他限制条件,例如主语在vt前,宾语在 vt后,等)。具体到概念谓词“eat”,逻辑语义上也相应地挖了两个坑:一个是「动物」施事,一个是「食物」受事。「动物」(包括「人」)是逻辑语义结构中对施事角色的语义限制条件,「食物」是逻辑语义结构中对受事角色的语义限制条件。这些都是我们语言学家践行多年、耳熟能详的概念体系。

Key 就是本体特征, 例如,名词、物体、食物、动作、状态、修饰、时间等,Value 就是填坑的“萝卜”。可惜,初读论文「Attention is all you need」 ,被 QKV弄得晕头转向的时候,没有人指点迷津。

为什么LLM大模型吃透了语言,说话那么顺溜,原来各个层级的坑与萝卜,都是那么相配,天赐良缘。为什么每一个单词都有QKV信息,道理也简单,每一个词都可能在“求偶”,追求别人,也都可能被追求。追与被追发现非常谈得来的时候, QK相配,注意力权重大,于是结合,就是把身子(Value)献上;然后生子 ,就是创造下一层的 Token 表示。

有意思的是,上下文窗口里的 Tokens 是群婚制,不是一夫一妻制生孩子。一个 Token 与周围所有 tokens 谈恋爱 q k(i)点积,其他tokens(包括该 Token自己)都与该Token 有一腿,但关系强度不同(谈吹的tokens,权重为0)。该 Token与这种多边关系“杂交”生出的孩子是怎样的呢?加权求和。就是说孩子继承了母亲的很多特征,同时也继承了周围众父亲的特征。谁的特征在子代最彰显或较弱,完全决定于交情的深浅、关系的强度。每个token都是这样推陈出新,一代一代传下去。最后发现,这种群婚制对于信息压缩(理解、解析、生成)特别有效。真有意思。

QKV这些概念显然是从数据库技术拿来的,对于软件界一点都不陌生。但当年理解注意力机制的时候,还是遭遇很大的困惑,想不明白 语言解析与数据库啥关系。当时觉得扯上数据库,最多就是查词典相关,而查词典早就在词嵌入(embedding)编码阶段就完成了。自注意力的核心不是静态的查词典,而是动态的上下文理解。 当年因为想不明白为什么要套用数据库的信息查询和匹配的说法,只能把注意力机制泛泛理解为关注上下文。这也没错,但看不到 insights,也理解不了为什么这东西这么厉害,成就了大模型的超人语言能力。

经过很久终于豁然开朗:原来我们做了一辈子的 subcat-based bottom up parsing,跟 attention+feedforward 做的完全是一回事,一个原理,殊途同归(见下图:这是我在大模型GPT3 playground刚冒头时候做的一个对比,illustrate 当年意识到两条路线殊途同归时候的震撼)。只不过我们符号文法处理完全打不过它。一个是颗粒度没法比,人家的家底是几百上千维度的实数向量,加上各种投射以及非线性转换,我们才有最多几千个强行结构化的符号特征(one hot features)。另外,人家的泛化可以从文字解析,推广到任何模态信号的压缩和理解,我们的文法不具有任何的模态可推广性、可移植性,最多只是跨过了语言壁垒,文法追求可以适用于任何语言的 universal grammar。

我的主流弄潮儿的一位老友吕正东说:

在attention 的发展史上(so far),我看到多次颠覆式的创新, 从最早的 seq2seq (Google Brain) → auto alignment (Mila) → Tranformer (Google again) → pre-trained language model (?) → LLM (openAI )→ ...

我苦笑道:你是真正业内前沿,一路发展轨迹自然一目了然。你可能想象不出我们这些符号出身的人,突然被逼去研读这种经典论文(Attention is all you need)时候的困境。因为缺乏历史演进的知识垫底,一下子就被这些概念砸晕了。不知道经过多少次嘀咕、查阅,才慢慢明白:天下大势,冥冥之中,有万变不离其宗。原来,我们在符号文法摸索了一辈子的被证明最有效的谓词Subcat框架和自底而上的结构解析算法,底层逻辑与 transformer 及其自注意力机制不谋而合。 虽然符号技术过时了,也确实笨拙,除了符号逻辑的透明性外,没有多少其他长处,但现在理解深度学习大模型的原理和框架,由此骤然变得亲切了很多。只不过现在眼界开阔了,与信息论和计算理论更加靠近。(计算)语言学家一辈子的追求就是跨语言,而AI的追求更高一筹,是跨模态,无论音频、视频还是文字。

【后记】

大模型经典论文 Attention is all you need 不好读也有时代的原因,它提出的框架是直接应对RNN的短板和机器翻译的需求和验证。这就让它的核心部分被这些因素干扰而模糊了。框架看上去太复杂,encoder decoder 两大部分,还必须在encoder 到 decoder 之间做一种交叉对齐 ,但其实内核组块没有任何区别。这些对于理解 transformer 的通用性和原理,都是“噪音”。

transformer 主体简单极了,不过就是多层感知器,在每一层加了个自注意力而已。 到了GPT 发现 ntp(下一词预测)是打开通用智能的钥匙的时候,从框架角度就更简单了,decoder-only 足矣(说明:decoder 并不是名字所说的那样只做解码,它一样做分析和理解,这是由其核心组块决定的)。

老友看了我的transformer博客解说(Transformer 和注意力机制简介),说你这个太简陋了,连篇幅都比原论文短。

原文中有一些细节舍去了。
作者: 立委 (*)
日期: 2025/02/21 12:23:37

包括:

原架构是两大块:encoder + decoder

但实际上这两大块里面的组快都是完全一样的。而且,主流已经抛弃了 encoder,GPT 采用的就是 decoder-only 架构。

另外,位置编码是序列的一个因素,与处理过程解耦以后,位置编码有一套说法,怕干扰了主旨的理解,就点到为止了。

再有就是一些数学公式和实现细节,包括归一化、残差等。舍弃不影响对于 “注意力+神经网络” 这个核心主旨的理解。

所以通篇实际上就是一个理解重点:自注意力机制怎么work的,因为多层感知器是个 given,不是 transformer 的创新。

顺便一提,所谓 自注意力,国人喜欢顾名思义,以为是自己注意自己,感觉很蹊跷。其实自注意力是针对跨序列的交叉注意力而言的,自注意力是在同一层序列的上下文中注意所有的相关tokens(确实也包括它自己),是单层序列之内的事儿,这个“自”回指的不是token自己,而是token自己所在的那个窗口序列。交叉注意力说的是跨序列层的注意力,例如传统的神经机器翻译中,目标语序列针对源语序列的注意力。到了 GPT 的通用生成式AI(gen-AI)主流,没有跨序列的必要了,因为所有的 input 序列 和 output 序列,都被自回归“挤压”到同一层的序列去了。仅有的 output 就是 next token,其余一切tokens都连成一串了作为input的条件:everything is ntp。

以“中译英:我爱你” 的机器翻译为例,GPT自回归生成的序列是这样的:

Input                  Output
中译英:我爱你         I
中译英:我爱你 I       love
中译英:我爱你 I love  you

屠可伟老师的研究进一步验证了parsing与transfromer的可对齐性:

李老师,关于transformer自注意力机制和语言学的关系,我们前年有个工作,之前也和您提过:我们发现transformer自注意力机制与概率依存句法模型的近似推理计算图极为相似,局部几乎一模一样: Probabilistic Transformer: A Probabilistic Dependency Model for Contextual Word Representation

白硕老师说:

我对这个问题的观点:

1、语言处理的符号主义本身并没有一个基于第一性原理的强有力理论体系,最牛的乔姆斯基也没做到。

2、语言处理的完整方案必须包含一个词法、句法、语义、语用、常识、事理、逻辑各方面“角力”因素能够以可以“统一度量衡”的表达-竞争-筛选机制,这点,目前只有多层神经网络可以做到,虽然只是“概率性的”。

3、语言处理和知识处理的共性是滑动上下文内的key-value填充,也就是我们俗称的“哪些萝卜填哪些坑”,这个共性的需求,被一个共性的机制——注意力机制在很大程度上解决了。再单独、分别做语言层面的填充机制(什么成分做什么角色)或是知识层面的填充机制(什么槽位取什么值)已经失去意义。要么不做,要么统一做而且比注意力机制做得更好。没有其他的出路。

白老师所言极是。白老师说的“统一的度量衡”就是自注意力。

 

【相关】

立委科普:如何理解自注意力机制中的QKV分工?

这可能是开始学习自注意力机制的同学遇到的一个不容易理解的烧脑问题。

为了学习序列上下文的依赖关系,为什么序列中的每一个 token 都要派生出三个分工角色:Q(Query),K(Key),V(Value)?

要理解为什么每一个token派生出来的Q、K、V矩阵能通过反向传播自动分工,我们需要深入模型训练的底层逻辑。这个过程可以用「蚁群分工」的生态现象来类比:虽然所有蚂蚁最初都是相似的,但通过环境反馈和任务训练,它们会自发分化为工蚁、兵蚁、繁殖蚁等不同角色。Transformer的参数分化也遵循类似的自然演化规律。

一、分工的本质驱动力:损失函数的宏观调控

假设我们要训练一个翻译模型,输入句子为 "猫追逐激光点",目标输出 "The cat chases the laser dot"。以下是参数分化的关键步骤:

1. 初始混沌状态
- W_Q、W_K、W_V矩阵均为随机初始化
- 此时"追逐"的Q向量可能与"激光点"的K向量毫无关联

2. 第一次前向传播
- 计算注意力权重时,"追逐"未能关联到"激光点"
- 导致翻译结果错误(如输出 "The cat eats the laser")

3. 误差信号反馈
损失函数计算出两个关键梯度:
- 内容缺失梯度:需要加强"追逐→chases"的动作关联
- 对象错配梯度:需要建立"追逐"与"激光点"的动宾关系

4. 参数分化开始
- W_Q矩阵收到信号:要让动词的Q向量更关注动作目标特征
- W_K矩阵收到信号:要让名词的K向量强化被作用对象属性
- W_V矩阵收到信号:需要保留名词的可移动性等细节特征

🔥 关键机制:同一误差信号通过不同的计算路径反传,导致三个矩阵的更新方向产生分化。

二、参数分化的数学原理

通过拆解注意力计算流程,可以看到梯度如何引导分工:

注意力权重计算路径

- 对W_Q的梯度:
主要来自本token的Q与上下文中的K的相似度计算,迫使W_Q学习如何生成有效的查询特征
(例:让动词的Q向量包含"需要搭配宾语(及物动词)"的潜在特征;Q很像是传统语言学中潜在句型的编码信号Subcat)

- 对W_K的梯度:
同样来自Q与K相似度计算,但方向是优化K的特征可被Q识别
(例:让名词的K向量包含"可作为动作对象(可做宾语)"的属性)

- 对W_V的梯度:
来自最终的加权求和,要求V保留足够的信息量
(例:"激光点"的V向量需要包含「小、明亮、可移动」等细节)

权重计算四部曲

1. Q-K点积计算关联度
2. 缩放防止梯度爆炸
3. Softmax归一化得到概率权重
4. 加权求和生成语境化表示

三、分工稳定的结构性保障

除了梯度驱动,模型结构设计也确保了分工不会混乱:

1. 线性变换的隔离性

- Q/K/V来自三个完全独立的矩阵乘法
(不同于共享参数的LSTM门控机制)
- 每个矩阵的梯度更新互不干扰

2. 多头注意力机制

使用8-64组独立的注意力机制(多头注意力),就像侦探团分头调查不同方向:有的关注时间线,有的分析人物关系,最后综合所有关系的匹配结果。

不同注意力头形成「分工协作」:
- 头1:W_Q¹学习语法角色匹配
(例:让主语的Q匹配谓语的K)
- 头2:W_Q²学习语义关联
(例:"银行"的Q匹配"利率"的K)
- 这种多目标优化迫使参数必须专业化

四、实例验证:参数分工的具象化

通过可视化训练后的参数,可以观察到明确的分工模式:

案例:动词"吃"的关联参数

- W_Q矩阵:
在"吃"的Q向量中,高权重维度对应「可食用」「具体物体」等特征

- W_K矩阵:
在"苹果"的K向量中,高权重维度对应「食物类」「固体」等属性

- W_V矩阵:
在"苹果"的V向量中,高权重维度包含「颜色」「口感」「营养成分」等细节

当计算 `Q(吃)·K(苹果)` 时,由于双方在「可食用性」维度上的高激活值,会产生强注意力权重。而V(苹果)则携带了制作输出时需要的具体信息(如翻译成"apple"时需要知道这是水果而非科技公司)。

关键结论:自组织的智慧

Transformer参数分工的本质,是在统一目标函数约束下,不同计算路径自然演化出的功能专门化。系统不需要预先设定分工细节,而是通过海量数据中反复的"试错-反馈"循环,自发形成了高效的信息处理体系。这种基于误差驱动的自组织过程,正是深度学习模型强大表征能力的根源。

 

 

【外一篇】

Q/K/V的关系:一个更深入的解读

Q和K的关系

- Q 是 K 空间的一个特定视角或投影
- 就像同一本书可以从不同角度去检索:
- Q1主题分类(K1:文学/科技/历史)
- Q2难度等级(K2:  入门/进阶/专业)
- Q3写作风格(K3:理论/实践/案例)

这是因为Q是“主动”寻求某个与其他tokens关联的特征;而K是“被动”准备被其他tokens匹配的特征。K好比索引,需要概括token的所有主要特征,但Q则是专注于查询某个特征。

这样理解多头注意力就更自然了:

# 每个头学习到不同的投影视角
Q1 = token * W_q1 # 可能关注主题相关性
Q2 = token * W_q2 # 可能关注语法关系
Q3 = token * W_q3 # 可能关注语义角色

就像一个高维空间的不同切面:
- 每个注意力头学习到一种特定的"查询视角"
- 这些视角共同构建了token间关系的完整图景

K和V的分工

- K:是信息的"检索表示"
- 包含了各种可能被查询的特征
- 好比图书的多维度标签系统

- V:是信息的"内容表示"
- 包含了实际需要被利用的信息
- 就像书本正文的具体内容

## 一个具体例子
以"开车"这个词为例:

多头注意力可能学到的不同视角:
Q1:寻找动作的工具(与"汽车"高度相关)
Q2:寻找动作的主体(与"司机"高度相关)
Q3:寻找动作的修饰(与"快"、"稳"等相关)

这种理解很好地解释了:
1. 为什么需要Q/K分离
2. 为什么需要多头QKV机制
3. 模型如何自动学习到不同类型的上下文关系

最后,我们来进一步了解第三个关键角色 V

V与Token表示的连续性

一个token 的 V(Value)与该 token 的初始embedding最相关,因为表示的都是这个token的内容和意义。

- 初始embedding:代表词元在大规模预训练中学到的一般含义,好比是查了词典
- Value向量:可以看作是这个初始表示在特定上下文中的延续和更新

换句话说:
1. Embedding是词元的"基本词典定义"
2. Value是这个定义在特定语境下的"具体表达"

Value在模型中的演化

随着信息在多层网络中的流动:

初始embedding → 第1层Value → 第2层Value → ... → 最终表示

这个过程中:
- 每一层的Value都承载了更加丰富的上下文信息
- 同时保持着对原始token含义的连续性(若担心连续性衰减大,还可以用残差来弥补)
- 这种演化是渐进式的,而不是断裂式的

 Q/K与V的本质区别

- Q和K主要服务于"建立关系”(俗称“挖坑和填坑”)这一目标
- Q和K提取出用于匹配的查询特征和索引特征
- Q和K自然比V更抽象、更概括

- V则直接承载"具体内容"
- 包含词元需要传递的实际信息
- 更具体、更详细

形象地说:
- Q/K像是图书馆中的检索系统
- V则像是书架上的实际书籍内容

从整个模型的角度看:
1. 初始embedding进入第一层
2. 每一层都通过注意力机制加权求和以及前馈网络来更新下一层token表示
3. 最终层的表示涵盖了上下文的全部关系和意义,直接赋能输出

 

【相关】

DeepSeek爆火真相:不靠“人盯”, 让AI自己学会慢思考

本文整理自InfoQ策划的DeepSeek系列直播第二期节目——DeepSeek爆火背后DeepSeek,纯强化学习路线到底有何不同。在直播中,出门问问大模型团队前工程副总李维博士聚焦推理范式的创新,分析了R1 Zero 对推理模型平民化的创新贡献。他提到,DeepSeek通过开源和透明化,证明了不需要过程监督,仅通过结果控制就能训练出优秀的推理模型,这大大颠覆了传统认知以及OpenAI 所暗示的需要在每一步监督推理强化学习的观点。

 

DeepSeek 的最大功绩在于将这一切透明化

InfoQ:“DeepSeek坚持纯强化学习路线,但业界常说RL(强化学习)是‘炼丹’”——他们如何让这个过程可控和“平民化”?有什么"推理范式的创新"?

李维博士:实际上,推理模型的强化学习一直是业界的难题。大约半年前,IIya 等人宣称预训练时代已经结束,这意味着单纯依靠预训练模型的规模扩展来提高性能已经难以为继。GPT5迟迟不能上线也是预训练式微的一个迹象。因此,业界开始寻找新的增长道路,推理大模型在头部团队开始暗流涌动,直到 Open AI发布全球第一个推理大模型O1. 紧接着就是DeepSeek的R1出圈,这就是deepseek爆火的背景。

从 神神秘秘、据传引发了OpenAI宫斗的Q-Star 项目开始到 o1 大模型的推出,推理大模型被AI主流广泛公认为新的范式。这种范式的核心是开启模型的“慢思考”能力,即所谓 System 2,利用强化学习提升模型在复杂任务中的智能程度。然而,这一切都是闭源的,OpenAI 甚至故意制造了一些神秘感,遮掩其思维链的内容。除了少数头部玩家如 Google 和 Anthropic 在背后悄悄探索追踪外,其他团队对这一领域知之甚少。

DeepSeek 的最大功绩在于将这一切透明化。它的模型和详尽的技术论文全部开源,甚至也不怕露怯,在系统里公开了思维链的所有内容。它通过纯粹强化学习,证明了即使没有过程控制数据,仅通过结果控制也能达到头部推理大模型的水平。这就好像是捅破了一层窗户纸,让业界看到了强化学习平民化的道路。

 

InfoQ:推理范式的创新听起来很抽象,能否举个例子?

李维博士:DeepSeek 的R1论文非常出色,堪称大模型领域中的一篇佳作。论文分为两部分:一部分是关于 Zero 的研究,这是纯粹的强化学习推理方向的成果,非常精彩;另一部分则是基于 Zero 研究成果的实用系统 R1,这是一个真正上线的头部推理大模型。在开发 R1 时,需要考虑实用性,包括综合性能、安全性以及各种实用考量等,因此论文中详细介绍了四阶段训练的最佳实践(best practice),帮助其他团队理解和复制这一成果。

论文最精彩的部分还是 Zero 的研究。Zero 的研究证明了一个颠覆性的观点:与传统认知(或 OpenAI 所暗示的需要在每一步监督推理强化学习的观点)不同,实际上并不需要过程监督。仅通过最终结果(即“黄金标准”)作为监督信号,就能训练出推理大模型所需的“慢思考”过程。

这是 Zero 的最大亮点,也是其名称的由来——它借鉴了 AlphaZero 的精神。AlphaZero 在人工智能历史上开创性地完全不依赖人类棋谱或经验学习,而是通过自我对弈的再生的过程数据(即:棋局状态+落子+评分的三元组步骤数据),实现了零人类监督的强化学习,并最终完全碾压了人类顶尖棋手。DeepSeek 的 Zero 研究也是如此,它表明在推理任务中,模型可以自主生成内部的过程数据,即思维链(CoT,Chain of Thought)序列,而无需人类标注。

具体来说,推理模型最初以数学和代码为对象,因为这些领域本身就存在标准答案。从宏观上看,这其实是一种典型的端到端监督学习,因为输入端(数学题或代码题)和输出端(答案或代码运行结果)都是固定的、已知的。然而,从输入到输出的过程非常复杂,信息差很大,这就需要一个“思维链”作为桥梁。就像人类遇到难题时需要分解问题、逐步思考一样,模型也需要这样的过程。DeepSeek 的研究发现,模型本身具有自主学习这种深度思考过程的能力,只要给予足够的时间和空间。如果没有这个空间,模型就只能直接从问题跳到答案,信息鸿沟大,随机性就强,成绩好不了。

DeepSeek 的解决方案是通过设计一个简单模板引导模型进行思考。具体说,就是在传统的监督数据 question+answer里面人为增加了一个标签[think]: question+[think]+answer, 通过强化学习的方式,模型会自主填空,再生过程数据 question+cot+answer,以此迭代学习,cot中就自动出现了反思、自我校正等过程。这表明,只要给予模型思考的空间,它就能自主生成思维链。非常奇妙!

 

给模型留够充分的自主学习空间

InfoQ:动态推理路径听起来像AI自己“画思维导图”——但如何避免它中途跑偏?比如写代码时突然开始写诗?

李维博士:从目前的情况来看,这种可能性几乎不存在,或者概率极低,可以忽略不计。在deepseek公布他们的结果和研究细节之前,大家确实对这一点感到困惑:只靠结果监督,没有过程监督,深度思维不会乱套吗。在没有真正进行大规模强化学习实验之前,这确实是一个很大的疑问。就好比放风筝,你只牵着一根线,让风筝在天上自由飞翔,你会担心它会不会一头栽到地上。

现在看来是过虑了。它不会走偏的原因在于,所有这些推理的强化学习,包括自主生成的推理思维链的数据,实际上都是建立在原有的头部大模型(如V3)的基础上的。这些大模型在海量数据的学习过程中,已经很好地掌握了如何把话说得顺溜。这种“顺溜”的背后是条理性。虽然不能说它完全等同于逻辑性,但至少不会偏离到完全不合理的情况。就像一个人说话很顺畅,背后的思想相对来说也是有条理的。

所以,模型在原有大模型的基础上生成数据,经过筛选和强化学习迭代,会越来越条理化。这种思考方式本身是由大模型自然生成的,再加上有选择机制在不断强化过程中让它越来越符合条理地导向正确答案。

话说回来,在研究人员真正做出成果之前,大家心里还是充满了怀疑和疑问,不知道让机器模拟学习人类的高阶智能这条路是否真的能走通。如果是一个能力弱的小模型,这条路是否能走通就很难说了。但V3本身是一个很强大的基座模型,在此基础上让模型自己生成思维链,虽然这些思维链并不总是很有条理,但并不影响最终结果。因为这是一个以结果为导向的强化学习过程,只要坚持用正确和错误的结果来控制强化学习过程,即使思维链中有时会出现一些偏差,但总体目标是一致的,最终还是能学到推理高难度题目的能力。

再从更大的角度来看,我们发现当大模型发展到一定程度时,日常人类的数据已经基本用尽,高品质的数据也所剩无几。要进一步提升能力,就必须依靠模型自己生成数据。说到底,AI发展到现在,需要AI自己反哺自己才能进一步提升

在过去很长一段时间里,很多人对这一点存在疑问,担心模型自己教自己会导致退化,或者即使是一个好的模型教一个差的模型,也会有天花板。但现在回过头来看,再生数据的重要性越来越大。不仅是推理模型,就连多模态大模型也是如此。以Sora为例,我们知道视频和语言之间的自然对齐数据非常少,很难找到大量对视频情节进行详细讲解的数据。为了实现视频和语言的对齐,Sora选择了再生数据的道路,用自己的模型对整个的视频训练数据集进行了非常详细的标注。再生数据助力,Sora成为了第一个爆款的视频大模型。如今,国内的视频大模型也已经迎头赶上,如快手的可灵和字节的即梦,甚至比Sora还要更强一些,这背后也离不开再生数据的作用。

 

InfoQ:另一方面,与 OpenAI 的 o1 相比,DeepSeek R1 还有一个显著亮点是将推理思维链应用到了语言文字的创作和风格模仿能力上,这一点可以详细介绍一下吗?

李维博士:o1 出来时,大家都知道它在数学和代码能力上有了显著提升,因为标准测试显示它达到了一个更高的水平。但大家没有意识到的是,这种推理能力,或者说“慢思维”能力,不仅仅在需要严格逻辑推理的领域表现出色,它在传统的语言文字创作方面同样可以大放异彩。

传统上,语言文字能力一直是大模型的强项,大家都知道大模型生成的语言非常流畅。到了像 4o 或 V3,它们写文章已经很顺了,似乎提升空间不大。然而,当要求模型写一篇古典诗歌,或者模仿鲁迅的文风时,之前的模型还做不到。直到 R1 推出,这些问题都得到了解决。从社会效应来看,这其实是非常厉害的。

老实说,真正关心数学或代码的人并不多,虽然我们知道代码是今后几年的一个大方向,自动编程能改变世界。所有 IT 方面的东西归根结底都是软件,数字世界是由软件构成的。如果软件能力可以从手工编写变成模型辅助,甚至模型自主编写,这将极大地提高我们的生产力。这是大家都能看到的,但对普通老百姓来说却没有那么直观,因为他们面对的更多是写文章如何出彩这类任务。

R1 的文科能力被大家发现后,不仅仅是极客或者做软件应用的人看到了推理模型的好处,普通人也为之奔走相告。一旦上手,任何人都可以成为诗人、文学家、哲学家,这种震撼是非常大的。在o1 出来时,大家没有这种感觉,可能是因为 OpenAI 没有意识到,或者至少没有聚焦这一点。但 DeepSeek 在做代码和数学推理时,内部肯定已经意识到,这种“慢思维”在文字能力方面也可以提升一大步,尤其是在中文领域。

大家都知道,中文的数据相对没有英文那么丰富,所以之前大模型写英文诗可以写得很漂亮,但写唐诗就不够好。这可能是因为中文数据要么量不够,要么品质不够,导致模型学习得不够到位。我们一直觉得这是一个遗憾,模型写诗有时押韵,有时不押韵,有时多一个字,少一个字,更不用说平仄,总是有问题。DeepSeek 在这方面肯定下了功夫,其数据品质一定比行业标准更高、更好。

但大模型光有数据还不够,另一条腿是推理时间的计算量。在用户实际使用时,增加计算量和思考时间,我们发现模型的文字能力显著提升了层次,这给大家的震撼非常大。思维链是模型“慢思考”的一个特征。一开始,我们可能想当然地认为,逻辑思维是它的核心,思维链就是要非常严谨地符合逻辑的每个步骤,以确保在数理化和代码中表现出色。

但我们根本没想到,在文学创作这种领域,并不需要严谨的逻辑思维,它更多的是要有想象力,需要反复斟酌和修改。比如你要写一篇非常漂亮的文章,或者模仿一种风格,你需要考虑的方面很多,写古风诗词要考虑押韵、平仄、用词,考虑如何用古典文字表达现代概念等。为了写出一篇好文章,你需要周密地计划,这本质上是一种“planning”,而不仅仅是狭义的“reasoning”。可见,慢思维背后的真正价值在于为最终结果做铺垫,制定计划和反复修正。无论任务是文科还是理科,只要是高难度的任务,都需要这种“planning”的时间,就像我们打草稿、反复校改一样,这些都是思维链的用武之地。

 

InfoQ:思维链机制具体是如何产生的?

李维博士:DeepSeek 之所以能够产生复杂的思维链,背后是因为它是基于头部大模型V3训练的,而 V3 所涵盖的知识比我们任何个体所了解的都要广博得多得多。在这基础上,关键点是要给模型留下空间,让它有自主学习的机会。作为设计者或开发者,需要设计出这样的空间,让模型自己去填补、去学习。DeepSeek 就是这样实现的。它设计了一种格式,在输入问题question和输出答案answer之间,它留下了一个“思考”的空间,用标签 [think] 来标记: question+[think]+answer。这个 think 标签就是准备要学      思维链(cot) 的, 虽然开始为空,Zero 的 research 表明:只要留下think的标签,就给LLM自主填补cot 留下了空间。此后他们“啊哈”地惊喜发现,越来越条理化的cot 居然在 GRPO 组内选优的强化学习迭代算法的指引下,就自主学出来了。啥也不用做,模型就是自己要思考,而且能思考。LLM really wants/tends to think and think deep if given a chance.  比如,它可能会在推理过程中发现自己前面的某个结论与已知事实不符,于是就会自我纠正,说:“不对,这里可能有偏差。”这种反思和自我纠正的能力,是模型在学习过程中自然形成的。可以想像研究者当时的兴奋之情, 简直就是上帝给他们面授了天机。不但他们“啊哈”, 我们读论文追踪他们的人也感觉开了天目,不可思议,但 it just works。Zero research 的美丽就是没有人工的过程数据的任何干预,完完全全的纯强化出来的奇迹。

从信息论的角度来说,思维链降低了困惑度(perplexity),搭建了从难题到答案之间的桥梁,使得得出正确结论的可能性增大,从而提高了模型的智能。

 

推理模型已经进入“平民化”时代

InfoQ:如果让您给程序员推荐一个最值得复现的DeepSeek模块,会是哪个?比如各种声称几十美元复制R1的Aha moment?

李维博士:如果让我推荐程序员群体最值得复现的 DeepSeek 模块,大概会是与 Zero 研究相关的部分。这种复现并不是从全面能力上,而是证实了 Zero 研究中揭示的关键点——机器确实能够自主学到反思能力或慢思维推理。这是 OpenAI 一直遮掩不让人知道的,也许他们早就悟出来了,但就是不公开。

现在,我们看到至少有五六组不同的团队,用很少的资源就复现出了 R1 的这种反思能力。这不仅是一个有趣的实验,更关键的是,它标志着推理模型已经进入“平民化”时代。以前,大家不知道推理模型是如何工作的,只知道需要大量的过程数据,模型才能学会慢思维。这被认为是一个难以跨越的门槛,因为过程数据很难获取,而且强化学习的不稳定性高、对数据要求也高,所以很多程序员觉得这条路很难走。

但现在,我们知道可以绕过这个最繁难的过程数据,通过有限的资源复现这种“Aha moment”,证明慢思维能力是可以让模型自主学出来的。基于这个前提,如果你是一个行业专家(domain expert),在自己的项目或应用领域中,你会想:是否可以用这些技术在你的领域实现大幅提升?这是完全可能的。因为即使是最强大的大模型(如 V3 或 4o),在具体场景中如果不经过优化,也只能达到 60%~70% 的正确率,而在 real life应用场景中,经验告诉我们没有 80% 或 85% 以上的正确率,根本无法上线一个真正有价值的系统。

从大模型的“开箱即用”(out-of-box)结果到真正能投入应用并产生价值,中间存在一个差距。以前,我们想到的唯一方法是收集领域数据进行微调。但现在,我们多了一条路:顺着推理模型的思路,让系统充分发挥推理阶段的慢思维能力,从而提升数据质量到可接受甚至出彩的程度。这条路似乎已经打通了。

不过,我的码农朋友告诉我,他做了一个微调(SFT)与deepseek式强化学习(RL)的对比实验,发现RL的确强过SFT,但RL训练目前的计算代价还是远远大于SFT。效果好于SFT可以理解,因为SFT的数据总是非常有限的,而RL自主再生的数据成功强化的话,会远远大于SFT数据。

仔细看 R1 的设计,它是一个实用系统,不像 Zero 那么纯粹。Zero 是一个研究项目,旨在证明可以排除人类干预来构建推理模型。但 R1 是为了实际应用,所以它结合了微调和强化学习:遵循他们自己创新的SFT+RL+SFT+RL的四阶段训练的pipeline。它在第一阶段是微调,使用了 2,000 条左右的人类过程数据来提高效率,他们称为“冷启动”。强化学习之后,又加入了微调和最后的偏好强化学习,以确保合适的数据配比和能力平衡,以及与人类偏好的对齐。这种设计是经过深思熟虑,可能经过了很多尝试和调整,最终呈现出的一个最佳实践。

虽不好说R1 的这种设计一定就是绝对的最佳方案,但它确实提供了一个很好的思路:现在我们有两个工具——SFT 和 RL。如果能够将这两个工具很好地结合起来,互相补充,那么在实际应用场景中,我们就能构建出更好的系统。

从更广泛的意义上说,DeepSeek 的出现不仅是因为各种原因而短暂火爆,它更重要的作用是极大地加速了大模型向应用领域发展的速度。这对整个行业来说是一个巨大的利好刺激。

 

InfoQ:有人说大模型是“暴力美学”,但OpenAI 的前首席科学家、联合创始人 IIya 说预训练到头了,怎么讲?推理模型出现的背景就是增加了又一个暴力美学的scaling law 吗??

李维博士: 这更像是技术聚焦点的转移和技术创新的范式转变。大模型涉及三大块:首先是预训练,这是大模型的基础能力,从海量数据中学习基本规律;其次是后训练,最初主要是微调,OpenAI 早期也用了一些强化学习(如 RLHF)来对齐人类偏好,但到了 Meta 时,他们甚至放弃了典型的RLHF,代之以更简单的DPO,因为与很多人一样,他们玩不转。最后是推理阶段的工作,即模型上线后与用户交互的阶段。

这三个阶段理论上都可能找到资源投入与性能提升之间的正相关S曲线,即scaling laws的某种表现函数。在过去,预训练是最受重视的部分,大家认为只要数据量不断加大、模型规模足够大,能力就一定持续提升。

LLM Scaling的底层逻辑是什么?为什么到了千亿tokens这种以前难以想象的数据规模,大模型依然显得"吃不饱"?为什么从千亿扩展到万亿tokens,scaling law依然有效?

这个现象的关键在于LLM是序列学习(编码)和序列推理(解码)的系统。序列本身是一维的,但序列中蕴含的patterns和规律性却是高维的。举个例子:即使是简单的"猫追老鼠"这样的序列,背后可能涉及物种关系、捕食行为、空间运动等多个维度的知识。这种多维知识表现在序列层面,就会发生天然的组合爆炸。对大数据的"大胃口"正是应对这种组合爆炸的有效策略。

 

然而,人类自然产生的高质量数据是有限的。预训练已经几乎吃尽了现有的高质量自然数据。业界开始意识到数据增长的困扰,性能提升也变得困难。GPT-5 难产,据传投入大量算力却收效有限,这表明预训练可能遭遇了瓶颈

于是,业界开始探索另外的AI智能增长曲线。强化学习的推理模型就是在这种背景下走到主流舞台的中心:应该在后训练中加入纯粹的强化学习。以前的强化学习依赖人类偏好,但这次是让模型在得出答案之前有更多思考时间,学习背后的规律。V3 已经做得很好,但当时除了业界并没有在社会上引起太大轰动。直到 R1 出现,deepseek 才真出圈了,成了春节后最受关注的大众话题,在海外也引发了热议和震惊。R1 代表了一种新的范式。在 R1 之前,只有 OpenAI 出了 o1 这种推理模型,给人一种高不可攀的感觉,大家不知道如何跟进。然而,R1 不仅复现了 o1 的能力,还更加透明、清晰。这种反差进一步凸显了 R1 作为开源大模型引领者的重要性。

 

未来脑洞

InfoQ:DeepSeek 乍看就是工程上的极致化,为什么会引起全世界的轰动?它的获客速度(一周上亿)超过了 ChatGPT 核爆的时候?它的历史地位到底如何?

李维博士:从我个人的体会和感受来说,大模型的发展历程中,ChatGPT 的爆火是一个标志性事件。其实我们业内人在 ChatGPT 出现之前就开始关注大模型了,至少从 GPT-3  开始吧。当时 GPT-3 的 Playground 出现,我们乐在其中,就已经感觉到一场风暴要来了。但从整个社会的感知来看,真正引发全社会震动的还是 ChatGPT 的出现,它像核爆一样震撼了我们,超出了所有人的预期。ChatGPT 出来,我们就陷入了一种痴迷的状态。

R1的 出现,我认为是继 ChatGPT 之后的第二个重大震撼。当然,在 ChatGPT 和 R1 之间也出现了一些有影响力的大模型,比如 4o,它也是一个了不起的里程碑。我们当时觉得 ChatGPT 已经很好了,3.5 版本已经很出色了,但 4o 的出现证明了它还可以更好。我们一直在案头使用它。再后来出现了 Sora,这种视频大模型也给人带来了震撼。我个人还特别喜欢一个叫 Suno 的音乐模型,它在音乐创作方面表现出色,让我觉得自己仿佛一夜之间就能成为音乐家,想写什么歌就写什么歌,还能配上自己的视频。这些模型都给人带来了不同阶段的震撼,但都没有 R1 这么强烈。

如果让我排序的话,我认为 R1 的震撼力仅次于 ChatGPT,甚至超过了 4o 和 Sora 所创造的轰动效应。R1 的震撼感有点类似于当年 ChatGPT 刚出现时的感觉,让人痴迷。ChatGPT 是开天辟地的大模型,R1 总体上是一个追随者,尽管它有很多创新亮点,有些方面甚至超越了之前的模型,比如在古典诗词创作和文风模仿方面。作为追随者,能在太平洋两岸乃至全球引起如此大轰动,是奇迹般的成就。

从实际效果来看,R1 的产品化非常成功。它在一周内就获得了上亿客户,远远打破了 ChatGPT 所创造的记录,提升了整个社会对 AI 的感知度。此外,从地缘政治对技术应用的影响来看,国内很多用户一直渴望使用全世界最先进的大模型,比如 GPT系列、Claude 或 Gemini,但常常够不着。而 R1 的出现,让人们不用担心国内外的限制。这些也都是促成R1 快速普及的因素。

 

InfoQ:您理想中AI编程的终极形态是什么?是程序员对着AI说“给我做个抖音”,它就直接输出可部署的代码+运维方案吗?

李维博士:总是有两类人怀疑派和乐观派。像 Ilya 这样的人,认为通用人工智能(AGI)已经迫在眉睫,超级智能(ASI)也在不远的未来,所以现在最大的问题是确保超级智能的安全性

Anthropic 的 CEO 预计,在未来 3 到 5 年内,大模型将实现真正的突破,不仅仅是目前让我们震撼的表现和demos,而是真正能在生产力上对整个社会带来革命性的改变。他们所说的,归根结底就是 AI 能规模化平替人类的体力劳动和脑力劳动。目前大模型虽然很热闹,但在社会生活中的实际应用还远未达到上一代移动互联网平台的水平。上一代的 super apps,比如美团、滴滴、小红书、抖音等,它们改变了我们日常生后的主要方面,无论吃穿住行还是通信和娱乐,它们最大程度缩短了供应商和客户之间的距离,这些价值我们每天都能感受到。而玩大模型虽然有趣,但在生活层面的实际价值还不明显,应用层面还处于爆发的前夕。

值得指出的是,DeepSeek 的出现降低了大模型应用门槛,为应用铺平了道路,虽然目前我们还没有进入应用真正爆发的时代。未来,当AI应用真正爆发时,会是什么时候、什么样子呢?我认为,最终目标是 AI 在脑力劳动和体力劳动中全面代替人类。大模型对白领阶层的冲击,迹象已经很明显,甚至连程序员群体都难幸免。体力劳动方面,具身智能发展也很快,无论是人形机器人还是机械手,都在逐步代替人类的体力劳动。

当然,这也会带来副作用,比如大量工作岗位消失,社会如何适应这种生产力大发展但缺乏工作岗位的状态,是另一个层面的讨论。但从AI本性和最终目标来看,AI 的发展可以有两个里程碑:一是何时能替代人类 50% 的工作,让社会只需要一半人工作,剩下的人通过基本收入保障(UBI)等方式维持一个体面的自由生活,在我看来这就是AGI到来的标志;二是何时能替代 90% 的人类工作,这可能算是所谓的超级智能(ASI)出现的时候,某种意义上的技术共产主义。

 

【相关】

Does the New Reasoning Paradigm (Query+CoT+Answer) Support a New Scaling Law?

— Reflections on LLM Scaling Laws and DeepSeek's R1

My friend Zhang Junlin's article "Looking at the Future of Scaling Laws through DeepSeek R1" has sparked interesting discussions among peers.

Core Insights from Initial Discussions

Professor Bai summarised the key highlights as follows:

Infinite stacking won't lead to infinite growth (physical laws don't support this)

Only S-shaped growth is possible, with diminishing returns inevitably appearing

The initial emergence of language capabilities relates to the density of linguistic knowledge in training data

The next growth phase represents a second S-curve, driven by common sense knowledge, which requires more computing power due to lower knowledge density

The third phase involves learning logical reasoning (Chain of Thought), where natural data has even lower density of such knowledge. Brute-force mining with computing power becomes inefficient, making reinforcement learning with synthetic data a more rational approach

As Dr. Lu points out: The term "Scaling Law" is becoming overloaded. While S-curves (nonlinear curves characterized by sigmoid functions) can describe technology adoption lifecycles, they typically occur in succession (one technology hits its ceiling, making way for another). Large language models' multiple "Scaling Laws" confirm this pattern, with some overlap between Test-Time and Post-Training "Scaling Laws".

The Nature of LLM Scaling

Let's examine the fundamental logic behind LLM scaling. First, it's crucial to understand that LLMs are not databases - they don't aim to memorize long-tail data details. Large model training essentially compresses big data, or more precisely, compresses the knowledge systems behind the data (including common sense and encyclopedic knowledge), focusing on capturing patterns and regularities of various patterns (what we call generalizations).

Conventional intuition suggests that as data scale increases, redundancy increases too. Regardless of filtering, cleaning, and deduplication, growing redundancy seems to imply diminishing returns. So why do large models still appear "hungry" even at the unprecedented scale of hundreds of billions of tokens? Why does the scaling law remain effective from hundreds of billions to trillions of tokens?

The key lies in LLMs being sequence learning and sequence decoding systems. While sequences are one-dimensional, the patterns and regularities behind are high-dimensional. For instance, even a simple sequence like "cat chases mouse" potentially involves multiple knowledge dimensions: species relationships, predatory behavior, spatial movement, actor-patient roles, etc. This multi-dimensional knowledge naturally leads to combinatorial explosion at the sequence level as information is flattened in language. The "appetite" for insatiable big data effectively addresses this combinatorial explosion. As long as there isn't complete information redundancy, additional diverse sequences will help models abstract data patterns more precisely.

The Two vs. Three S-curves Debate

Zhang Junlin observes that since OpenAI's O1, two other phases have gained recognition with their own Scaling Laws: the reinforcement learning Scaling Law (RL Scaling Law) for post-training, and the Inference Scaling Law (also called Test Time Scaling Law).

This raises a crucial question: Are there really three S-curves, or just two? How comparable is the reasoning model's S-curve to the pre-training S-curve?

While theoretically we can identify three phases:

Pre-training
Post-training (especially reasoning-focused reinforcement learning)
Inference phase

In practice, post-training and inference phases likely share a single S-curve; there aren't two independent growth curves.

DeepSeek R1's Insights: The Truth About "Slow Thinking"

Consider DeepSeek R1: users can activate "deepthink" mode to enable Chain-of-Thought (CoT) reasoning, but they can't actually control reasoning quality by increasing computation time. Why is this?

Let's examine a concrete example. When R1 solves a complex mathematical problem:

Traditional models might directly answer: "The result is 42"

R1 shows detailed reasoning: "Let's think step by step: 1) First consider... 2) Then we can... 3) Finally, we get 42"

While R1's response appears to demonstrate "slow thinking" (CoT), this reasoning process reflects actually a generation pattern fixed during training, not dynamic exploration of multiple potential reasoning paths during response time. In other words, CoT+answer might look like "slow thinking," but it doesn't fundamentally change the unidirectional next-token prediction paradigm. R1's CoT+answer creates an illusion of slow thinking, but the generative nature remains fundamentally the GPT "fast thinking" paradigm. At test time, unlike AlphaGo, the depth and scale of thinking isn't dynamically explored, though beam search, if applied, can provide implicit multi-path optimization internally.

Test Time Compute Constraints

The industry's buzz word "test time compute" refers to reasoning models requiring more online computational resources compared to traditional non-reasoning models. For example, R1 with CoT enabled might need several times more computation time than its base model V3 for the same problem. However, this increased computation results from behavior patterns acquired during training, not dynamically adjustable compute investment. Without controllable scalability in test time compute, we can't really talk about a test time scaling law.

A major difference between pre-training and CoT reinforcement learning lies here: pre-training scaling laws can remain stable long-term because once training completes, it doesn't significantly impact online response time - the generation mode remains a simple query+answer. Therefore, offline training for months is acceptable if the resulting model shows significant capability improvements. However, reasoning models' post-training CoT reinforcement learning differs - it cultivates models' habits of responding with slow thinking, changing the generation mode to query+CoT+answer. Extending the CoT isn't just about the cost of training resources and time; more critically, it reflects in extended test time compute for each query during deployment, severely delaying system response time. Users generally have limited tolerance for slow thinking computation time and delays during online system use.

The Sustainability Debate

OpenAI's Sam Altman and Anthropic's Dario might argue that for extremely complex problems (like proving the Riemann hypothesis or designing next-generation aerospace vehicles), even if a model needs a week of computation time, it's still a massive improvement over human teams requiring decades. However, this argument has two issues:

LLM feasibility for such super-complex problems remains far from validated

Extreme scenarios lack universality and can't serve as data points for sustainable scaling laws

This isn't to deny S-curves as effective models for describing scaling laws, nor to reject the rationality of S-curve stacking. The combination of pre-training and post-training growth curves (s1 and s2) might indeed reflect the overall relationship between resource investment and performance improvement. However, we should carefully examine whether CoT reasoning truly opens a sustainable scaling curve.

Conclusion: How Far Is the LLM Road to AGI?

If reasoning models' scaling laws lack sustainability, this raises a deeper question: Can we reach the promised land of Artificial General Intelligence (AGI) through these two scaling laws alone? Furthermore, is the technical ideal of Artificial Super Intelligence (ASI) - AI replacing human labor and dramatically improving productivity - truly feasible?

Current evidence suggests that while pre-training scaling laws have shown considerable sustainability, reasoning models' scaling laws may quickly hit practical constraints. This reminds us that the path to AGI/ASI likely requires more innovative breakthroughs, not just simple extrapolation of existing methods. In the next phase of artificial intelligence development, we might need to discover entirely new growth curves.

[#LLMs #ArtificialIntelligence #DeepLearning #AGI #ScalingLaws #MachineLearning]

 

【相关】

张俊林:从Deepseek R1看Scaling Law

Technical Deep Dive: Understanding DeepSeek R1's Reasoning Mechanism in Production

A detailed analysis of how DeepSeek R1's inference mechanism works in production, and how it differs from training-time reinforcement learning.

Training vs. Deployment: Key Questions

1. Training Phase (GRPO): Does the reinforcement learning mechanism generate multiple candidate CoT+answer sequences to optimize the policy and cultivate "slow thinking" habits?

- The answer is definitively yes.

2. Deployment Phase: Does R1 implicitly generate multiple paths during inference but only display one? If so, how does this mechanism compare to traditional ensemble methods?

3. Comparison with AlphaGo's MCTS: How does R1's mechanism fundamentally differ from Monte Carlo Tree Search?

1. Inference Mechanism in Production

DeepSeek R1's real-time reasoning can be characterized by two modes:

A. Implicit Multi-path Generation and Selection

- Generation: The model may implicitly generate multiple potential reasoning paths (CoT+Answers) during a single inference but outputs only one.

- Technical Implementation: Through decoding strategies (e.g., beam width adjustment), the model maintains multiple candidate sequences, ultimately selecting the highest-scoring path.

- User Experience: Users see only the final output, though internal multi-path exploration occurs.

- Efficiency Trade-off: Setting beam_width=1 (greedy search) defaults to single-path generation for fastest response; increasing beam width improves quality at the cost of latency.

B. Explicit Multiple Candidate Generation (Optional)

- API Control: The num_return_sequences parameter allows explicit generation of multiple candidates.

- Practical Application: While not enabled by default in the DeepSeek App, this functionality may be available through enterprise APIs or open-source implementations.

2. Training Phase: Cultivating "Slow Thinking"

A. Role of Reinforcement Learning

- Objective: GRPO algorithm trains the model to generate more detailed, logical reasoning steps (longer CoT) to maximize rewards.

- Mechanism: Training generates multiple candidate answers, with rewards evaluating both answer correctness and format correctness.

B. Driving Forces Behind CoT Growth

- Reward Design: Longer CoTs naturally emerge when they lead to better answers.

- Data Feedback: High-quality SFT data generated through rejection sampling enhances this pattern.

3. Comparison with Ensemble Methods

Similarities

- Multi-path generation conceptually similar to ensemble predictions

- Result filtering comparable to voting/weighted averaging

Key Differences

R1's implicit multi-path generation is fundamentally a dynamic decoding strategy within a single model, distinct from traditional ensemble's static combination of multiple models.

4. Fundamental Distinction from AlphaGo's MCTS

AlphaGo's MCTS

- Dynamic Programming: Builds search trees through simulation

- Online Learning: Adjusts search strategy based on real-time feedback

R1's Implicit Multi-path Generation

- Static Model: Fixed parameters during deployment

- No Reward Modeling: Path selection based on model probability rather than cumulative rewards

Key Insights

1. Training phase GRPO cultivates detailed CoT capabilities for effective single-pass inference.

2. Deployment allows flexible trade-off between single-path (for speed) and multi-path (for quality) generation.

3. While model parameters are fixed post-training, decoding strategies offer some runtime flexibility.

4. R1's multi-path generation fundamentally differs from both traditional ensembles and MCTS-style dynamic planning.

This architecture achieves a practical balance between efficiency and effectiveness for large-scale industrial applications, though it sacrifices some dynamic planning and global optimization capabilities.

#ArtificialIntelligence #MachineLearning #DeepLearning #LLM #DeepSeek

【相关】

人类反馈是超级智能的桎梏吗?

回答这个问题之前,先从 AGI/ASI 谈起。

AGI (Artificial General Intelligence, 通用人工智能)
ASI (Artificial Super Intelligence,超级人工智能)

在当代人工智能历史上,这两个术语虽然流行的先后有别,常常混杂使用。它们是挂在AI先知(代表人物之一是伊利亚)和企业家(代表人物包括Sam奥特曼和马斯克)嘴边的最常用的词,作为鼓励自己和团队的目标,也 serve 给投资人和大众营销的作用。

这里谈谈我的看法。

机器达到甚至超越人类的技能,无论是人类顶尖个体的专业能力(例如围棋冠军、名校教授),还是人类总体的知识水平,这就是我眼中的 AGI。但这里的专业能力和知识水平,我认为并不包括重大的发明创造能力。这个意义上的AGI是一种确定的趋势,最多不过就是两年内实现,还是五年内实现的差异而已。

AGI 是确认无疑的,正在发生、已经发生、即将发生。

ASI 则是全面超越人类顶尖智能,包括发明创造的能力。ASI 的实现应该还可以商榷。现在就确信ASI可以在不太久的未来(有说三五年,也有说10年左右)实现的吹鼓手,主要是伊利亚、Dario(Anthropic CEO)这些AGI时代的“先知”们,他们是信仰者。奥特曼和马斯克貌似也在营销类似ASI的概念,但感觉更多是企业家需要画饼的驱动。

ASI比AGI更少共识,但可以描述。ASI 实现的时候,机器可以解开困扰数学家几百年的世纪难题,可以批量制造陈景润级别的模型把1+n等问题解决。更重要的是,ASI(for science)可以自己针对疾病制造特效新药,发明创造的速度比人类缓慢的探索要提升 n(Dario 好像说 n等于2)个量级。这一切带来物质极大丰富,重大疾病被有效控制甚至消除,寿命至少延长一倍,一句话,ASI意味着技术共产主义的全面实现。

人类反馈是超级智能的桎梏吗?

如果是,那又如何理解以人为本,与人类对齐的宗旨呢?

现在看来,以人为本以及人类(偏好)反馈对齐等,指的是最终结果或成品,这是人类价值观的体现。这一点永远不会改变,也不应该改变。但需要强调的是,人决定的是 what,不是how。what 永远是人说了算。至于生成结果的过程,现在看来,人类越来越有心无力,甚至成为障碍,而不是助力。

一个有意思的例子是,当 alpha zero 下棋到第30几步的时候,走了一步人类不能理解,连世界冠军也会判定是愚蠢的一步。但那却是超人智能的精彩过程,是制胜法宝的一个精妙环节。这种高招连冠军都不能理解,说明机器智能显然超越了人类智能的边界。如果在过程上依赖人类反馈,哪怕是围棋冠军来做标注,也会阻碍机器智能的超人潜力。

当这类超人智能大量产生的时候,人类很自然会感觉困扰。因为 by human nature,所有人多多少少都有某种控制欲,对于自己不理解、不能掌控的过程,总是持有戒心,至少是很不舒服。但可惜无解。未来会出现越来越多的不可理解的奇迹,或技术魔术。人类所能做的就是加强目标制定和结果控制,而不是“不自力量”试图过程控制。

最后谈一下马斯克的AI威胁论,主要是把人类类比为蚂蚁,而ASI类比为人类:ASI 灭绝人类文明不需要恶意,因为蚂蚁不构成人类的心理负担。

我认为,这个比喻是荒谬的,因为蚂蚁永远造不出人类,而ASI是人类创造的。人类与蚂蚁均属动物,但却不在一个价值参照系中。

但我们不排除,人类可以以ASI形态,制造出自己的上帝。

如果上帝是共识中的人格化的存在,人类完全可能把机器变成上帝。无论你在上帝与人之间是持谁是照着谁的模样创造的,the key 是,上帝与人位于同一层人类价值观的参考系上。上帝至善、至美而万能。善、美、能,都是人类的价值观的表现。

而蚂蚁不同,蚂蚁与人类不处于同一个参照系,人类 is way beyond ants。蚂蚁们自己没有尺子来度量人类。但人类对上帝是有度量或想象的。

人类对于结果(而不是过程)不理解,无法判别、或感觉不到好处的东西,最简单也是最自然的反应就是停止那个结果导向。再超级的过程智能,如果没有人类规定的方向,或违背人类的价值观,也是(原则上)随时可以按下停止键的。

所以马斯克的那种担忧,属于耸人听闻、杞人忧天。

但这不是说AI没有更加现实的威胁,例如真假莫辨造成的社会混乱,取代人类jobs而福利制度尚未建成而造成的恐慌,还有体制滞后、技术加速度所造成的不匹配和不适应,等等。这些都是看得见、正在到来、可以预见的巨大社会问题,而不是机器统治人类那种天方夜谭。

当然也不能排除ASI被恶人恶意使用可能对人类造成的伤害,但绝不是什么ASI像对待蚂蚁一样,可以任性消灭人类。恶意使用类似核扩散的潜在恶果,最终需要向对付核武器一样防控。

 

【相关】

Will DeepSeek Fail at Simple Math Problems?

Amid the waves of surprises brought by DeepSeek, an old friend pointed out that it struggles with simple math problems, using a popular elementary arithmetic question as an example:

Is 3.11 greater than 3.8?

What’s the core issue here?

In the wake of the DeepSeek frenzy, I looked into its research paper, which explains how its reasoning capabilities are enhanced through outcome-oriented reinforcement learning. The paper suggests that, in theory, outcome-oriented reinforcement learning can help a model learn proper reasoning processes. However, in practice, it’s not necessarily so.

Take the above math problem as an example. The answer is a binary yes/no question, meaning even random guessing has a 50% chance of being correct. This highlights a key potential flaw: outcome-oriented supervision signals are weak because they lack sufficient granularity. This kind of weak supervision inevitably hampers the model’s ability to learn proper reasoning processes.

Three Possible Solutions

  1. Scaling Up the Model
    One approach is to make the model larger and deeper, hoping that the theoretical concept of lossless compression based on Kolmogorov complexity can be pushed to its limit. In doing so, proper reasoning, as the "shortest program," might eventually be learned by the model. Theoretically, correct reasoning ensures accurate results. However, the gap between theory and practice makes it hard to place much confidence in this. The shortest program or lossless compression might just be an unreachable ideal.
  2. Targeted Supervision Data
    Another solution is to feed the model with problem-specific supervised data. For example, providing thousands or tens of thousands of reasoning cases involving such math problems. There’s no reason the model wouldn’t learn from this. However, solving one specific problem this way is merely a stopgap measure. Soon, others will come up with new edge cases involving weak supervision signals and reasoning pitfalls to challenge it.Another common challenge is the so-called “self-identification” problem. For instance, when asked “Who are you?”, many models, including DeepSeek (earlier versions), would claim they are ChatGPT developed by Open AI if no targeted supervised data is injected. After all, ChatGPT has dominated the internet in the two years since its explosive debut, and its data has inevitably influenced other models. However, this issue is already on the radar for specialized solutions and is gradually becoming less of a problem. Some Western media still claim that DeepSeek is just a distilled version of ChatGPT. Their evidence?  Probably based on early versions they tested, the DeepSeek bot often self-claimed to be OpenAI’s ChatGPT. But if you test it now, you won’t see this problem anymore. Most likely, it was fixed with specialized training data. Their research paper also mentioned addressing the self-identification as a problem.

    Similarly, the problem of comparing 3.11 and 3.8 can also be a transitional issue. If it disappears in the future, it won’t be a cause for celebration. Most likely, it will be resolved through targeted fixes rather than through fundamental improvements in intelligence brought about by algorithms or architecture changes or innovations.

  3. Re-introducing Process Reward Models (PRM)?
    The inherent weakness of outcome-oriented supervision signals is that it focuses only on the result while ignoring the checking of the process—a natural shortcoming of reinforcement learning driven by  results-oriented pragmatism in RL (following the “black cat, white cat” principle, lol). This is essentially the cost of abandoning PRMs (Process Reward Models). So, would re-introducing process-based reward models solve the issue? Honestly, we don’t know. This is the third possible path, and it might be worth exploring. But again, as mentioned in my previous blog post (DeepSeek's R1 Paper: A Storm in AI LLM Circle), PRMs aren’t easy to work with—they’re unstable and difficult to implement, although, in theory, they could help correct nonsensical reasoning during the process.

In conclusion, the issue with DeepSeek struggling with problems like 3.11 vs. 3.8 lies in the limitations of weak supervision in results-oriented reinforcement learning. While there are potential solutions—scaling the model, targeted data, or process reward models—each comes with challenges and trade-offs. Whether any of these approaches can fundamentally improve reasoning capabilities remains an open question.

 

 

 

The Turbulent Second Chapter of Large Language Models: Has Scaling Stalled?

The recent Chinese podcast from Guangmi's quarterly report on large language models, discussing the "scaling paradigm shift" toward AGI (Artificial General Intelligence), is well worth a listen. It touches on many key topics related to the AI industry landscape, offering a unique perspective and style.

The term "paradigm shift" may sound a bit dramatic, but as a seasoned analyst, Guangmi uses it to describe the current turbulent landscape accurately. While the AI arms race among industry giants is still in full swing, real-world scalable applications of these models are struggling to materialize. The question of how to justify investments has become a significant pressure point, or perhaps even a looming bubble.

Let's revisit some AI basics. There are three main types of learning in LLMs (Large Language Models):

(i) supervised learning;
(ii) unsupervised learning (self-learning/pre-training); and
(iii) reinforcement learning (RL, self-play/post-training).

Ilya has emphasized the importance of RL in exploring new directions for LLMs. Guangmi's podcast highlights RL as the pathway to the paradigm shift in AGI through large models.

Historically, two key milestones in RL have stood out: AlphaZero's victory over human Go players, which shocked the world, and RLHF (Reinforcement Learning from Human Feedback), which aligned models with human preferences and paved the way for ChatGPT’s explosive growth.

Currently, discussions revolve around the potential of a new RL-driven ecosystem for large models (though there's no broad consensus—it's primarily a conversation within small Silicon Valley circles) and the emerging trends in the "arms race" of large models. Here’s the context:

1. Pre-training scaling seems to have hit a bottleneck, with GPT-5 still unreleased;
2. The overall momentum of the arms race remains unchanged among the major players (the billionaire clubs/giants);
3. Key tech figures are proposing new roadmaps or trying to construct new scaling laws to continue the AGI journey.

Guangmi closely monitors trends in Silicon Valley. His small team conducts in-depth research in the Bay Area and has established extensive contacts. Having chatted with them over coffee a couple of times, I’ve found them to be a dynamic, young team under his leadership—a small but sharp presence.

Guangmi’s thoughts are well-structured, and his breadth of knowledge and understanding of the larger context are impressive. This is no small feat, as the landscape of large models, both in terms of the models themselves and the industry, is often akin to the parable of the blind men and the elephant. Even top experts and business leaders struggle to assess the full picture. Just recently, Meta’s Zuckerberg responded to a question about whether the AI arms race would deliver the expected AGI returns, essentially saying: “No one really knows, but we can’t afford to miss out,” reflecting a typical FOMO (Fear Of Missing Out) mindset.

We’re currently in a delicate phase with little consensus. However, the few tech giants that have propelled Nvidia’s stock to astronomical levels won’t allow the arms race to slow anytime soon, as it is central to their tech and business dominance. OpenAI continues to raise funds, and Ilya, with his new company, recently secured more investment, all of which keeps the race heated.

At the same time, the obsession with scaling among tech elites and the mainstream AGI circles in Silicon Valley persists. The endless demand for resources driven by this scaling wave of large models means that only a small circle of tech insiders has the opportunity and resources to experiment, sense, and adjust the roadmap.

According to Guangmi, the so-called self-play RL scaling is currently gaining traction within a small circle of about 200 tech elites in Silicon Valley, indicating that this is still a nascent trend—one that even management leaders have not fully aligned with yet.

It seems Guangmi adopts a “prophet” mentality at times, perhaps exaggerating this trend to alert his audience. He even suggests that if he were a large-model entrepreneur, he would focus 200% of resources on RL, betting on it as the future path to victory.

In reality, for most people, this advice is neither practical nor actionable—it’s likely aimed at tech giants or unicorns, though even for them, it may fall on deaf ears.

Reinforcement learning is inherently challenging. Even the open-source leader Meta LLaMA 3 has chosen to sidestep RLHF in post-training alignment. So, it's even less realistic to expect large-model teams to fully bet on RL as the core of a new ecosystem. Furthermore, this trend is, at best, a “subtle undercurrent” in Silicon Valley. We’ll likely have to wait until OpenAI’s “Strawberry” or the new version of Claude releases later this year to fully assess its impact.

It seems the first chapter of LLM scaling has indeed come to an end. The actionable items in the so-called second chapter might not emerge from lofty, exploratory scaling directions with an uncertain roadmap. Instead, the focus should be on finding market entry points, accelerating applications, and addressing genuine market needs (PMF, product-market fit), especially as the inference costs of top models like GPT-4o/Claude 3.5 become more affordable, and multimodal capabilities (such as advancements in hyper-realistic full-duplex voice and video) further enhance application opportunities.

For the industry, the bottleneck in scaling large-model applications is the sword hanging over its future. This will determine whether the second chapter of the tech adoption curve ends with a soft landing and eventual recovery. As for the arms race, it’s best to leave that to Elon Musk, Zuckerberg, and the billionaire club to continue playing.

Reinforcement learning, as an extension of pre-training, belongs to the realm of “post-training.” When pre-training hits bottlenecks and diminishing returns, strengthening RL is a natural complement. In the simulation of human cognition, pre-training represents the accumulated knowledge of human civilization, while RL applies that knowledge in practice, learning from the environment. This overall approach to intelligent learning makes perfect sense and is the necessary direction for applying large models.

My old friend Lu said: “It’s intuitive that RL is the path we must take because there isn’t enough supervised learning data anymore.”

Indeed, utilizing regenerated data to varying degrees has become common practice. It’s inevitable. Models can already generate data of higher quality than humans, and this will only improve. However, this is not the same as self-play's proactive exploration and data regeneration.

As Mr. Mao pointed out: “RL aligns with the cognitive processes of humans and epistemology. It’s essentially the process of receiving external feedback and being tested in practice. RL is active learning, while training is passive.”

Guangmi's RL paradigm shift suggestion still lacks the necessary catalysts. But this potential trend is worth keeping in mind. It’s best to remain cautiously optimistic and open-minded while watching how things unfold.

 

Related original:

大模型风云诡谲的下半场:scaling 失效?

Professor Ma's long paper out

Here is the link to Professor Ma Yi’s presentation from the Shenzhen Entrepreneurship Forum, in Chinese, recommended.

Professor Ma is a compelling speaker, and his talk is definitely worth listening to. His paper on whitebox transformer, over 100 pages long, has just been released (Yi Ma’s white-box transformer paper is available here).  Unfortunately, I haven’t had the time to dig into it yet. We’ll have to wait until more people have accepted or verified it before delving deeper.

His current claims revolve around using an extremely sparse approach to force transparency in transformers, with results that are reportedly on par with BERT and GPT-2 in many benchmarks. However, this doesn’t mean that he will be able to catch up with GPT-3 or later models anytime soon. But to be fair, it’s not a level playing field—he’s an academic without the resources to compete with mainstream AI in an arms race. What he does believe, however, is that he has opened a door—a path toward explainable AI in large models.

Honestly, I’ve always had a litttle bit doubts about Ilya’s theory explanation of shortest program compression (his Berkeley talk). From an ultimate theoretical perspective—where lossless compression is the ideal—the idea of continually scaling training, deepening, and lengthening learning makes sense, as it pushes the model toward becoming the smallest possible program for universal tasks. Ilya’s theory may hold up in this respect, at least in theory or as an end goal. But in any real-world scenario (e.g., under budgetary constraints, with methodological limitations), it’s hard to call a model purely derived through gradient descent the “shortest program,” because these models appear to be gigantic beasts with "huge circuits" inside, intuitively, should not be considered "short or small".

Models with hundreds of billions or even trillions of parameters are massive monstrosities, succeeding mainly through sheer size rather than through high regularity or elegance. Emphasizing how impressive their compression ratios are or how well they handle lossless compression may help explain the generalization and emergeng abilities in sequence learning from a theoretical standpoint. But in practice, any model at a given time is far from being the “shortest program.”

This highlights an unavoidable distance between theory and practice. Ilya essentially hedged practice with theory along a future time axis, but our immediate reality doesn’t seem to align with this. It’s like a clumsy wrestler trying to brand himself as sleek and slender fashion model.  Visually not a fit, to most of our eyes.

Instinctively, LLMs feel full of rote memorization with significant redundancy. Under real-world conditions, achieving extreme or lossless compression seems impossible.

On the other hand, Professor Ma’s sparsity approach almost feels “over the top.” Enforcing the same weight for QKV directly seems a bit crude and simplistic, yet it still managed to be trained successfully. This shows that there’s a lot of flexibility within transformers—no matter what restrictions or pruning are applied, the model still finds a path out. In this sense, Professor Ma’s pursuit of the “shortest program” is more real and direct—it’s so short that even a human can interprete the process (hence the LLM explainability).

Yet the difference between these two extremes is still mind-boggling. On one side, we have gigantic models, and on the other, extreme simplicity to generate whitebox models. The fact that both approaches work is shocking.

Speaking of simplicity and explainability, here’s an interesting anecdote in AI history: Back in the day, during the era of symbolic MT, one of the earliest deployed systems (Siemens' METAL) for English-German translation used only eight symbolic features (such as human, animal, etc.). The rules were simple, transparent, and easy to explain. This shows that extreme simplicity and rule-based transparency can work in some rough application scenarios (where English and German are linguistically close, making translation easier).

Later, we MT-ers expanded the number of features to the thousands, trying to cover more of the long tail. Even then, it wasn’t perfect. At the time, we thought that with enough effort, we could match the quality of statistical MT. But now, we know that even if symbolic MT could catch up and match statistical MT, it’s still far from competing with neural MT.

So, could we have continued refining features further? It wasn’t because we didn’t want to keep extending symbolic features (similar to one-hot encoding, but with the internal structure of ontology/taxonomy). We wanted to go beyond thousands to tens of thousands of features. But in reality, thousands (of features in size) were already reaching the limit of human experts’ capacity to understand (AI explanability), manage and debug. Expanding further would have been unmanageable.

Meanwhile, how many parameters do mainstream Transformer neural networks have? And the space and granularity they represent are on a completely different scale. Given the vast difference in scale between the two, it’s natural to doubt any efforts to bridge this gap for AI explanability.  How could that even be possible?

That’s why I’ve always felt that explainability in large models is an elusive goal. But Professor Ma is telling the world that they’ve achieved it.

 

 

Relevant link:

Professor Ma Claims to Have Fully Unveiled the Mysteries of Neural Networks

What did Ilya see? -- secret behind success of LLMs

马毅教授的演讲,值得一听

创业邦深圳会议马毅教授的演讲链接在此:https://mp.weixin.qq.com/s/ibxGO_A7H-akpbwf2R2mGw

马教授还是很能讲的,他上面的演讲,很值得听。他的100多页论文也已经放出来了,可惜没时间钻研了,等以后更多人接受或验证后再说。

他目前所做出的 claims,是说用那种极度稀疏化的方法逼迫 transformer 透明化,结果也在多方面匹敌了BERT 和 GPT2。但并不说明短期他有办法赶上GPT3以上。话说回来,那也不公平。他作为教授没有资源去以军备竞赛的方式与AI产业主流打擂台。只是说,从路线上说,他觉得自己打开了一扇门,一条可以通向可解释AI的大模型大门。还是应该赞佩这样的反潮流的教授的。

其实,我也一直隐隐约约对伊利亚说的最短程序压缩论,持有怀疑:从终极目的(理论上以无损压缩作为理想目标)来看,不断加大训练、加深加长学习,结果就是朝着让模型真正成为最小程序,伊利亚理论也许没错。但在任何一个实际条件约束下(例如预算约束、方法论约束),这种纯粹靠 gradiant descent “凑出来”的模型/路径,很难说是最小 program,因为模型看上去就是个庞然大物,谈何“最小”。

千亿万亿参数的超大模型本来就是以大取胜,而不是以精简和规则见长的怪兽(gigantic monster),非要强调自己的压缩率厉害,无损压缩做得好,虽然有从理论上方便说明序列学习达成的通用性、泛化现象以及“涌现”能力,但实践中,在任意一个特定时间条件下的模型,都远远不是“最小程序”。

这是理论和实践躲不开的一种矛盾。在伊利亚那里,实际上他是以未来时间轴,用理论对实践做了对冲。我们的真实感觉并非如此,不敢这么说。就好比一个摔跤选手,都那么笨重了,还非要标榜自己性感、苗条?

直觉上,LLM 里面充满了死记硬背和信息冗余的,在现实条件下其实不可能做到极度/无损的压缩。

但另一方面,马教授也太奇了,他的稀疏化直觉上做得“过分”,QKV直接拉平,看上去有点简单粗暴,但居然也最终能训练出来。可见,transformer 的肚子里的操作空间还是很大的,你给它各种限制,动不动就剪枝(化零),也不用担心它走不出来。这种意义上,马教授追求的才是真正的“最短程序”,短到了连“豆腐脑”的人类都可以看懂路径(hence 可解释性)。

疑问还是这两个极端差距太大。一边庞然大物,一边无限精简,二者都能走通,也是震撼了。

谈到精简可解释,谈个掌故。老老年做 symbolic MT,一个著名的早期的实用系统(西门子的 METAL)做英语德语的翻译,整个系统只用了8个 symbolic features(例如人、动物等),规则简单而可解释,系统也一样上线实用了。可见极度精简和规则化,做到完全透明和人类可解释,在粗线条的应用场景(英语和德语距离较近,翻译难度低),有时候也是管用的。

我们后来把 8 个 features 扩展到千数量级,才擦了长尾的屁股。但也没擦干净。当时觉得,也许认真做可以对垒统计MT的品质(与董振东老师谈过,我们都觉得可以在翻译上最终用符号打败统计的,只是需要时间磨细活),但现在知道即便匹敌了统计MT,也远远不能与神经MT比高下。

那就把 features 往细做,成不?不是因为我们不想继续把 symbolic features (类似于 one hot encoding,但人为在 features 内部强加了类似于 HowNet 的 ontology/taxonomy 的结构性),从千这个量级进一步提升到万的量级。实际情况是,千几乎已经达到专家人脑的极限了,再扩大 features 的范围,我们就无法掌控和调试了。

可是,神经里面有多少 params 啊,其所能反映的 representation 的空间和细密度,与千量级的 symbolic features,尺度完全无法比拟。二者表征的尺度如此悬殊,对拉近二者距离的任何努力,我们天然会产生怀疑:这怎么可能做到呢。

所以一直就觉得大模型可解释性是一个可望不可及的目标。马教授告诉世人,他们做到了。

相关链接:

马毅教授称,已经揭开完全揭开神经网络的面纱

NLP老司机的AIGC旅程

今天想到做个小结,以“玩”的心态,回顾一下前两年的AIGC旅程,以及一个NLP老兵一路走来的心路历程和感受。‍‍‍

大模型爆发前,最痴迷的是当时就有的 txt2img 文生图模型。当时尝试过很多种工具,“小雅”就是那个阶段的产物。不仅人物,也做过各种绘画风格,在群里和博客也分享多次。后来疲劳了,就不怎么玩了。

开始对数字人感兴趣,2D 的 talking photo,2.5D 的有姿态虚拟主播,以及 3D 舞蹈等。因为是自家产品「奇妙元」,玩起来没限制,作为“产品体验官”,疯玩了一阵子。

可惜数字人的黄金时期转瞬即去,还没来得及起飞,就开始鱼龙混杂、遍地开花了,市场给卷的。

紧接着对于超拟人/超写实配音,以及跨语言的突破,包括最近“双工”的突破,各大头部模型开始显摆自己的语音亲民能力,与普通真人无异,不再是板着腔调的播音味了。 咱们自家的AIGC拳头产品「魔音工坊」赶上了这波语音tokens化的端到端大模型浪潮,也实现了超写实,那是大约半年前的事儿。意义重大,因为语音是所有copilot类大模型应用的最自然的接口,也是数字人和短视频的必要赋能点,但语音从可玩性上,不如音乐生成。

Suno 惊艳登场,我入迷了几个月,实现了自己也做“音乐人”的梦想。当然,现在也淡化了,不是不好,是没时间玩了。

时间被中国的 Sora,快手可灵AI的视频生成大模型占用了。视频生成疯玩到今天,我用它做了很多儿时的回忆,定格和再现了人生的高光时刻,虚拟了超生活的场面,最 high 的时期也过去了。这一通尝试,包括三分钟视频连续生成的极限试验,以及种种提示词工程探索,对当前视觉大模型的优点短板看得比较清晰了。

视觉模型的重要应用形态之一就是“一键成片”,也是自家产品了,叫「元创岛」。 目前还很粗糙和简陋,但的确做到了“傻瓜”制作能力,零门槛,任何人都可以用它来生成视频。显然有落地场景和起飞的迹象。

这种对多模态体验和迷恋,想起来与一辈子只做文本NLP得经历,本来是格格不入的。但背后有个大模型的宏大背景。原来,LLM炸平了NLP后,马不停蹄,又开始炸平多模态。这种通用性让人觉得这一切有着共同的主线贯之,是自然的技术汇合之流。这是从模型研究的心路历程看。

从人文和科技结合的角度看,我们这种“老文科生”与生俱来对于人文、艺术的追求本性,并没有因为在工业界的码农环境“挖煤”几十年,而(被)湮灭,应用到如今又是一个自然汇聚。这有点像乔布斯当年的说法,他追求的就是人文意味的科技产品,工程结合美学品味,嘲笑微软产品的粗鄙,no taste。

想想这一路走来挺有意思,无论研发还是应用,冥冥之中都在汇聚。而我们何等有幸见证、经历和投入到这种汇聚的潮流中,虽然这个汇聚也同时意味着颠覆自己、碾压自己、否定自己的过往,抛弃很多过去的“绝技”,例如曾经做到世界顶尖的符号解析(symbolic parsing)的庖丁解牛之术。 靠的是终身学习,不至于掉队太远。但一切的一切,更需要一种 精神,尤其是 passion:passion 所驱,乐此不疲。

下一个passion点 应该是 to b 场景,因为最终的应用大期待,大概率在垂直。To c 虽然很卷,但路线图和态势,能做什么,包括 aigc,已经基本清晰。但 to b 还在泥潭里挣扎,方向都还隔雾看花,闪闪烁烁,但也看到高人。例如白硕老师,感觉他就在捻须微笑,坐在金融交易的莲花池上,仗着to b 积淀。

个人而言,垂直赛道,最喜欢是教育,其次是法律,这都在大模型知识能力的路上:既容易最终被通用大模型碾压,又立即能对齐场景呈现价值。金融太繁琐,水更深。水利、电力、汽车等非常专门,行外人感觉枯燥。但医疗和心理,却很诱人,虽然比教育、法律更难涉入。看命运之神领我何往吧。

Decoupling to Resolve: Issue of Character Consistency in Video Generation

I’ve now become the go-to expert for AIGC (AI-generated content) "custom services" among my old friends and classmates, just for fun. Below are nostalgic videos made from old photos that two of my classmates asked me to create.

Whenever I find the time, I’m more than happy to provide this kind of emotional value for friends and family because it’s truly satisfying to see their reactions of surprise.

The pianist is now a world-class piano master, frequently touring and performing in Europe, America, and China. These are precious old photos of him practicing and performing with our mutual friend, Brother Sun, in Philadelphia back in the early days.

Dr. Bai Shuo, a seasoned expert in NLP and a multi-talented musician, commented humorously: “Looks real for someone who pulls on the bow in  Meditation as named, but the bowing and fingering are all wrong.”

Another old friend also left feedback noting that the visual model doesn’t understand music: "This needs improvement! It's obvious that the model was created by someone who doesn’t know how to play the violin or piano. The bowing and piano accompaniment are off. The first note has a two-and-a-half beat long tone, which should be played with a long bow. Additionally, the pianist’s right foot should never be raised or shaking like that—it should be on the sustain pedal.”

LOL

Even though the music's name Meditation was clearly specified in my prompt during generation, there is no model, in the foreseeable future, that can truly align the understanding of music with the intricate details of bodily movements during performance. Perhaps this can be reserved as one of the ultimate challenges for large models aiming for AGI, because theoretically, if enough alignment data of musical performance is available, based on the compression theory of "joint training", it’s possible to aim at perfect alignment across different modalities.

If simulating the objective world is the ultimate goal of visual models, then the current generation of visual models is at the level of “playing the piano to a cow” or “playing music to a tone-deaf audience”—completely unable to withstand scrutiny from musicians. For example, as someone with little musical knowledge, when I watch the nostalgic performance videos above, I wouldn’t notice the flaws as an expert would; instead, I find them vivid and emotionally engaging.

Of course, the standards of musicians might as well just be a "pseudo-demand" or a pseudo-goal (even if the visuals satisfy the picky “expert eye,” so what? Will it sell well?). It might not be worth the effort to pursue this. However, in theory, an ideal AGI should be capable of meeting these expert-level demands.

This is the challenge of musical performance alignment.  Another challenge to Sora-like video generation models is character consistency in videos.

Achieving facial consistency in generative visual models is an extremely difficult. Don’t expect this issue to be resolved by video generation models alone in the short term, especially not through autoregressive methods.

Human eyes are extremely discerning with regards to face recognition, especially when it comes to familiar faces of friends and family—you can immediately tell when a character's appearance is off. For example, while playing with old photos recently, I used the KeLing model (top notch Video Model in China) to generate a video of myself. At the 5-second mark, it still looked passable, but by 10 seconds, it no longer resembled me.

In the second 10-second video, just a slight turn of the head, and it’s no longer me—it looks more like my brother. How can a model handle such fine details? Especially when the starting image for video generation is not even a straightforward frontal shot, making the character information incomplete—how could it not go off track?

While the videos I've made for friends and family using KeLing during its public testing phase have generally been met with passionate surprise and amazement, most of them suffer from this issue of character consistency, which is a regret.

The current one-click video generation products on the market (including our own YuanChuang Island recently launched) tend to mainly use anime or manga styles. This is to avoid user scrutiny since these styles lack 3D distinct individual characteristics. As long as there is consistency in attire, no gender mix-ups, with age and race alignment, most people will accept it. The current one-click videos are generally rough, with entertainment value primarily in the story rather than character portrayal akin to a Hollywood blockbuster. However, as this path progresses, it will inevitably encounter the challenge of maintaining the consistency of digital IP actors and their roles.

My colleague, Lu, mentioned, "the consistency issue might require cross-checking from multiple video angles, which more or less touches on the core issue of whether modeling is necessary."

Indeed, some form of cross-checking is required, not just monotonic correction over time/sequence—that is indeed the key. There’s a need to decouple or separate the character's image from the storyline, rather than generating in a linear, one-way path. While sequence learning has indeed produced miracles in LLMs, sequence generation inherently has limitations, including random deviations over time. Although it's not as extreme as LeCun's criticism—where he says GPT's error accumulation is a tiny discrepancy that leads to a significant miss—his claim isn't entirely accurate because GPT's autoregressive operation also corrects and adjusts its course at every step in the context. Nevertheless, when it comes to fine-grained consistency, random deviations are almost impossible to handle, even with corrective mechanisms in place.

Hence decoupling, decoupling, decoupling! Decoupling can solve the problem. The world isn't limited to sequences. Beyond sequences and time, there is a constant abstraction (i.e., character image, or IP) that can be utilized. This is becoming increasingly clear. Take, for example, the digital IP character Maria (Xiao Ya) that I created using AIGC txt2img more than 2 years ago::

Unless they’re fans, perhaps my numerous Maria videos might cause aesthetic fatigue—someone even called her “Dr. Li's fairy” (LOL). But indeed, there are fans; several of my old classmates are among them.

Why? Because she is an IP, and she has been decoupled.

 

Related Links (original posts in Chinese):

视觉模型生成的极限对齐

解耦才能解套:再谈视频中的人物一致性问题

 

解耦才能解套:再谈视频中的人物一致性问题

前两天说过,对于生成式视觉大模型,人脸一致性是个非常难缠的东西,不要指望短期靠视频生成大模型本身来解决,尤其是不能指望自回归解决这个问题。

人眼太挑剔了,尤其是亲友和熟人,你会一眼看出人物走形了。譬如这几天玩老照片,我用头部视觉模型可灵5秒生成我自己,还过得去,到了10秒就不是我了。

10秒视频:

一转脸就不是我了,倒更像我哥。这种细粒度,模型怎么能搞定。尤其是,如果图生视频的起点图就不是正面照,character 信息本就不全,怎么可能不走偏。所以,我在可灵公测以来为亲友同学做的视频虽然普遍感觉惊喜或震撼,但大多存在这个人物变形的问题,成为一个遗憾。

现在市面上做的一键成片产品(包括我们的元创岛),其所以用二次元或其他夸张风格为主,是为了避免用户的挑剔,因为那些形象缺乏鲜明的个性,不是真正的 individual IP,只要保持穿戴一致性,男女不要错位,年龄和种族不要相左,一般人也就接受了。目前的一键成片普遍比较粗线条,娱乐价值更多是为视频里的故事,而不是好莱坞大片那样的角色形象刻画。但这条路往上走,就躲不开这种 digital IP 的演员角色定位及其一致性问题。

吕兄说:一致性问题可能需要靠多角度视频的cross-checking, 这里面多多少少要涉及到是不是要建模的硬核问题。

是的,要某种 cross-checking,而不是时间流单调矫正,这是key。需要解耦/剥离故事线上的人物形象,不能生成一条道走到黑。序列出过奇迹,但序列生成有随着时间出现随机偏差的局限,虽然不是 LeCun 批评的那样极端:他说gpt错误积累是差之毫厘失之千里;他的说法不正确,因为gpt的“自回归”推理方式也在每一步context自回归中不断纠错、矫正航向。尽管如此,对于细线条一致性,随机偏差哪怕有了矫正机制,也是基本搞不定的。

因此,解耦、解耦、解耦。解耦就可以解套。世界上也不是只有序列。跳出序列和时间,还有个恒定抽象(即character形象)可以利用。这一点已经越来越清晰了。以我制作的数字人IP形象小雅/Maria为例:

除非粉丝,也许我的众多小雅视频会引起审美疲劳吧,有人称她为“立委的妖精”(LOL)。但确实有粉丝,老同学中好几位人物就粉她。

为啥,因为她是IP,解耦了。

Related Links:

视觉模型生成的极限对齐

马毅教授称,已经揭开完全揭开神经网络的面纱

原创 立委 LiWeiNLP 2024年09月01日 17:44 北京

马教授的白盒transformer论文在:https://ma-lab-berkeley.github.io/CRATE/?continueFlag=680deb7516c156566f8eb73fdcc896ca

马毅教授大名鼎鼎,特立独行,一方旗帜人物,天下无人不识君。值得关注的是他最近对主流大模型的批评以及他自己工作的宣示。

前不久深圳会议请他来,他把主流大模型、伊利亚,以及k氏复杂性理论,批为中学生的水平,说他们根本不懂理论。而他自称理论实践双突破,说的就是他带领团队做的这个白箱 Transformer,不仅揭开了大模型的神秘面纱,而且是工程可实现的替代方案。

说句实话,把话说到这份上的人,多半是真牛人,有自带的底气和傲视群雄的霸气。对于主流的批判,老美有个杨立昆(他说GPT不如他家一条狗,是死路,他的世界模型才是替代方案),中华有个马教授,世界才显得不那么寂寞。也确实希望他们somehow能弥补当前主流大模型的“慢思维短板”,推动AI的整体进步。有时间还是应该慢慢研究他的学术和实践,但也许更多是要等待时间和同行对他们工作的检验和复现。

深圳会上就露了个脸,自己讲完和批完,立马走人。估计是真忙。

论文100多页,说过几天就放出来。看现在的 outline,重点在,quote:

Overall, CRATE is similar to a transformer, with two differences:

in each attention head, the Q,K, and V weight matrices are weight-tied, i.e., set to be equal;

and the nonlinearity following each attention layer is no longer a multi-layer perceptron (MLP), but rather a more structured operator (ISTA) with sparse outputs.

咱们了解一下,ISTA(Iterative Soft-Thresholding Algorithm,迭代软阈值算法),是一种用于解决稀疏优化问题的算法,在机器学习领域有广泛应用。在CRATE架构中, ISTA被用来替代传统Transformer中的多层感知器(MLP),还记得前不久的 KAN 的创新也是旨在平替 MLP。都是在 Transformer 里面开刀。

我浅薄的理解,ISTA 与 KAN for Science/Physics 的思路是一致的,就是要经过某种正则化或剪枝,最终拟合成稀疏化路径,从而获得可解释性。

工作原理: ISTA通过迭代的方式逐步接近问题的最优解。每次迭代包括两个步骤: a) 梯度下降步骤,这与主流同;b) 软阈值操作。增加这个操作,是要在两个目标之间找平衡:

a) 使模型尽可能准确;b) 使模型尽可能稀疏,即简单(因为人很难理解一团乱麻)。

软阈值操作鼓励内部元素变为0,从而产生稀疏的输出,增加可解释性。权重绑定的注意力机制和ISTA(迭代软阈值算法)促进了模型对输入数据结构的更深入理解。这更像人类的结构化解析过程,抓大放小,正则化、规整化。

马教授说的是,它们经过上述的两个改造,结果在监督学习中(后来他们也成功地用到了自监督学习),就自然学到了人类的这种结构化、稀疏化所带来的可解释性。

拿图像识别来说,研究发现某些注意力头对应于动物的不同部位。更引人注目的是,这种对应关系在不同动物甚至不同动物类别之间保持一致。例如,专注于"头部"的注意力头在处理不同种类的动物时,始终关注其头部区域。这种一致性表明CRATE已经学习到了跨类别的通用视觉特征表示。

但做LLM可解释性研究的人早就发现,在MLP网络的尽头,各种结构化(例如 头、脚)的部件也都被注意力抓到了,否则不能解释LLM表现出来的泛化(或压缩)能力。困难的是在网络的前期,那些个注意力比较混杂,主流的MLP搞不清都在注意什么。隐隐约约是在注意像素(点)、线等基础元素之间的关系。

可解释AI的基本思路都是一样的,就是要把一团麻一样的黑箱多层网络内部数据拟合中凑出来的路径,改造成强加了种种限制条件和剪枝、化零的“结构化”路径。

正常人,谁不愿意模型可解释?所以这种稀疏精简的路数/算法一定也是有极大的挑战,才 so far 无法与那种黑箱子瞎凑的方法比试。

马教授觉得自己很牛的底气是因为他在最近半年一年,开始用可解释的上述白箱方法,训练出了可以匹敌传统 transformer 的成绩。他在深圳会上说,此前他有信心这才是正道,但在没有拿到结果前,还是必须谨慎。现如今,他觉得他的跨国团队用这一套在各方面所做的实现,已经让他满意到可以向全世界宣告,他找到了理论和实践的突破口,找到了transformer白箱化的正确方法,可望引发范式转变式的深度学习的突破。这令他很激动,也很霸气。所以他不再满足于大学教授的理论建树,而是觉得应该下场了。马教授自己成立了一家公司要在工程上做这个推进。这次来创业邦深圳主题宣讲,据他说,是他第一次以这个新公司的名义来向社会宣布这个挑战主流的工程落地的方向性大项目。

不过,凭着多年经验和直觉说一句这件事的挑战性(或可疑之处):人类的可解释性建立在一个非常小的高度精简的 finite set 基础之上。如果拿 symbolic features 来说,超过千这个量级的 feature system,对于人就是不可解了。贵为上帝选民,我们人类的“豆腐脑”真地很局限。可是另一边看 transformer 里面的 parameters 以及 attention heads 的KQV数量,完全不具有可比性,天上地下。让大变小在这样的尺度下去归约,感觉上是不可思议的。

KAN for Science 之所以成功,是因为他们瞄准的 target 极为狭窄,只是 science 中的某些已有的解析公式,或者未知的但局限在少数参数的潜在公式。有了这样的目标去做剪枝,中间加上科学家的人为干涉或反馈,KAN 声称是做到了可解释性。

Anyway,马教授似乎是成竹在胸,咱们还是静观他的法术/魔术。

Related Links:

What did Ilya see? -- secret behind success of LLMs

 

 

Professor Ma Claims to Have Fully Unveiled the Mysteries of Neural Networks

Professor Yi Ma’s white-box transformer paper is available here.

Professor Ma is a prominent figure, renowned for his distinctive style and leadership in the field. His name is widely recognized and respected. Of particular interest recently are his critiques of mainstream large models and the bold claims he has made about his own work (see his post in Chinese below).

Recently, at a conference in Shenzhen (which I attended with my own talk too), Professor Ma sharply criticized mainstream large models, Ilya, and Kolmogorov complexity theory, dismissing them as being on the level of high school students and claiming that they lack a true understanding of theoretical concepts. He asserted that he has achieved breakthroughs in both theory and practice, particularly with the white-box Transformer developed by his team. According to him, this model not only demystifies the complexity of large models but also offers an engineering-feasible alternative.

When someone speaks with such confidence, it usually indicates genuine expertise and a commanding presence. Just as Yann LeCun in the U.S. criticized GPT as being inferior to a dog and called it a dead end, proposing his world model as an alternative, China has Professor Ma. Their critiques balance the global discourse, making the world feel less excluding. There is indeed hope that their work might address the "slow thinking" and "interpretability" shortcomings of current mainstream large models and contribute to the overall advancement of AI. Professor Ma’s academic and practical work deserves close study, though we may have to wait for time and peer reviews to fully test and validate their findings.

At the Shenzhen conference, after delivering his talk and sharp critiques, Professor Ma left immediately, likely due to his busy schedule.

The paper is over 100 pages long and is said to be released in a few days. Based on the current outline, the key points are as follows:

Overall, CRATE is similar to a transformer, with two differences:

- In each attention head, the Q, K, and V weight matrices are tied, i.e., set to be equal.
- The nonlinearity following each attention layer is no longer a multi-layer perceptron (MLP) but rather a more structured operator (ISTA) with sparse outputs.

Let's examine ISTA (Iterative Soft-Thresholding Algorithm), a widely used algorithm for solving sparse optimization problems in machine learning. In his  CRATE architecture, ISTA replaces the traditional MLP in Transformers. Not long ago, KAN also introduced innovations aimed at replacing the MLP, both approaches representing surgeries within the Transformer architecture.

In my understanding, ISTA and KAN (for Science/Physics) share a common goal: through regularization or pruning, they ultimately fit a sparse path, thus achieving interpretability.

How it works

ISTA Iteratively approaches the optimal solution of a problem. Each iteration involves two steps: a) a gradient descent step, which aligns with mainstream methods; and b) a soft-thresholding operation. This operation is added to balance two objectives:

a) Maximizing model accuracy;
b) Achieving model sparsity, i.e., simplicity (as overly complex models are difficult for humans to interpret).

The soft-thresholding operation encourages internal elements to become zero, resulting in sparse outputs and increased interpretability. The weight-tied attention mechanism, combined with ISTA, promotes a deeper understanding of the input data structure, resembling a human-like structured analysis process that prioritizes key elements while regularizing the data.

Professor Ma claims that these two modifications naturally lead the model to learn the interpretability associated with human-like structuring and sparsity during supervised learning (and later as claimed successfully applied to self-supervised learning too).

For example, in image recognition, it was observed that certain attention heads correspond to different parts of animals. What's more remarkable is that this correspondence remains consistent across different animals and even different categories of animals. For instance, an attention head focused on the "head" consistently pays attention to the head area when processing different kinds of animals. This consistency suggests that CRATE has learned a general representation of visual features across categories.

However, those studying LLM interpretability have long discovered that at the end of MLP networks, various structured components (such as heads and feet) are also captured by attention mechanisms. Without this, it would be difficult to explain the generalization (or compression) capabilities exhibited by LLMs. The challenge lies in the early stages of the MLP network, where attention is more mixed, and mainstream researcher struggle to clarify what the attentions heads are focusing on. It seems that they are vaguely paying attention to the relationships between basic elements like pixels/dots and lines.

The core idea behind explainable AI is consistent: transforming the tangled, black-box, multi-layer network's internal data fitting paths into structured paths that are enabled with various constraints and pruning, leading to a sparse representation.

Who wouldn’t want a model to be interpretable? However, achieving sparsity and simplicity is extremely challenging, which is why, so far, these approaches have struggled to compete with the black-box methods that involve randomness.

Professor Ma’s confidence stems from the fact that, in the past six months to a year, he has begun to train models using the explainable white-box methods mentioned above, achieving results comparable to traditional transformers. At the Shenzhen conference, he mentioned that while he had always been confident that this was the correct approach, he remained cautious until results were obtained. Now, he believes that his cross-national team’s achievements with this approach have satisfied him enough to announce to the world that he has found a breakthrough in theory as well as practice, the correct method for white-boxing transformers, which could lead to a paradigm shift and a breakthrough in deep learning. This has made him both excited and confident. Therefore, he is no longer content with academic theoretical achievements alone; he feels compelled to take actions in industry as well. Professor Ma has recently founded a company to advance this work on an engineering level. At Shenzhen, he announced a directionally significant project challenging the mainstream, first time under the banner of his new company.

However, based on my years of NLP experience and intuition, I must point out a challenge (or potential issue): Human interpretability is built on a highly simplified finite set. If we consider symbolic features, a feature system with more than thousands of elements becomes incomprehensible to humans. But on the other hand, the number of parameters in transformers and the number of KQVs for attention heads are on a completely different scale. Reducing such complexity on this scale seems almost unimaginable.

KAN for Science succeeded because their target was extremely narrow—certain existing symbolic formulas in physics or potential formulas limited to a few parameters. With such a goal, pruning, along with scientist intervention or feedback, allowed KAN to claim interpretability.

Regardless, Professor Ma seems confident, so we would like to observe how his methods and results evolve and will, or will not, be accepted.

 

 

Related Links:

What did Ilya see? -- secret behind success of LLMs

 

创业邦深圳会议演讲笔记:推动AIGC商业落地,出门问问的「产模结合」实践

8月22日,2024AGI商业趋势大会在深圳成功举办。活动由创业邦主办,南山区科技创新局、西丽湖国际科教城融合创新中心、深圳市“模力营”AI生态社区为支持单位,揽胜运动为大会指定用车,搜狐为战略合作媒体。

本届大会以“AI塑造未来市场”为主题,邀请人工智能领域的行业专家、上市公司、独角兽企业、创新企业、投资机构代表,分享研讨最新的技术、创投、治理热点话题,并围绕产品商业化、人工智能+行业解决方案进行深度交流,共同探寻更广泛的产业合作与创新机遇。

会上,出门问问副总裁李维在主题为“盈利为王,AIGC从技术创新走向商业落地”的演讲中精彩观点如下:

  1. 大模型的出现,就像翻越了语言的大山,统一了这些不同的赛道,建立起了一种类似圣经中巴别塔的通用语言能力。
  2. 历史上,技术革新往往遵循一条被称为“technology adoption curve”的路径:一开始,人们对于重大创新和突破趋之若鹜,但当这些创新在商业化、盈利和实际应用方面遇到瓶颈时,就会出现一段回落期。
  3. 在通用人工智能时代,一个模型可以处理各种任务,这使得许多细分领域的创新空间被压缩。以前,每个细分赛道都有机会诞生超级应用,但现在这种可能性大大降低了。

以下为演讲内容,由创业邦整理:

很高兴有机会跟大家分享我们在AIGC赛道上的一些工作。我叫李维,是出门问问的VP。我今天演讲的题目叫“盈利为王,AIGC从技术创新走向商业落地”。

实际上这个题目挺难的,原因在于AI和大模型非常热闹,但是真正走向商业落地的寥若晨星。所谓“AI一日人间一年”,大模型的发展虽然很快,但从总的趋势上来看,AI实则进入了一段下行期。历史上,技术革新往往遵循一条被称为“technology adoption curve”的路径:一开始,人们对于重大创新和突破趋之若鹜,但当这些创新在商业化、盈利和实际应用方面遇到瓶颈时,就会出现一段回落期。我们现在正处于这一回落下行期,但尚未触底。

这一趋势也映射到AI投资上,今年对于大模型公司来说,融资变得极具挑战性。主要原因是大模型非常烧钱,算力消耗往往远超人力成本。然而,只投入不产出的模式是不可持续的。尽管大模型拥有巨大的潜力,但要实现盈利并不像看起来那么简单。

大家都在谈,上一次技术革命是移动互联网,虽然它的技术含量可能不如大模型带给人的震撼,但它确实催生了一系列超级应用,很好地满足了人们“吃穿住行、娱乐和通信”等基本生活需求。这些超级应用已经在上一代技术革命中达到了很高的水平,留给后来人创新提升的空间已经不多。想要通过大模型在这些领域实现进一步的突破,变得非常难。

ChatGPT的出现标志着通用人工智能的一次大爆发。在通用人工智能时代,一个模型可以处理各种任务,这使得许多细分领域的创新空间被压缩。以前,每个细分赛道都有机会诞生超级应用,但现在这种可能性大大降低了。

我举个例子,机器翻译并不是大模型时代的新现象,早在12年前神经网络革命开始时,机器翻译就是首批受到影响的领域。结果,像百度、谷歌这样的大公司都把机器翻译服务做成了免费产品。一旦一个领域变成了免费或白菜价,创业的空间就大大减少,甚至可能扼杀整个产业。类似的情况也出现在大模型普及之后,比如Jasper。在ChatGPT出现之前,大模型刚刚兴起,那时业内人都知道GPT3。Jasper利用大模型的能力,将其包装成可以帮助人们进行写作和生成各种文案的工具,吸引了一批客户。

随着ChatGPT等通用大模型的崛起,Jasper的优势逐渐消失,开始走向衰落。ChatGPT不仅仅是一个超级应用,它通过人机对话的方式,实际上已经成为一个“超级的超级应用”(super super-apps),它超越了传统的界限。通用大模型现在能够处理各种语言、知识,甚至多模态的内容,如语音、音乐、图像和视频。这种广泛的能力使得通用大模型在很多领域都占据了主导地位,挤压了相关赛道的生存空间。

如今,作为投资人或创业者,在寻找发展方向时,需要经常思考一个问题:我现在所在的领域或开发的App是否具有持久的竞争优势?虽然可能暂时吸引一些客户并满足部分需求,但如果我的项目挡在这个大模型自然扩散能力的路上,那么我最终很可能面临像Jasper那样的衰退命运。

通用大模型的能力如此之强,被寄予很高的期望,结果在真正落地应用的时候,才发现原来有很多限制条件在。一方面,上一代技术已经相当成熟,吃穿住行等低枝果实的超级应用已经做到极致;另一方面,大模型本身还在不断发展,其通用能力常常限制了落地赛道的发展空间。因此,大家普遍发现将大模型规模化落地应用是一件相当困难的事情。

我曾是大模型的热烈支持者,也是在中国最早“鼓吹”大模型的人之一。当时非常激动,因为在我一辈子的NLP职业生涯中,从未见过如此革命性的变化。

在NLP领域,过去我们有机器翻译、对话系统、问答系统等多个专业方向,甚至还有分词这样的细分技术。但大模型的出现,就像翻越了语言的大山,统一了这些不同的赛道,建立起了一种类似圣经中巴别塔的通用语言能力。大模型的出现,彻底改变了NLP行业的格局。但实际应用起来,我们发现它比我一年多前想象的要困难得多。例如,以NLP为方向的应用(如各种文案或翻译的 co-pilot)因为已经被头部大模型搞定,这个方向的创业产业就做死了。

现在,大家都在期待大模型原生的超级应用(LLM-native Super APPs),虽然呼声很高,行业内竞争激烈,但真正能够规模化落地的,目前还只有像ChatGPT、豆包、文心一言这样的通用类的toC应用。

简而言之,这种超级大模型正逐步深入社会的各个层面。然而,除了它之外,我们还没有看到其他大模型实现规模化落地的成功标杆案例,大家都在艰难跋涉,试图找到与通用大模型基本能力有差异化的突破口和切入点。

目前的情况是,无论是行业内外人士、投资者还是创业者,都对大模型的技术潜力广泛认可,这仍然是基本共识,但要找到它的market fit并实现规模化落地,可能需要至少两三年的时间探索:现在处于技术落地的难产期,也是突破期。

大模型虽然功能强大,但也存在一些严重的短板:第一,信息准确性问题:由于学习了大量信息,大模型可能在记忆不精确的细节时出现错误,导致其输出内容不准确,所谓“幻觉”。第二,可控性问题:与以往的符号逻辑AI不同,大模型包含百亿千亿参数,运作起来像一个巨大的黑箱,难以进行精确的调试和控制。第三,安全性问题:大模型可能存在安全隐患,公开上线需要谨慎。第四,算力成本问题:尽管随着技术进步,算力成本有望降低,但与上一代边际成本趋于零的许多应用相比,使用大模型的应用在算力成本上仍然相当高。推理时也常常遭遇高并发的瓶颈。普及到 toC的大众市场,巨大的推理成本直接影响盈利能力。

以上的分析回顾,听起来有些悲观。但长远一点来看,特别是在接下来的三到五年内,还是值得期待的,尤其是垂直赛道(尽管垂直领域尚未迎来大爆发,但许多人在积极探索)。今天上午座谈会的嘉宾们也在分享他们如何将大模型技术应用到自己的领域,都是从需求出发的第一线分享。这些努力最终将取得成效,预计在未来几年内,垂直领域将会迎来显著的发展和突破。

大模型的研发成本高昂,这对创业公司来说是个挑战,而且模型与产品之间的脱节也是一个主要问题。我们目前正在探讨如何将模型与产品有效结合,以克服这些困难。接下来,我将分享我们在这方面的探索和经验。

模型开发可以选择自主研发或使用第三方服务,这取决于产品的具体需求。目前市场上竞争激烈,第三方服务往往价格低廉,更具成本效益。但如果产品需要高并发处理能力或有特定的定制化需求,第三方服务可能无法满足,这时自主研发就显得重要。

这就需要探索如何将模型开发与产品需求紧密结合,以实现成本控制和产品定制的灵活性。这包括调整大模型以适应我们的产品需求,实现最优的产品模型结合。

然而,产模结合说起来容易做起来难。因为模型开发和产品开发是两个不同的领域,涉及的人员背景和思维方式各异。要让这两类人员有效协作,发挥出最大的协同效应,对许多公司来说都是一大挑战。

我们开发了自己的大模型,名为"序列猴子",基于此,我们推出了多模态AIGC产品,涵盖数字人、配音和短视频一键生成等功能。此外,我们还成功推出了出海产品"DupDub "。"魔音工坊"是我们在市场中占据主导地位的产品,尤其在抖音平台上,约70%的声音内容都使用了我们的技术。

我们的目标客户群体包括内容创作者(ToPC,to professional consumer)和小型至中型企业(ToSMB,to small medium businesses)。内容创作者愿意为方便他们工作的工具付费,而我们正是为他们提供这样的工具。对于ToB客户,我们专注于为中小企业提供较为标准化的解决方案,因为大型客户的定制化需求较为复杂,不易操作。目前,我们拥有86万付费用户,这证明了我们的服务已经成功落地并得到市场的认可。下面是我们产品的一些展示。

视觉模型生成的极限对齐

我现在成了老友同学中的AIGC定制服务的大师了,下面是两位老同学请我做的AIGC老照片怀旧视频。我只要能抽出空,非常乐于为亲友提供这种情绪价值,因为很开心看到他们的惊喜。

现在刘老师可是世界级钢琴大师,常在欧美中巡回演出。这是当年与我老同学孙兄在费城一起演奏练习的珍贵老照片。

吹拉弹唱无所不能的NLP老司机白硕老师评论说:会拉沉思的表示,弓法指法都不对。前微软NLP老友吴兄也留言反映视觉模型不懂音乐:“這個有待改進哦!一看就是不會拉小提琴和彈鋼琴的人做的/:,@P。音樂和弓子的運行差太多,第一個音是有兩拍半的長音,應該給個長弓才對, 另外鋼琴伴奏的右腳永遠不會這樣翹著,或抖動著。他的右腳應該在 sustain pedal 上。”

LOL

生成的时候 虽然prompt里是标明了音乐的名字的,但在可见的将来,没有哪家模型能够真正做到音乐理解与演奏肢体动作细节的对齐。或可留作大模型AGI的极限挑战题(之一)吧,因为理论上如果有足够的对齐数据,根据联合训练的压缩理论,做到极致不同模态之间是可以对齐的。

如果客观世界模拟器/仿真器是视觉大模型的最终目标的话,当代的视觉大模型处于“对牛弹琴”和“对音乐盲弹琴”的段位,绝对经不起音乐家的检验。譬如,我这样的乐盲,看上面的怀旧演奏视频,就不会像音乐行家那样一眼看出破绽,反而觉得惟妙惟肖,情绪拉满。

当然,音乐家的标准也许就是个伪需求伪目标(让挑剔的“专家眼”满意了视觉细节又如何?能大卖么),也许并不真值得费力追求。但理论上,理想的 AGI 都应该搞定这些专家水平的要求。

 

 

立委论LLM:什么是AI刚需

什么是刚需?

 

朋友圈看到一个鸡汤:“穷人说,有钱就是幸福;盲人说,能看见就是幸福;乞丐说,有饭吃就是幸福;病人说,能活着就是幸福;单身说,有伴侣就是幸福。...". 可以诠释用户刚需。

让穷人富起来是刚需,当然很多时候,因为它是刚需,不乏人类饥不择食的本性,刚需者成为被割的韭菜。

吃饱肚子是致富的子集,是最刚的需,因此AGI路上最应该实现的是UBI,不能让资本家独享技术进步和裁员的红利。

让盲人重见光明是让病人痊愈的刚需之最,二者说明,医疗无论多么艰难,仍然是最诱人的垂直领域。

以上属于吃穿住行生老病死的低层次刚需。

但最后,“脱单”却是高低层次融合(物理和精神陪伴:原始性吸引+情绪价值)的刚需。这个刚需恰好是 LLM native 的 sweet spot,不会因为 character.ai 商业化暂时受挫而失去前途。

以前说过,能让一个人感觉成功脱单,对提供商是功德,对用户是砸锅卖铁也心甘情愿的生活品质提升:绝对有付费意愿。

(也许是年轻脆弱多愁善感吧,孤独飘零在大北京,形单影只,当时既没有互联网,也没有游戏,生活中也见不到找到可心女孩的希望。在脱单前记得年轻做过多次噩梦,以为一辈子要打光棍了,不寒而栗,刻骨铭心。)

长期看,老年陪护、心理therapy等都属于 LLM native 的刚需,找到切入点,排除万难做到底做好的赢家,不仅是赚钱,而且是功德。

这些应该属于第一性原则的思考。

Llama 3 Notes and Llama MV with Llama 3.1 Legend

Notes on the 92-page Paper Released with Meta's Super Large Model Llama 3.1

The super-large model Llama 3.1 is a milestone in the open-source large model community. As a leader, Meta's project involved over 500 participants/contributors (the authors of this paper are listed alphabetically in the appendix, similar to how the Central Committee members' names are displayed by stroke order). This original text is full of implementation details:

meta Llama 3.1 paper

AIGC MV using Suno and keling (just for fun & cheering opensource milestone)

Notes:

  1. Llama 3.1 doesn't use sparse techniques, it's not a multi-expert system like model 4, but a dense model.
  2. 405B parameters, 15.6T tokens: The number of tokens is 40 times the number of parameters. Large-scale top models now emphasize data growth far exceeding parameter growth. Is this 15T tokens of data open source? (No, because even if they were willing to open source it, they wouldn't dare, as it could lead to countless data infringement lawsuits)
  3. Emphasizes three major levers for super-large foundation models: data, scale, and managing complexity.
  4. Compared to the previous generation system Llama 2, computational power has increased 50 times (using 3.8 × 10^25 FLOPs).
  5. Complexity management: (1) Choosing a standard dense Transformer architecture instead of a mixture of experts model to maximize training stability. (2) Adopting a relatively simple post-training procedure: Supervised Fine-Tuning (SFT), Rejection Sampling (RS), and Direct Preference Optimization (DPO). In other words, algorithm design and implementation tend towards simplification. Not using sparse techniques and multi-expert systems is for stability (but training challenges are greater, though they're not afraid). Using simpler, easier-to-implement DPO in the post-training phase instead of reinforcement learning is also for stability, as reinforcement learning has always been difficult to handle.
  6. Benchmark tests cover: general, code, math, reasoning, tool use, long context, and multilingual. All performances are SOTA (state-of-the-art international level).
    • MMLU (Massive Multitask Language Understanding): 405B model achieves 87.3% (5-shot), 88.6% (0-shot, CoT).
    • Code generation (HumanEval): 405B model reaches 89.0%, close to GPT-4.
    • Math problems (GSM8K): 405B model achieves 96.8%, slightly higher than GPT-4.
    • Long context tasks: Excellent performance on some tasks, such as 95.2% on QuALITY.
    • Multilingual tasks (MGSM): 405B model reaches 91.6%, on par with top models. The 405B model is comparable or close to GPT-4 and Claude 3.5 Sonnet on many tasks. In short, open-source has caught up with closed-source.
  7. Pre-training started with an 8k window, expanded to a 128k window in the later stages of pre-training (continued training).
  8. After the foundation model pre-training was completed, multiple iterations of alignment "post-training" were performed. Including: (1) Aligning the model through human feedback, including multiple rounds of Supervised Fine-Tuning (SFT) and Direct Preference Optimization (DPO); (2) Integrating new capabilities, such as tool use; (3) Enhancing coding and reasoning abilities (specialized optimization); (4) Safety alignment.
  9. Multimodal expansion (in progress, not yet released): Image, video, and speech capabilities. Including (1) Multimodal encoder pre-training: Image encoder trained on a large number of image-text pairs, aligning visual content and natural language in a unified space; (2) Speech self-training? (3) Experiments on video-text data alignment based on images.
  10. Language model as the core, other modalities are added later (whether added to pre-training and/or post-training). When expanding to multimodal, the language model parameters remain unchanged, adapting to multimodality, allowing multimodal alignment in the same semantic space, closer to the language model. In other words, Llama follows a modular, step-by-step approach to gradually expand to multimodality. This is not the mainstream approach (mainly referring to Open AI and Google, at least in theory) advocating for "unified multimodal native data joint pre-training". The overall impression of Llama's algorithmic strategies is seeking stability rather than innovation or unification. It tends towards practicality, not caring about leading in algorithms. For example, the integration of speech first involves speech self-training (because speech is actually very similar to text, both being language systems), then alignment between speech and text (including Automatic Speech Recognition ASR and Text-to-Speech TTS). Integrating step by step into the cross-modal large model, this approach isn't cutting-edge in terms of advancement, but it's steady progress, beneficial for engineering development, integration, and iteration. It's unclear when they will be able to release multimodal capabilities online.
  11. Data collection and cleaning work is very complex, but the Llama team is meticulous, which is also the data guarantee for its quality to catch up with SOTA. To recap: (1) De-duplication: URL-level de-duplication; Document-level de-duplication using MinHash algorithm; Row-level de-duplication: removing rows appearing more than 6 times every 30M documents. (2) Filtering: Removing low-quality documents, outliers, and excessively repetitive documents, using repetitive n-gram coverage to remove repetitive content (such as logs or error messages); using "dirty word" counts to filter adult websites not covered by blacklists; using token distribution KL divergence to filter documents with too many abnormal tokens. (3) Controlling data quality: Using fasttext classifier to identify text that might be cited by Wikipedia; using a Roberta-based classifier trained on Llama 2's predictions; using DistilRoberta to generate document quality scores. Also, fasttext language classifier can identify 176 languages; specially filtering two types of information: adult content and personal identity/privacy information. Special fine processing for code and math web pages.
  12. Data proportions: For example, downsampling over-represented data categories on the web (such as art and entertainment); data mixing ratios determined by a series of small model experiments, final data mix summary: About 50% of tokens correspond to general knowledge; 25% of tokens involve math and reasoning; 17% of tokens are code; 8% of tokens are multilingual content.
  13. Model architecture: Apart from empirical detail adjustments, the basic architecture of the dense model remains unchanged, so it's data and scaling that create top models. 405B model specific parameters: 126 layers; token representation dimension 16,384; 128 attention heads; model size of 405B determined according to scaling law, about the computational optimal size under 3.8 × 10^25 FLOPs training budget.
  14. Vocabulary: Using a vocabulary of 128K tokens. Combines 100K tokens from the tiktoken3 tokenizer and 28K additional multilingual tokens to better support non-English languages.
  15. Computing resources, including GPU clusters of tens of thousands of cards, massive storage, and high-speed networks, represent huge resource investments. Specific data as follows: Computing resources:
    • Used up to 16,000 H100 GPUs (a very powerful graphics processor).
    • Each GPU has 80GB of high-bandwidth memory, with a power of 700W.
    • These GPUs are installed on servers designed by Meta itself, with 8 GPUs and 2 CPUs per server. Storage system:
    • Uses a distributed file system called Tectonic.
    • Provides 240PB (1PB=1000TB) of storage space, distributed across 7,500 servers.
    • Can process 2TB of continuous data per second, with a peak of 7TB/second.
    • A major challenge is handling the large amount of burst writes generated when processing model checkpoints (the process of saving model states).
  16. Three-step pre-training process: a) Initial pre-training; b) Long context continued pre-training; c) Annealing with high-quality data sources Key pre-training strategies:
    • Gradually increase batch size and sequence length to balance stability and efficiency.
    • Dynamically adjust data mixing to specifically enhance certain capabilities.
    • Increase context length in stages to avoid early computational overhead.
    • Use annealing and high-quality data in the late stages of training to fine-tune model performance.

 

[LLM Summary]

Llama 3: Meta's Open-Source Large Language Model Breakthrough**

1. Introduction and Overview

Meta has introduced Llama 3, a series of foundation language models designed to support various tasks including multilingual processing, programming, reasoning, and tool use. This model series includes versions with 8B, 70B, and 405B parameters, with the largest 405B parameter model adopting a dense Transformer architecture and supporting context windows of up to 128K tokens. The development of Llama 3 highlights three key factors: data quality and scale, computational scale, and complexity management.

2. Model Architecture and Pre-training Strategy

2.1 Model Architecture

Llama 3 retains the standard dense Transformer architecture rather than adopting a mixture of experts model. This choice aims to maximize training stability, reflecting Meta's emphasis on simplifying design to manage complexity. Key architectural improvements include:
- Using Grouped-Query Attention (GQA) mechanism, with 8 key-value heads per attention layer.
- Introducing attention masks to prevent self-attention between different documents in the same sequence.
- Expanding the vocabulary to 128K tokens, combining 100K tokens from the tiktoken3 tokenizer and 28K additional multilingual tokens.
- Increasing the RoPE base frequency hyperparameter to 500,000 to support longer contexts.

2.2 Pre-training Data Processing

Llama 3's pre-training data processing is extremely rigorous, including:
- Multi-level deduplication: URL-level, document-level (using MinHash algorithm), and row-level deduplication.
- Heuristic filtering: Removing low-quality documents, outliers, and excessively repetitive content.
- Model-based quality filtering: Using fasttext and Roberta-based classifiers for quality assessment.
- Special content processing: Developing specialized processing pipelines for code and mathematical content.
- Multilingual data processing: Using fasttext base language identification model, supporting 176 languages.
- Safety and privacy protection: Filtering website data containing personally identifiable information (PII) and unsafe content.

2.3 Pre-training Strategy

The pre-training process is divided into three main stages:
1. Initial pre-training: Conducted on about 15T multilingual tokens, far exceeding Llama 2's 1.8T tokens.
2. Long context pre-training: Gradually expanding from initial 8K tokens to 128K tokens context window.
3. Annealing phase: Fine-tuning with high-quality data in the final stage, using Polyak averaging to generate the final model.

Data mixing ratios are carefully designed:
- 50% general knowledge
- 25% mathematics and reasoning
- 17% code
- 8% multilingual content

3. Training Infrastructure and Challenges

3.1 Computational Resources
- Using up to 16K H100 GPUs, each equipped with 80GB HBM3 memory.
- Adopting a 4D parallel strategy: tensor parallelism, pipeline parallelism, context parallelism, and data parallelism.

3.2 Storage System
- Using the Tectonic distributed file system, providing 240PB of storage space.
- Supporting 2TB/s sustained throughput, with peak capacity of 7TB/s.

3.3 Network Optimization
- Developing the NCCLX communication library to improve network efficiency.
- Designing specific network topologies and load balancing strategies.

3.4 Training Challenges
- Experiencing 466 job interruptions during the 54-day training period, 419 of which were unexpected.
- Developing automated systems and specialized tools to handle hardware failures and network issues.

4. Post-training and Alignment

Llama 3 adopts a multi-round iterative post-training process, including:
1. Supervised Fine-Tuning (SFT)
2. Direct Preference Optimization (DPO)
3. Reward model training: Using human feedback data
4. Safety alignment: Implementing multiple rounds of safety measures

This process not only improves the model's instruction-following capabilities but also enhances safety and specific abilities (such as coding and reasoning).

5. Multimodal Expansion

Although not officially released yet, Llama 3 demonstrates promising multimodal capabilities:
- Image recognition: Training independent image encoders, integrated with the language model through adapters.
- Video understanding: Adding video adapters based on image adapters.
- Speech processing: Independently training speech encoders, then aligning with the language model.

This modular approach allows flexible addition of new modalities while maintaining core language capabilities.

6. Performance Evaluation

Llama 3 performs excellently in multiple benchmark tests:
- MMLU (5-shot): 87.3%
- HumanEval (code generation): 89.0%
- GSM8K (math problems): 96.8%
- Long context tasks (like QuALITY): 95.2%
- MGSM (multilingual tasks): 91.6%

These results indicate that Llama 3 405B is comparable or close to GPT-4 and Claude 3.5 Sonnet on multiple tasks, particularly excelling in document understanding and long context tasks.

7. Safety Considerations

Meta highly prioritizes safety in the development of Llama 3:
- Implementing strict safety measures in both pre-training and post-training stages.
- Developing the Llama Guard system-level safety solution.
- Conducting extensive red team testing and risk assessments.

8. Open Source Impact and Future Directions

Meta's decision to publicly release the entire Llama 3 series, including the 405B parameter version, may have far-reaching impacts on the AI research community:
- Promoting open, responsible AI development.
- Accelerating AGI research progress.
- Providing researchers with opportunities to examine and improve large-scale language models.

Future development directions may include:
- Further improving multimodal integration.
- Expanding context length.
- Continuously enhancing data quality and model scale.

9. Conclusion

The development of Llama 3 demonstrates Meta's deep experience and forward-thinking in large-scale AI systems. By focusing on three key levers - data quality, computational scale, and complexity management - Llama 3 has reached or approached the current state-of-the-art level on several key benchmarks. Its open-source release may drive a wave of innovation across the entire AI field, paving the way for responsible AGI development.

Llama 3: Meta's AI Chef's Latest "Divine Delicacy"

Attention, all tech enthusiasts! The Michelin three-star AI chef Meta has just unveiled a new dish! This divine delicacy named "Llama 3" is not only spicy enough but will elevate your taste buds to new heights!

1. The Chef's Secret Weapon

Imagine Llama 3 as a super nanny who speaks 8 languages, writes code, does math, and can be your personal assistant. She can handle a kindergarten full of rambunctious kids (8B version), manage a mid-sized company (70B version), or even govern a small country (405B version)! This 405B big sister can remember 128,000 "gossips" (oh no, I mean context) simultaneously, essentially a walking encyclopedia + supercomputer!

2. Ingredient Selection: Only the Freshest!

Llama 3's chefs are masters at picking ingredients:

  • They "fished" 15 trillion words from the internet, nearly 10 times more than the previous generation!
  • Half of these words are everyday life seasonings, a quarter are math problems and brain teasers, nearly a fifth are programmer spells, and the rest are dialects learned from world travels.
  • They even invented a super weed remover, filtering out all the online garbage, repetitive, and unhealthy stuff.

3. Cooking Process: Three-Step Stir-Fry Method

Step 1: "Slow Simmer" - Start with a regular stove (8K context) to cook it halfway. Step 2: "High Heat Stir-Fry" - Switch to a super stove (gradually increasing to 128K context), reducing the sauce to be thick and fragrant. Step 3: "Low Heat Finish" - Finally, a gentle simmer with the best ingredients, the legendary "annealing" (even the chefs don't know why it's called that), bringing the flavor to its peak!

4. Kitchen Equipment: Top-of-the-Line Luxury Version

  • 16,000 super high-power induction cookers (H100 GPUs) firing simultaneously!
  • A refrigerator that could fit half the Pacific Ocean (240PB storage)!
  • A proprietary ingredient prep system faster than 5G (NCCLX communication library)!

Imagine all these stoves firing at once, making the kitchen feel like a sauna. But our chefs persevered through the heat, changing chef uniforms 466 times in 54 days to whip up this dish!

5. Training Method: Both Cute and Well-Mannered

Being a good cook isn't enough; you've got to have manners too! So our chefs began a long "training" process:

  • First came a round of "gentle education" (supervised fine-tuning)
  • Then the "carrot and stick" tactic (direct preference optimization)
  • Finally, they invited moral role models (safety alignment) for guidance

After all this fuss, Llama 3 not only cooks well but also knows how to please people, program, do math, and mind her manners - a true decathlon champion!

6. Special Side Dishes: Showcasing Multiple Talents

Don't think Llama 3 can only cook; she's a multi-talented "goddess":

  • Storytelling from images? Piece of cake!
  • Writing movie reviews? No problem!
  • Recognizing songs and even singing a bit? The karaoke queen!

Although these "talents" are still in practice, they already show the potential of Li Bai's "from black hair to snow white in a day"!

7. A True Powerhouse: Dazzling Test Scores

Llama 3 participated in a series of "Top Chef Competitions," with eye-popping scores:

  • College Entrance Exam (MMLU): 87.3 points (out of 100)
  • Programmer Interview (HumanEval): 89 points (out of 100)
  • Math Olympiad (GSM8K): 96.8 points (out of 100)
  • Long Novel Reading Comprehension (QuALITY): 95.2 points (out of 100)

Bring this report card home, and even a "Tiger Mom" would be grinning from ear to ear!

8. Safety First: AI's "Security Captain"

Meta's chefs know well the principle of "don't leave guns and ammo lying around." They've assigned Llama 3 a 24/7 bodyguard team (Llama Guard) to prevent her from accidentally saying or doing the wrong thing. They even arrange occasional "moral exams" to ensure she doesn't turn into a "Terminator."

9. Open Source Feast: Everyone Can Be a Master Chef!

The most impressive part is that Meta decided to make the recipe for this "divine delicacy" completely public! It's like a Michelin three-star restaurant putting their signature dish's recipe online. Now anyone who wants to can whip it up at home! This move not only shocked other master chefs but also made countless food lovers cheer with joy!

10. Future Outlook: Reaching New Heights

Meta's chefs aren't resting on their laurels; they're already pondering the next "divine delicacy":

  • Maybe a dancing Llama 4?
  • Or a painting Llama 5?
  • Who knows, one day we might see a Llama 6 composing symphonies!

In short, the AI world's "Michelin" journey has only just begun!

Epilogue

The birth of Llama 3 not only elevates Meta's status in the AI world but also brings a fresh breeze to the entire AI research community. This bowl of "Llama soup" is not only delicious but also brings unlimited imagination to everyone. What will the future of AI be like? Let's wait and see what flavor the next "divine delicacy" will be!