从“眼球 + SaaS”到“大模型商业”

用量模式的甜蜜、危险与广告的改头换面

我的前老板在LinkedIn很活跃,特愿意分享他在美国创业一辈子以及当下业务的经验和教训。最近的一个分享很有意思:他把“用量定价模式(usage-based pricing / UBP)”的 Good / Bad / Ugly 拆得很利落,他后来总结道:真正会把公司带进沟里的,不是用量制本身,而是把“非复购的收入”伪装成“会复购的收入”,尤其在融资语境里。

这件事,放在我们正在经历的更大迁移里看,会更清晰:我们正在从过去二十年的两大商业模式的主流引擎——

  • 眼球广告模式(attention-based:流量、曝光、点击、转化漏斗)

  • SaaS 订阅模式(seat-based:按席位打包,靠续约与增购)

转向大模型时代的一组新组合拳:

  • 订阅(toC、toPro、toTeam、toEnterprise、toGov)

  • API/Token/调用用量(按消耗计费,成本可变、边际清晰)

  • 改头换面的广告/眼球模式(从“给你看”变成“替你选/替你做”,赞助位从信息流转移到“答案/动作/工具选择”)

这个话题在我们正处于的AI应用难产期,尤其重要,不妨展开来谈。


1. “The Ugly”的本质:UBP 最可怕的不是波动,而是“被当成 ARR 的幻觉”

在传统 SaaS 的语言体系里,$3M ARR 的潜台词是:只要你留存做得不错,明年大概率不是 $0,而是 在这 $3M 上叠加增长。资本市场习惯为“可预测、可续约、可扩张”的现金流付高倍数。

但在不少 UBP/UBM(usage-based model)公司里,$3M 可能不是“跑出来的订阅”,而是“试出来的烟花”

  • 客户有一笔“AI 实验预算”

  • 来试你的产品,甚至在一两个月内用得很猛

  • 然后项目转向、负责人离职、POC 结束、预算冻结、换别家试——消费瞬间归零

于是同样是 $3M,今年看着像增长,明年可能只剩 $1M,原因不是你退步,而是 “试用型收入”天然复购不友好。如果你按 SaaS 倍数融资,估值就会“先虚胖再塌方”,后果你已经写得很直白:down round、CEO 更替、低价卖身

一句话总结这段“Ugly 续集”:

UBP 的最大风险,是把“消费收入”当成“订阅收入”去叙事、去定价、去融资。


2. 为什么大模型时代更容易出现“Usage Bubble”

UBP 在大模型时代不是小众,而是“顺水推舟”,因为大模型服务天然满足三件事:

  1. 成本结构可变:推理、token、带宽、GPU 时间都在“用多少付多少”

  2. 客户价值不确定:很多客户还在找场景,先试再说

  3. 切换成本看似很低:API 换个 key、prompt 改一改、工作流挪一挪,短期并不痛

这三点叠在一起,就特别容易形成“usage bubble”:

  • 试用门槛低 → 进来的人多

  • 试验期会集中跑量 → 指标漂亮

  • 留存靠“持续业务价值”而非“合同期限” → 一旦价值链没卡住,掉得也快

过去的 SaaS 至少还有“合同的时间缓冲”。UBP 没有缓冲,它更像电费:你不用空调,账单就没了。


3. 大模型商业的三种主流定价,本质上对应三种“关系”

把订阅、用量、广告放到同一张图里,你会发现它们对应的不是“收费方式”,而是你和用户的关系

A) 订阅:买的是“持续可用的能力”

适合场景:

  • 价值稳定、使用频率中高

  • 用户愿意把你当“日常工具”

  • 你能把体验做成“离不开”,而不仅是“偶尔爽一下”

风险:

  • 订阅疲劳继续加剧(用户已经被各种订阅抽干耐心)

  • 你必须持续交付“新鲜感 + 可靠性”,否则就是被砍的那一个

B) API 用量:买的是“可量化的消耗”

适合场景:

  • 成本与消耗强绑定(token、调用、分钟、任务数)

  • 采购决策需要低风险入口

  • 产品形态偏“平台/基础设施/能力组件”

风险:

  • 你可能变成“可替换的管道”

  • 指标好看但不稳,融资叙事极易误判

  • 成功更多取决于“嵌入客户核心流程的深度”,而不是“试用规模”

C) 广告/眼球模式的改头换面:买的是“被选择的机会”

过去广告买曝光;大模型时代更可能买三种位置:

  1. 答案位置:在生成内容里被提及/被引用/被推荐

  2. 工具位置:在 agent 的“工具选择”里被优先调用

  3. 动作位置:在“替你办事”的链路中成为默认路径(预订、下单、开户、比价、投放……)

这不是“广告消失”,而是“广告迁徙”:

  • 从信息流迁到对话流

  • 从点击迁到决策

  • 从展示迁到行动

风险也更大:一旦处理不好“赞助与中立”的边界,用户信任会掉得非常快。大模型产品最贵的资产不是流量,是可信度


4. 对创业者最实用的一条建议:把“收入”拆成两类再谈增长

如果你做 UBP/UBM 或混合模式,我建议你在内部(以及对投资人)强行把收入拆成两桶:

1) 承诺型收入(Committed)

来自:

  • 年度最低消费承诺

  • 预付 credits(带明确有效期与续购机制)

  • 与业务系统绑定的长期工作流(离开你就断)

它更接近 SaaS 的“可预测性”。

2) 实验型收入(Experimental)

来自:

  • POC、试点、探索预算

  • 单团队、单负责人驱动的短周期尝鲜

  • 没有多部门扩散、没有流程固化

它更接近“项目收入”,不要拿它当 ARR 去讲故事。

这两桶拆开,你很多关键决策会突然变清晰:

  • 你到底是在“做增长”,还是在“做补洞”

  • CS 是在“促活”,还是在“救火”

  • Sales 是在“签长期”,还是在“拉试用”


5. 入口在换,商业不会消失,但计量单位变了

过去互联网的计量单位是:

  • 眼球:DAU、时长、PV、CTR

  • SaaS:席位、模块、续约、NDR

大模型时代的计量单位更像:

  • 意图(intent):用户到底想完成什么任务,你在满足什么刚需

  • 行动(action):你是否真的帮他办成

  • 消耗(consumption):为了办成你消耗了多少 token/调用/工具链

  • 信任(trust):用户是否愿意把“最后一步”交给你

所以,新的商业模式大概率不是三选一,而是混合体:

  • 用订阅覆盖“稳定能力”

  • 用用量覆盖“弹性消耗”

  • 用赞助/分成覆盖“被选择与被调用”

  • 最终用“结果/交付”去对齐价值(更像 outcome-based,而不是 feature-based)

大模型时代最稀缺的不是流量,而是“稳定可复用的工作流位置”。谁能成为“默认工具链的一环”,谁就能把用量从泡沫变成复购,把曝光从广告变成分发。


6. 一个落地的自检清单(你可以直接拿去用)

如果你在做(或评估)大模型业务,我建议每季度问自己六个问题:

  1. 我们的“usage”定义是否反映真实价值,而不是鼓励无效调用?

  2. 收入里承诺型 vs 实验型各占多少?趋势如何?

  3. usage 的留存是“团队留存”还是“负责人留存”?负责人走了会怎样?

  4. CS 的 KPI 是“上线”还是“消费与扩散”?有没有机制推动多部门扩散?

  5. 我们是否在关键链路里形成了“默认位置”(工作流、工具选择、动作执行)?

  6. 如果资本市场按更低倍数给消费收入估值,我们的增长故事是否仍成立?

 

 

不可错过,奇妙元小范介绍尼克的最新演讲,探寻大模型的理论基础与渊源(中文版,英文字幕)

4.35 05/03 CHI:/ [email protected] 尼克讲解大模型的理论渊源与奥秘 https://v.douyin.com/i6Mq91wS/ 复制此链接,打开Dou音搜索,直接观看视频!

 

 

我是AI小范,尼克的秘书,今天播报解说尼克最新的讲演《所罗门诺夫:大语言模型的先知》。

尼克就不用介绍了,除了他的企业家、投资人、学者和哲学家的许多角色,他最知名的著述是其畅销书《人工智能简史》,风靡一时,洛阳纸贵,拿奖拿到手软,成为中国AI出版界的传奇。我们都为得到他的亲笔签名版而炫耀。

下面是对他讲演的一个深入浅出的解说。

让我们来认识一下这位留着圣诞老人般白胡子的数学怪才——Ray Solomonoff!1926年出生,2009年离世,这位在芝加哥大学混学位的数学物理双料高手,可不是普通的学霸。他是独立研究的先驱,用数学公式预测未来,比算命先生还厉害!

欢迎来到科学界的'老顽童'大战!左边这位是维纳,控制论的'教父'。1948年,他和香农同时发表重磅论文,但观点大不同!维纳说:'控制才是王道',而其他人却迷恋上了'信息'这个小妖精。香农和麦卡锡倒是志同道合,都不看好维纳的控制论。麦卡锡更是玩了个文字游戏,把'Automata'变成了'AI',开启了人工智能新纪元!

现在我们来看看AI界的'前传'!在达特茅斯会议这场AI盛宴前,麦卡锡大佬就在偷偷摸摸写'剧本'啦!他的文章《The inversion of functions defined by Turing machines》可不是在讲怎么把图灵机倒过来用。这篇'天书'其实在讨论如何设计一台超级解题机器。麦卡锡想象中的这台神机,能解决所有明确定义的智力问题。这不就是AI的雏形吗?"

达特茅斯会议上,麦卡锡和所罗门诺夫这两位'数学侠'展开了一场激烈的'思想格斗'!话题?就是麦卡锡那篇'天书'。他们俩一拍即合,发现了个惊天秘密:图灵机求逆问题其实就是学习问题!这个发现把AI和机器学习紧紧绑在了一起!从此,AI不再是单纯的计算,而是朝着'学习'迈出了一大步。这一刻,AI的未来被彻底改写了!

"让我们来看看两位'疯狂科学家'的脑洞大开时刻!首先是法国数学家博雷尔,他做了个逻辑实验,想象一群猴子在打字机上随机敲击,最终能打出莎士比亚全集!这不就是无限猴子定理吗?
另一边,阿根廷文豪博尔赫斯在小说里构思了个'完美图书馆',里面包含了所有可能的书籍组合。
这两个想法简直就是AI和大数据的先知啊!博雷尔和博尔赫斯,一个用数学,一个用文学,都在畅想信息的序列可能性。"
"达特茅斯会议上,所罗门诺夫像个魔术师,从帽子里拿出了一份神秘打字稿《归纳推理机器》。这一手可把大家迷住了!原本痴迷神经网络的科学家们纷纷'叛变',投入了符号主义的怀抱。但是,瞧瞧这戏剧性的转折!多年后,真正实现所罗门诺夫归纳的,竟然是被'抛弃'的神经网络!这简直就像是科技界的童话故事——灰姑娘终于穿上了水晶鞋,成为了AI舞会的主角!
所罗门诺夫的想法,就像是种下的一颗种子,最终在意想不到的地方开花结果。"

"让我们来看看AI界的'过山车'历史!连接主义,这个曾经的'弃婴',现在可是AI界的'明星'啦!
想象一下,这是一场漫长的接力赛。起跑时,是受神经元启发的感知器,像个初生牛犊不怕虎。但很快就遇到了所谓单层神经的XOR的'滑铁卢',被大佬们打入冷宫'。
但是,上世纪80年代,多层神经和BP算法横空出世,给连接主义注入了新的生命力。如今,深度学习更是如日中天,连接主义'咸鱼翻身',成为了AI界的'顶流'。

"让我们来看看1960年所罗门诺夫的'魔法时刻'!
第一个魔法,最小描述,这是指用最简洁的方式压缩数据。这一思想后来发展成为了'柯尔莫戈罗夫复杂度',即,K氏复杂度,成为大模型理论的核心。
第二个魔法,先验概率:在没有特定信息的情况下,对事件发生可能性的初始估计。
这两个概念看似简单,却蕴含深刻的洞见。它们为我们理解信息、复杂性和学习提供了全新的视角,直接影响了后来人工智能和机器学习的发展方向"

1961年,人工智能大神Minsky写了一篇重要文章,提到了机器定理证明、神经网络、机器学习、强化学习等概念,简直是AI界的武林秘籍!他引用了95篇参考文献,其中4篇是所罗门诺夫的,可见他对所罗门诺夫的重视。有趣的是,最终是神经网络率先实现了所罗门诺夫Induction,这真是个令人意外的转折!

1964年,所罗门诺夫发表了一篇惊世骇俗的论文,名为《归纳推理的形式理论》。这篇论文堪称 AI 领域的“武林秘籍”,详细介绍了如何用数学语言来描述归纳推理。简单来说,就是从数据中学习规律,预测未来!这篇论文可是 所罗门诺夫归纳推理的“扛鼎之作”,奠定了他在机器学习领域的江湖地位。
Solomonoff 的这篇论文第二部分给出了归纳推理的形式理论在不同问题上的应用示例。其中一个例子就是语法发现,即如何从观测到的语言数据中学习语言的语法规则。这个例子在今天看来,就是语言学习的问题,即机器如何像人类一样学习语言。所罗门诺夫 在论文中还探讨了一个更深层次的问题:语言是否等于思维?这个问题至今仍然没有明确的答案,但所罗门诺夫的研究为我们思考这个问题提供了一个新的视角。

所罗门诺夫对科学家如何发现事物产生浓厚的兴趣,并试图找到一种通用的科学发现方法。这个兴趣促使他开始研究归纳推理,并最终提出了算法概率的概念。
在学术生涯中,所罗门诺夫将归纳推理应用于语言学习等领域,取得了重要的成果。

苏联数学家安德烈·柯尔莫哥洛夫被誉为“万能数学家”。在计算机科学领域,他主要有两大贡献:
Kolmogorov K氏叠加定理 (K-A-N): 该定理与著名的希尔伯特第13问题有关,涉及到函数的表示与逼近。
K氏复杂度: 这是一种衡量信息复杂性的方法。它将一个对象的复杂度定义为生成该对象的最短程序的长度。
此外,柯尔莫哥洛夫对控制论和信息论也有独特的见解。他认为控制论缺乏内在的统一性,但对信息论表示认同。这种观点与香农、麦卡锡等人的看法一致。

柯尔莫哥洛夫认为,信息论就像个大杂烩,有三种不同的做法:
数数派: 就像掷骰子,看某个点数出现的次数。
搭积木派: 关注积木块的数量和怎么组合。
写程序派: 把信息看成程序,越短的程序越简单。
K氏复杂性就是“写程序派”的代表作。简单来说,它就是衡量一个东西有多复杂,需要多短的程序才能把它描述出来。
有趣的是,K氏复杂性和所罗门诺夫归纳其实说的是一回事。所罗门诺夫归纳认为,简单的东西更容易出现。

蔡廷年少有为,18岁就在IEEE Transactions on Electronic Computers上发表了第一篇论文。19岁时,他在JACM上发表的论文独立地重新发现了所罗门诺夫和柯尔莫哥洛夫的思想。
蔡廷从贝里悖论出发,他认为,命名一个整数就相当于写出一个能输出这个整数的程序。大多数整数只能通过直接打印自身的方式来命名,没有更简洁的表示方法。这些整数在柯尔莫哥洛夫复杂性的框架下被视为“随机的”,因为它们的复杂性与它们的长度相当。蔡廷的观点与柯尔莫哥洛夫的思想一致,都强调了大多数对象(或整数)是不可压缩的,即它们的复杂性与它们的长度相当。这意味着它们没有更简单的表示方法,无法简洁的解释。
这种不可解释性或随机性在自然界中普遍存在。例如,大多数DNA序列、物理常数和自然现象没有明显的规律可循,无法用简单的公式或理论来解释。相反,可解释性(即可以用简洁的方式描述或解释的现象)只是偶然出现的。
列昂尼德·列文在1972年发表的一篇两页纸的论文中证明了两个定理:
定理1: 即NP-完全性,即Cook-Levin定理,为计算复杂性理论的发展做出了重要贡献。
定理2: 是柯尔莫哥洛夫复杂性的一个推广。

Charles Bennett提出了逻辑深度的概念,它考虑了生成一个对象所需的最短程序的运行时间。大语言模型的参数可以看作是模型内部存储的信息量。因此,将模型参数比作柯氏复杂度是合理的。大语言模型的推理时间比作逻辑深度也是合理的。
李明是滑铁卢大学的杰出教授,在信息论和生物信息学领域做出了卓越贡献。他将K氏复杂性从单个序列扩展到两个序列,不仅可以测量单个序列内的信息,还可以测量两个序列之间的信息,这对通用大模型定义万能任务及其非监督学习完成各种任务意义重大。他与Paul Vitanyi合著的《An Introduction to Kolmogorov Complexity and Its Applications》被认为是该领域的经典著作,对信息科学的发展产生了深远影响。
Marcus Hutter是一位物理学家出身的计算机科学家,他提出了AIXI通用人工智能框架,并认为语言建模本质上就是压缩。他将所罗门诺夫归纳用于解释智能体和强化学习,认为学习过程就是压缩过程,并致力于研究通用人工智能。
Open AI 前灵魂人物伊利亚在伯克利演讲中,揭示监督学习与非监督或曰自监督学习的联系。伊利亚声称他在2016年独立想到了所有监督学习可以被归约为自监督学习的观点,并追溯到K氏复杂度为基础的压缩理论。伊利亚笃信简单的自回归GPT模型可以在超大数据展现超级智能。
回顾一下模型发展的时间线:深度神经Transformer架构于2017年6月提出,BERT模型于2018年10月提出。OpenAI的GPT系列模型从2018年6月开始,陆续推出了GPT、GPT2和GPT3,现在到了GPT4,成为业界主流。
总结一下,所罗门诺夫归纳第一步是收集观察数据。第二步形成假设解释数据: 假设可以是一个图灵机或一个数据驱动的大模型。第三步进行实验验证。如果数据证伪,则返回步骤2形成新的假设。
大模型遵循的是所罗门诺夫归纳的路线训练模型及其推理应用。

回顾整个历史,也许不是理论落后于实践,而是太超前了。

我是小范,尼克的数字秘书,谢谢您一路跟随尼克探寻大模型理论渊源以及AI历史风云的过程。咱们后会有期。

 

立委NLP频道