Article

免费服务的商业行为

当商品便宜到无法支持成本的时候,顾客本身就是商品

April 14, 2026 工具 3 min read

缘起

两周前,GitHub Copilot 收紧了学生权益中对各类 AI 模型的使用额度。

这几天,ChatGPT 出现大规模封号,Gemini 也开始压缩非付费用户的使用权限。

这一系列变化,像是在反复提醒我们一件事:那个依靠烧钱补贴、疯狂扩张的 AI 时代,正在迅速退场——而且,比你我想象中更快。


从“按次计费”到“按量付费”

大模型 API 的计费模式其实早已存在,但一直未被大众真正接受。

原因很简单:人们难以直观理解“按 Token 计费”这种方式。 什么叫一次对话价格不固定? 什么叫一次请求可能花掉几美元?

相比之下,大厂提供了一种更容易被接受的方案——按次计费。

无论是 credit 限制,还是网页端“对话次数”,本质上都类似于现实中的“按件计价”:
一瓶牛奶 3 元,两瓶就是 6 元。

没有人会去思考“买 1.3 瓶牛奶”的问题。

但当开发者逐渐熟悉 Token、熟悉 API,开始真正理解“用多少付多少”的逻辑之后,原本被隐藏的成本,也就不再需要掩饰了。

补贴结束,真实价格开始显现,而且来得很快。


补贴为何终结?

大模型的运行成本极高。

算力、服务器维护、电力消耗——这些都不是一个普通订阅费可以覆盖的。

过去几年,大厂愿意持续补贴,一方面是为了抢占市场,另一方面,是因为“数据”本身具有价值。

但现在,他们逐渐发现:

绝大多数用户的使用场景,不过是日常问答、简单检索,甚至是搜索引擎更擅长的问题。

这些数据,并没有想象中那么“值钱”。

当数据红利边际递减,补贴自然也就失去了意义。


我的 API 使用经历

作为一个依赖生活费的学生,我也用过闲鱼上的“保真” Codex API。

“1 天 10 美元额度的 GPT-5.4,只要 0.35 元。”

我其实并不在意它是否被“掺水”。 当看到它能在 VS Code 里以 18 token/s 的速度稳定输出,我就已经很满足了

至于在Codex这个美女模型的背后到底是“李逵”还是“李鬼”,谁还会在乎呢。


更隐蔽的风险

但问题也正是在这里。

这些 API 中转站,想赚的从来不只是大模型厂商的“补贴差价”。

还有你的数据

在中国有一些稳定,好用的VPN,需要比较贵的价格。

但是有一些稍逊的VPN确实免费。

按照常理来说,第一类VPN应该毫无市场,因为中国人太过在乎性价比了。

但事实上,选择第二类的才是少之又少。

你的一些网络信息的流入流出比使用API更加透明,更加恐怖。

在一些灰色市场中,隐私数据的流通早已不是秘密。 而通过 API 传输的内容,往往是未经处理的明文。相比于传统的信息泄露方式,这种路径更加直接,也更加难以防范。

当你把代码、笔记、对话、甚至思考过程交给一个不透明的中间层时,你其实已经默认放弃了对这些信息的控制权。

而这一点,很多人并没有意识到。


结语

当价格低到无法覆盖成本时,商业模式一定会从别的地方寻找补偿。

有时候,被售卖的不是服务本身,而是使用服务的你。

AI 并没有变“更贵”,只是开始恢复它本该有的价格。

而我们,也需要重新理解: 什么值得付费,什么值得信任。