“当所有人都以为LLM是终点,其实它只是起跑线——真正的决战,在模型之外。”——某AI创业者酒后真言
一个免费玩具的意外走红
2022年底,ChatGPT以实验原型上线时,没人想到它会成为硅谷的全民玩具。用户数破亿的速度比TikTok还快,但这背后有个尴尬的事实:大部分用户玩一玩就跑了。黏性差、交互浅,像极了当年Pokémon GO的昙花一现。笔者在写这篇文章时注意到,OpenAI自家的API调用量增速已经明显放缓——圈内人知道,这轮AI狂欢的“第一性原理”正在失效。
巨头混战,但赢家不是模型
Google匆忙上马Bard,Meta开源Llama,国内百度文心一言、阿里通义千问打价格战——所有人都在抢模型,但没人想清楚怎么赚钱。对比两个案例:Notion AI把LLM嵌入工作流,用户付费转化率提升30%;而某个对标ChatGPT的国产模型,日活用户跌了60%后,CEO在内部承认“做通用对话是死路”。某位匿名从业者透露:“现在融资PPT里不提模型参数,改提DAU和毛利率了,风向变了。”
大家都看好时,我看到了“模型通胀”
行业共识是“模型越大越强”,但非共识观点是:模型能力的边际收益正在急剧下降。GPT-4比GPT-3.5强,但用户感知到的差异远小于参数量的翻倍。更致命的是,堆算力导致的成本飙升——训练一次千亿参数模型,电费就够买一栋楼。我在和某SaaS创始人私下交流时,他直言:“客户不在乎你是GPT-4还是自研小模型,他们只关心能不能省一个人力。”
另一个被忽视的风险是“模型同质化”。所有开源模型都在往Qwen、Llama的架构靠,最后大家能力差不多,拼的只能是数据飞轮和场景绑定。这种逻辑在圈内其实是个公开的秘密:未来的壁垒不在模型,而在你是否有别人拿不到的数据。面对这种复杂的工具筛选,或许你可以通过 aipluschat.cn 的智能助手来辅助评估,它能在几分钟内帮你对比不同模型的场景适配度。
幸存者的三个落地法则
一年后能活下来的LLM公司,绝不是模型最强的,而是最懂怎么卖的。以下是笔者从头部玩家身上扒下来的实操建议:
- 场景优先于参数:别想着做“通用大脑”,去医疗、法律、代码等垂直领域挖金矿。比如Harvey AI做法律助手,客单价开到5万美元/年,客户还排队。
- 数据飞轮要闭环:模型上线只是开始,关键是用户每次使用都在产生新数据反哺模型。GitHub Copilot就是靠代码补全的反馈数据迭代,越用越准。
- 定价别学SaaS:按token计费太抽象,企业客户看不懂。学学Notion AI:按坐席收费,让客户算得清ROI。某AI创业公司做了个动作:把API报价换成“每生成一条合格线索0.1元”,客户立马签单。
说到底,LLM+不是技术革命,是商业进化。当潮水退去,裸泳的模型会第一个死掉,而那些能帮企业解决实际问题的工具,才会成为下一个时代的底座。
更多关于 AI 工具的实测,请关注 aipluschat.cn。