一篇文章说清楚AI原生架构(AI Native)
引言
大家好,最近openClaw大爆,不少软件/服务都纷纷迭代,提供了CLI或MCP,供各类龙虾、螃蟹以及其他海鲜水产接入(开个玩笑)。我前面写过一篇文章,呼吁各位同仁警惕马车陷阱,不要用AI能力去做了一堆旧式马车出来。同时,我也在思考研究AI时代的软件究竟应该是什么形态,难道就是openClaw这样吗?当然,这个命题实在很大,我个人能力也特别有限,而且其实也还未到能说清楚的时候(子弹还得飞一会),但是从底层技术哲学的角度来看,整体的框架还是有轮廓的,于是我尝试用这篇文章将我的思考写出来,尝试说清楚AI原生架构到底是什么,什么样,能解决什么问题,以及与传统软件架构的关系,也欢迎讨论指正。
首先,AI Native是什么
如果用严肃的语言去描述,AI Native 可以定义为:以大模型作为底层的推理内核与控制逻辑中枢,实现业务流程的编排与交互的语义化,并具备进化能力的软件或系统。
AI Native应用区别于集成了AI功能或外挂了AI能力的应用,比如腾讯会议最近提供了AI会议纪要功能(很棒的功能),但腾讯会议app不是AI Native应用。
要深刻理解AI Native,只需要从一个底层维度去认识到它和传统软件的区别:确定性还是概率性? 传统软件最典型的特征就是无状态的Restful API,使用同样的参数去调用api必定给出同样的结果,这就是确定性,而AI原生架构的内核就是基于概率性的LLM,它会根据训练数据、模型版本和实时的环境上下文进行适应和动态自主决策。
其次,AI Native应用架构
同样,为了便于理解,我还是先说传统软件架构(抱歉,现在云原生架构也归于“传统”了,技术迭代就是这么快),传统软件架构自下而上是:
以CPU为核心的硬件设施->基于关系数据库/NoSQL的数据层->固化业务逻辑的后台服务层->固化用户交互的前台展示层。
而AI Native应用由于其的核心价值不同,它的架构与传统软件架构有了很大的区别,自下而上是:
以GPU为核心的硬件设施->基于向量数据库的记忆层(以及非结构化数据的语义处理管道)->大模型及大模型网关层->智能体工作流与编排层。
如你所见,AI Native架构没有了UI层,那是因为传统的UI是为了与人交互,在AI Native应用里,人已经被作为一个特殊的节点——通常是观察者、审查者或者最终接管者——被编排到了智能体工作流中。很难理解吗?想想AI Coding的时候,你在干什么。
AI Native应用高度依赖数据,特别是企业专有数据和领域知识数据,来减少幻觉并提供具备独特价值的反馈。因此,在实现AI Native应用时,必然要构建非结构化数据处理管道,选择合适的分块策略,以确保将文档转化为模型易于理解的连贯单元,选择合适的嵌入模型,将文本/多模态数据转化为高维向量。
向量数据库是记忆层的核心设施,用于存储和进行语义搜索。同时,为了提高性能降低Token消耗,这里通常还要构建语义缓存(比如基于Redis LangCache),不同于传统基于精确键值匹配的缓存,语义缓存判断用户查询的意图相似度。对于相似问题直接返回缓存,从而降低Tokens成本和推理延迟。
在智能体工作流与编排层,一方面是明确多智能体的设计模式,我们需根据业务场景去选择多智能体的协作模式,是顺序模式、并发模式、Maker-Checker模式、ReAct模式或者动态编排模式。另一方面是实现MCP的集成,MCP作为一种标准化的客户端-服务器通信规范,让AI智能体能在运行时动态发现并安全调用外部数据源和工具,无疑是大大拓宽了AI Native应用的能力边界。
随便说一下,AI Native应用的评价指标将有别于传统应用。传统应用追求的是高可用以及适当的性能(响应、吞吐),AI Native则还需要考虑模型的准确性以及一次请求的Tokens成本。可以预见,将来调优的工作是越来越复杂了~
第三,AI Native应用还是传统应用
AI Native应用绝对不会替代传统应用,因为AI Native实质上是拓宽了软件应用的服务能力,它做到了传统应用做不到的事情,但是在一些场景下,传统应用是毫无疑问的最佳实践。如果谁妄想拿起AI Native这把锤子把所有的业务场景都当做钉子,那绝对是自寻死路。总的来说,AI Native适合处理复杂、开放式和需要认知能力的任务,而对于高度确定且规则明晰的任务仍然是传统应用的主场。
对于开放式的任务,传统应用受限于代码逻辑,只能按照既定规则执行命令。而 AI Native应用的核心能力就是弄清楚并解决问题。它们能够像人一样自主工作,在遇到歧义时形成假设并测试验证,并在遇到死胡同时自主纠正错误,这是传统应用完全无法做到的。
但是如果一个业务用例可以通过预先定义的明确步骤来解决,传统应用的可靠性和可复现性就成了巨大的优点。同时,传统应用具备更快的响应能力,AI Native应用的思考过程不可能快的过。当然,不可忽视的还有CPU相较于GPU的巨大的成本优势。
因此,将非确定性的AI编排模式应用于本质上是确定性的业务场景,是一种愚蠢的架构错误。企业级应用的最佳实践是各司其职:用传统软件构建确定性的骨架和规则底座,用 AI Native 系统充当“认知大脑”。让传统软件处理固定化的业务流与数据存储,而让 AI 去解决非结构化数据输入、意图路由、多步骤规划以及那些需要灵活性和创造力的边缘场景。
结语
AI时代的冲击是全面的,毕竟即使是适合用传统应用去解决的场景,也可以让AI去写传统应用软件嘛,整个社会陷入了狂热(从没想到代装龙虾也能挣钱- -)。但可以看到的是在LLM的狂热中,还是有不少人给出了警示。狂热不能持久,终将回归理性。下一期我可以讲讲这场狂热中的少数派,毕竟,可能他们掌握着TRUTH?
