Node.js 接 AI 服务时,为什么网关层比业务层更先复杂
补档说明:本文属于「AI 工程落地周记」系列,计划发布时间为 2025-05-06 20:15。当前先保留为草稿,后续补充真实案例、代码片段和复盘细节后再发布。
如果只用一个真实链路来解释这个标题,我会选“内部知识问答 API”。
这套服务最开始的目标很简单:前端把用户问题丢给后端,后端转发给模型,再把答案返回。最早大家以为复杂度会集中在业务逻辑上,比如:
- 检索怎么做
- 答案怎么组织
- 是否需要引用来源
但上线后很快发现,真正最先失控的不是这些,而是业务层外面那一圈:谁能调用、该走哪个模型、超时怎么退、缓存怎么命中、配额怎么算、错误怎么统一。
也就是说,业务逻辑还没来得及长大,网关层已经先膨胀了。
