作者 | 国际化广告平台架构团队
背景
- AI研发工具层出不穷,行业普遍在探索AI驱动的提效路径。
- 团队虽有完善的内部规范文档,但尚未有效融入开发流程。
- Code Review、自测、接口文档维护等环节耗时较多。
目标
1. 拥抱AI时代,推动团队技术升级。
2. 通过AI赋能研发流程,提升整体效率。
思路
- 拆解研发流程,识别AI可介入的关键节点并串联成链。
- 深入探索AI IDE的最佳实践。
- 充分利用团队知识库,增强AI辅助能力。
定位
- 作为起点,推动团队研发流程向AI化转型。
- 带动团队成员共同审视现有流程,共建更多AI加持的工作流。
研发链路
通过对研发流程的拆解,明确各阶段AI工作流的应用形态,并逐步推进演进。
当前团队处于第一阶段收尾、第二阶段初步探索阶段。以下为具体实践分享。
原有研发流程:
AI加持后的研发流程:
AI 工作流说明
AI-Cafes: 自动生成需求文档与产品原型图,减少产品人力投入。
AI-Docs: 将需求文档自动转化为技术文档,降低研发梳理成本。
AI-DocsCoding: 基于技术文档生成基础代码(无业务逻辑),提升编码效率。
AI-Coding: 结合团队编码规范生成代码,减少返工,提高一致性。
AI-API: 通过MCP Server打通接口文档,确保文档实时同步,避免滞后。
AI-CR: 基于规则进行AI代码审查,释放人工精力聚焦关键问题。
AI-Develops: 在测试、验证、监控环节引入AI,提升运维效率。
需求阶段
AI-CafeDocs
传统模式下,需求评审后需投入至少0.5人天完成技术文档和API准备,此类工作具有重复性、可替代性、可节省性。
我们构建了“需求文档 → aisuda(百度低代码平台)→ 大模型 → 技术文档(Markdown)”的工作流。
微调模型后,仅需两步即可完成:
- 输入需求文档,生成初版技术文档。
- 人工校验并调整细节。
后续由前后端协作完善实现逻辑。
AI-DocsCoding
在获得技术文档后,进一步延伸至代码生成环节。CRUD类基础代码属于重复性、可替代性、可节省性任务。
我们实现“技术文档 → MCP Server → AI IDE”的自动化流程。
MCP打通内部知识库,使AI能读取上下文并辅助开发。
当前AI生成代码尚不能完全替代复杂业务逻辑,因此采用如下分工:
- AI生成非业务逻辑的基础代码(参数处理、数据操作等)。
- 人工补充核心业务逻辑。
人的角色从执行者转变为驱动者或观察者,通过提出需求、监督过程、验收结果的方式管理AI产出。
开发阶段
AI-Coding
AI-Coding围绕AI IDE展开,如Cursor、Comate、Trae等工具。尽管底层模型重要,但在实际使用中,更关键的是如何有效利用Rule机制控制AI行为。
目前AI仍需人工参与审查,合理使用Rule是提升提效效果的核心。
Rule机制详解
定义: Rule是连接开发者意图与AI生成行为的关键桥梁,用于指导AI理解项目上下文、遵循编码规范、生成预期代码。
作用: 解决大模型缺乏持久记忆的问题,通过在Prompt中注入上下文信息,提供稳定一致的生成指导。
由于Rule会占用上下文Token,建议按层级划分管理:
- IDE全局层(User Rules): 所有项目通用,包含个人编码偏好,限制50行以内。
- 项目基础层(Always Rules): 项目级强制规范,位于
.xx/rules/always/,涵盖技术栈与核心原则,限100行内。 - 自动匹配层(Auto Rules): 针对特定文件或目录,位于
.xx/rules/auto/,描述模块专用规范,单规则≤200行。 - 智能推荐层(Agent Rules): 位于
.xx/rules/agent/,AI根据对话智能调用,用于最佳实践建议,单规则≤150行。 - 手动调用层(Manual Rules): 位于
.xx/rules/manual/,用于完整模板引用,单规则≤300行。
Rule创建原则
内容优化:
- 避免:详细代码示例(>100行)、重复概念解释。
- 推荐:简洁要点列表(20–30行)、具体操作指令。
globs精确匹配:
- 避免宽泛匹配:
"**/*.go"(所有Go文件)。 - 推荐精准匹配:
"internal/handler/**/*.go"(仅处理器)"internal/repository/**/*.go"(仅仓储层)"**/*_test.go"(仅测试文件)
优先级设置
| 优先级 | 规则类型 | 应用场景 | Token占用权重 | 冲突处理 |
priority: 10 |
Always规则 | 项目基础规范 | 最高,始终加载 | 覆盖所有低优先级 |
priority: 8-9 |
Auto规则(核心) | 核心业务模块 | 高,匹配时加载 | 覆盖priority≤7 |
priority: 6-7 |
Auto规则(辅助) | 辅助功能模块 | 中,匹配时加载 | 覆盖priority≤5 |
priority: 5 |
Agent规则 | 智能优化建议 | 中,相关时加载 | 覆盖priority≤4 |
priority: 3-4 |
Manual规则 | 模板参考 | 低,调用时加载 | 被高优先级覆盖 |
priority: 1-2 |
实验性规则 | 测试功能 | 最低 | 被所有规则覆盖 |
优先级使用策略
- 基础规范设为10: 项目必须遵守的核心规范。
- 核心模块设为8–9: handler、service、repository等主模块。
- 辅助模块设为6–7: middleware、config、utils等。
- 优化建议设为5: 性能优化、最佳实践提示。
- 模板参考设为3–4: 脚手架或代码模板。
- 实验功能设为1–2: 新规则测试,避免影响稳定功能。
冲突解决机制
- 高优先级规则覆盖低优先级冲突部分。
- 相同优先级按文件名字母顺序加载。
- Always规则始终优先于其他类型。
Rule的核心价值在于精细化控制AI在代码理解、生成、重构中的行为,使其从通用助手进化为深度理解项目的“领域专家”。
记忆库(Memory Bank)
结合Rule机制,构建专属业务研发助手。
在复杂项目中,AI常因无法感知历史上下文而表现不佳。引入记忆库后,每次迭代的上下文被记录,确保AI重新进入开发时不会丢失状态。
记忆库本质是Rules的一种应用形式,将上下文提示词存于指定位置,强制AI读取以恢复开发状态,有效缓解上下文丢失问题。
区别于IDE私有长期记忆,记忆库是公共项目级共享资源。
MCP Server(重点)
MCP(Model Context Protocol) 是Anthropic于2024年11月提出的协议,旨在统一LLM与外部数据源、工具和服务的交互方式,标准化AI与真实世界的连接。
| before MCP | with MCP |
![]() |
![]() |
MCP架构三要素:
- Host主机: 用户与AI交互环境(如Claude Desktop、Cursor)。
- Client客户端: 连接LLM与MCP Server,传递指令与结果。
- Server服务器: 提供轻量级服务节点,赋予AI访问资源与调用工具的能力,为核心组件。
开发中可接入多种MCP Server:
- 实时搜索:百度、Google、GitHub、微博等。
- 存储系统:MySQL、Redis等。
- 工具命令:kubectl、yapi等。
典型用法
用法一:集成搜索引擎
- 查询“夜的命名术是否完结”。
- 搜索Go 1.24新特性并让AI总结。
- 查找Linux快捷命令。
无需切换浏览器,节省搜索、整理、返回的时间。
用法二:自然语言操作数据库
Redis自然语言查询
MySQL自然语言查询
GCP自然语言查询
集成多Client显著提升开发效率。
关键点:
- 接入MCP Server无需手动配置,只需提供链接,AI可自行完成接入。
- 禁止在开发环境中使用线上账号密码。
AI-API
接口文档维护一直是前后端协作的痛点:前端抱怨文档不一致,后端认为更新耗时。
随着版本迭代,文档易脱离代码,交接不清导致项目难以接手。
核心痛点:
- 重复劳动: 每次接口变更都需手动同步文档。
- 低效沟通: 接口约定后再开发属于重复性、可替代性、可节省性工作。
通过搭建API MCP Server,实现自动化流转:
后端完成编码 → AI推送文档 → 文档自动更新 → AI拉取 → 前端生成代码
研发人员只需专注业务实现,无需处理繁琐对接。
Better Thinking
1. 学会递归使用AI
例如部署MCP Server:
- 传统方式:查找 → 配置 → 调试 → 使用。
- 递归方式:
- 提供链接,让AI自动安装。
- 让AI修改mcp.json配置。
- 让AI调试通联。
- 甚至让AI主动搜索可用Server。
2. 把AI当作真正工具
面对“录屏转GIF”这类小需求,传统方式麻烦且耗神。通过AI编写脚本,一键转换,极大简化流程。
对于任何“能做但费劲”的场景,都应思考:Can AI Do It?
常见适用场景包括:捞数据、写文档、查Bug等杂务。
集成阶段
AI-CR
问题:
- 时间压力: 每周数十个CR,审查耗时。
- 沟通低效: 评论模糊,需反复确认。
- 重复劳动: 相似改动重复审查。
引入AI提前识别基础问题,使人能聚焦关键逻辑,提升审查效率。
解决方案:AI预审 + 人工复核
运维阶段
AI-Develops
随着系统复杂度上升,告警数量激增,传统人工响应难以应对。
现存问题:
- 方向壁垒:跨方向告警只能路由。
- 经验壁垒:新人与资深成员处理效率差异大。
多数告警处理流程具有方法论,属于重复性、可替代性、可节省性工作。
我们构建智能化应急诊断系统,利用AI提升MTTR(平均故障修复时间)。
AI自动捕获告警并分析,仅在无法解决时交由人工。
优势: 所有历史Case与文档沉淀为AI知识库,存量问题由AI拦截,仅新增Case需人工介入。相当于团队拥有一位永不离职、持续学习的AI运维专家。
总结
以上为百度国际化广告团队在AI提效方面的实践。希望通过此分享,启发更多团队审视现有流程,共建AI赋能的研发工作流。
AI的本质是助手。只要工作中存在重复性、可替代性、可节省性任务,就值得尝试交由AI处理。



