大数跨境
0
0

AI在实际生成环境中的提效实践

AI在实际生成环境中的提效实践 百度Geek说
2025-08-06
18
导读:本文作者在结合百度国际化广告架构团队在实践AICoding的过程中,沉淀的一套全流程AI提效的全流程方案。

作者 | 国际化广告平台架构团队


随着AI时代的到来,各类AI工具不断涌现,业界正积极探索AI赋能的研发提效方案。我们团队结合自身特点,依托历史知识库沉淀,构建了一套深度融合AI的研发工作流,全面提升研发效率。
全文约6042字,预计阅读时间15分钟

背景

  • AI研发工具层出不穷,行业普遍在探索AI驱动的提效路径。
  • 团队虽有完善的内部规范文档,但尚未有效融入开发流程。
  • Code Review、自测、接口文档维护等环节耗时较多。

目标

1. 拥抱AI时代,推动团队技术升级。

2. 通过AI赋能研发流程,提升整体效率。

思路

  1. 拆解研发流程,识别AI可介入的关键节点并串联成链。
  2. 深入探索AI IDE的最佳实践。
  3. 充分利用团队知识库,增强AI辅助能力。

定位

  1. 作为起点,推动团队研发流程向AI化转型。
  2. 带动团队成员共同审视现有流程,共建更多AI加持的工作流。

研发链路

通过对研发流程的拆解,明确各阶段AI工作流的应用形态,并逐步推进演进。

当前团队处于第一阶段收尾、第二阶段初步探索阶段。以下为具体实践分享。

原有研发流程:

AI加持后的研发流程:

AI 工作流说明

AI-Cafes: 自动生成需求文档与产品原型图,减少产品人力投入。

AI-Docs: 将需求文档自动转化为技术文档,降低研发梳理成本。

AI-DocsCoding: 基于技术文档生成基础代码(无业务逻辑),提升编码效率。

AI-Coding: 结合团队编码规范生成代码,减少返工,提高一致性。

AI-API: 通过MCP Server打通接口文档,确保文档实时同步,避免滞后。

AI-CR: 基于规则进行AI代码审查,释放人工精力聚焦关键问题。

AI-Develops: 在测试、验证、监控环节引入AI,提升运维效率。

需求阶段

AI-CafeDocs

传统模式下,需求评审后需投入至少0.5人天完成技术文档和API准备,此类工作具有重复性、可替代性、可节省性

我们构建了“需求文档 → aisuda(百度低代码平台)→ 大模型 → 技术文档(Markdown)”的工作流。

微调模型后,仅需两步即可完成:

  1. 输入需求文档,生成初版技术文档。
  2. 人工校验并调整细节。

后续由前后端协作完善实现逻辑。

AI-DocsCoding

在获得技术文档后,进一步延伸至代码生成环节。CRUD类基础代码属于重复性、可替代性、可节省性任务。

我们实现“技术文档 → MCP Server → AI IDE”的自动化流程。

MCP打通内部知识库,使AI能读取上下文并辅助开发。

当前AI生成代码尚不能完全替代复杂业务逻辑,因此采用如下分工:

  1. AI生成非业务逻辑的基础代码(参数处理、数据操作等)。
  2. 人工补充核心业务逻辑。

人的角色从执行者转变为驱动者或观察者,通过提出需求、监督过程、验收结果的方式管理AI产出。

开发阶段

AI-Coding

AI-Coding围绕AI IDE展开,如Cursor、Comate、Trae等工具。尽管底层模型重要,但在实际使用中,更关键的是如何有效利用Rule机制控制AI行为。

目前AI仍需人工参与审查,合理使用Rule是提升提效效果的核心。

Rule机制详解

定义: Rule是连接开发者意图与AI生成行为的关键桥梁,用于指导AI理解项目上下文、遵循编码规范、生成预期代码。

作用: 解决大模型缺乏持久记忆的问题,通过在Prompt中注入上下文信息,提供稳定一致的生成指导。

由于Rule会占用上下文Token,建议按层级划分管理:

  • IDE全局层(User Rules): 所有项目通用,包含个人编码偏好,限制50行以内。
  • 项目基础层(Always Rules): 项目级强制规范,位于.xx/rules/always/,涵盖技术栈与核心原则,限100行内。
  • 自动匹配层(Auto Rules): 针对特定文件或目录,位于.xx/rules/auto/,描述模块专用规范,单规则≤200行。
  • 智能推荐层(Agent Rules): 位于.xx/rules/agent/,AI根据对话智能调用,用于最佳实践建议,单规则≤150行。
  • 手动调用层(Manual Rules): 位于.xx/rules/manual/,用于完整模板引用,单规则≤300行。

Rule创建原则

内容优化:

  • 避免:详细代码示例(>100行)、重复概念解释。
  • 推荐:简洁要点列表(20–30行)、具体操作指令。

globs精确匹配:

  • 避免宽泛匹配:"**/*.go"(所有Go文件)。
  • 推荐精准匹配:
    • "internal/handler/**/*.go"(仅处理器)
    • "internal/repository/**/*.go"(仅仓储层)
    • "**/*_test.go"(仅测试文件)

优先级设置

优先级 规则类型 应用场景 Token占用权重 冲突处理
priority: 10 Always规则 项目基础规范 最高,始终加载 覆盖所有低优先级
priority: 8-9 Auto规则(核心) 核心业务模块 高,匹配时加载 覆盖priority≤7
priority: 6-7 Auto规则(辅助) 辅助功能模块 中,匹配时加载 覆盖priority≤5
priority: 5 Agent规则 智能优化建议 中,相关时加载 覆盖priority≤4
priority: 3-4 Manual规则 模板参考 低,调用时加载 被高优先级覆盖
priority: 1-2 实验性规则 测试功能 最低 被所有规则覆盖

优先级使用策略

  1. 基础规范设为10: 项目必须遵守的核心规范。
  2. 核心模块设为8–9: handler、service、repository等主模块。
  3. 辅助模块设为6–7: middleware、config、utils等。
  4. 优化建议设为5: 性能优化、最佳实践提示。
  5. 模板参考设为3–4: 脚手架或代码模板。
  6. 实验功能设为1–2: 新规则测试,避免影响稳定功能。

冲突解决机制

  • 高优先级规则覆盖低优先级冲突部分。
  • 相同优先级按文件名字母顺序加载。
  • Always规则始终优先于其他类型。

Rule的核心价值在于精细化控制AI在代码理解、生成、重构中的行为,使其从通用助手进化为深度理解项目的“领域专家”。

记忆库(Memory Bank)

结合Rule机制,构建专属业务研发助手。

在复杂项目中,AI常因无法感知历史上下文而表现不佳。引入记忆库后,每次迭代的上下文被记录,确保AI重新进入开发时不会丢失状态。

记忆库本质是Rules的一种应用形式,将上下文提示词存于指定位置,强制AI读取以恢复开发状态,有效缓解上下文丢失问题。

区别于IDE私有长期记忆,记忆库是公共项目级共享资源。

MCP Server(重点)

MCP(Model Context Protocol) 是Anthropic于2024年11月提出的协议,旨在统一LLM与外部数据源、工具和服务的交互方式,标准化AI与真实世界的连接。

before MCP with MCP

MCP架构三要素:

  • Host主机: 用户与AI交互环境(如Claude Desktop、Cursor)。
  • Client客户端: 连接LLM与MCP Server,传递指令与结果。
  • Server服务器: 提供轻量级服务节点,赋予AI访问资源与调用工具的能力,为核心组件。

开发中可接入多种MCP Server:

  • 实时搜索:百度、Google、GitHub、微博等。
  • 存储系统:MySQL、Redis等。
  • 工具命令:kubectl、yapi等。

典型用法

用法一:集成搜索引擎

  • 查询“夜的命名术是否完结”。
  • 搜索Go 1.24新特性并让AI总结。
  • 查找Linux快捷命令。

无需切换浏览器,节省搜索、整理、返回的时间。

用法二:自然语言操作数据库

Redis自然语言查询

MySQL自然语言查询

GCP自然语言查询

集成多Client显著提升开发效率。

关键点:

  1. 接入MCP Server无需手动配置,只需提供链接,AI可自行完成接入。
  2. 禁止在开发环境中使用线上账号密码。

AI-API

接口文档维护一直是前后端协作的痛点:前端抱怨文档不一致,后端认为更新耗时。

随着版本迭代,文档易脱离代码,交接不清导致项目难以接手。

核心痛点:

  • 重复劳动: 每次接口变更都需手动同步文档。
  • 低效沟通: 接口约定后再开发属于重复性、可替代性、可节省性工作。

通过搭建API MCP Server,实现自动化流转:

后端完成编码 → AI推送文档 → 文档自动更新 → AI拉取 → 前端生成代码

研发人员只需专注业务实现,无需处理繁琐对接。

Better Thinking

1. 学会递归使用AI

例如部署MCP Server:

  • 传统方式:查找 → 配置 → 调试 → 使用。
  • 递归方式:
    • 提供链接,让AI自动安装。
    • 让AI修改mcp.json配置。
    • 让AI调试通联。
    • 甚至让AI主动搜索可用Server。

2. 把AI当作真正工具

面对“录屏转GIF”这类小需求,传统方式麻烦且耗神。通过AI编写脚本,一键转换,极大简化流程。

对于任何“能做但费劲”的场景,都应思考:Can AI Do It?

常见适用场景包括:捞数据、写文档、查Bug等杂务。

集成阶段

AI-CR

问题:

  • 时间压力: 每周数十个CR,审查耗时。
  • 沟通低效: 评论模糊,需反复确认。
  • 重复劳动: 相似改动重复审查。

引入AI提前识别基础问题,使人能聚焦关键逻辑,提升审查效率。

解决方案:AI预审 + 人工复核

运维阶段

AI-Develops

随着系统复杂度上升,告警数量激增,传统人工响应难以应对。

现存问题:

  • 方向壁垒:跨方向告警只能路由。
  • 经验壁垒:新人与资深成员处理效率差异大。

多数告警处理流程具有方法论,属于重复性、可替代性、可节省性工作。

我们构建智能化应急诊断系统,利用AI提升MTTR(平均故障修复时间)。

AI自动捕获告警并分析,仅在无法解决时交由人工。

优势: 所有历史Case与文档沉淀为AI知识库,存量问题由AI拦截,仅新增Case需人工介入。相当于团队拥有一位永不离职、持续学习的AI运维专家。

总结

以上为百度国际化广告团队在AI提效方面的实践。希望通过此分享,启发更多团队审视现有流程,共建AI赋能的研发工作流。

AI的本质是助手。只要工作中存在重复性、可替代性、可节省性任务,就值得尝试交由AI处理。

【声明】内容源于网络
0
0
百度Geek说
1234
内容 347
粉丝 0
百度Geek说 1234
总阅读3.3k
粉丝0
内容347