大数跨境

微观察 | Data Agent 正成为新一代数据基础设施的智能引擎

微观察 | Data Agent 正成为新一代数据基础设施的智能引擎 KiKi闯外贸
2025-09-18
322
导读:一周大数据产业动态|Data Agent 的发展特征;数据标注的模式转变;Google Cloud 发布 “101+ Gen AI 用例与技术蓝图”;VLDB 2025


一周大数据产业动态

本周点评

01

  • 在数据智能浪潮下,Data Agent 正成为新一代数据基础设施的智能引擎,其发展呈现出三大关键特征:
    • 自主可控的多智能体协同:Data Agent 的核心从单一模型调用,转向构建自主可控的多智能体协作框架。通过任务分解、规划、执行与反思的全栈技术及角色分工,实现复杂任务的可靠闭环,降低对单一模型能力的过度依赖,提升流程的稳定性与可信度。
    • 智能体原生架构与内生演化:Data Agent 正从传统的“外挂式分析工具”向“内嵌式智能数据基座”演化,形成 Agent-Native 的系统设计范式。其不仅能动态调度多智能体协同完成复杂任务,还内置工作流追溯、性能自监控与持续优化机制,使数据系统从单纯功能堆叠转向 具备自我演进能力的智能基础设施。
    • 意图驱动的多模态融合与流水线自治:Data Agent 不再局限于多模数据的“统一处理”,而是面向用户意图自动构建端到端的数据流水线。通过声明式接口与语义化映射,系统自动理解、组装并执行跨结构、非结构数据的获取、清洗、分析与可视化任务,将复杂的数据技术栈隐藏于智能体工作流之下,大幅降低用户对破碎化工具链的依赖。


  • 数据标注正经历从依赖人工的劳动密集型工作,向以“大模型+人类反馈”为核心的智能原生范式转变。借助大模型自动化生成、清洗与增强数据的能力,标注过程不再是简单的人工标记,而是融合了主动学习、半自动标注和人机协同决策的智能化工作流,实现标注效率与质量的数量级提升。同时,数据标注已深度嵌入模型开发全流程。从预训练语料构建、SFT样本优化、RLHF奖励模型训练到模型持续迭代与对齐。标注不再是一次性任务,而是与模型进化形成动态闭环,推动数据标注从“静态服务”走向“动态赋能”。


技术产品发布微观察

02

数据管理 Infra - 数据库/大数据

2.1

    • Snowflake 产品发布与更新:
      • 数据库内核版本 9.25 (8月25日 - 8月28日)
        • SQL 与语义层 (SQL & Semantic Layer)
          • 查询语义视图 (Querying Semantic Views - GA): 此功能已正式发布 (General Availability)。用户现在可以使用 SELECT 语句并指定 SEMANTIC_VIEW 子句来查询语义视图。在该子句中,可以明确指定需要检索的维度 (dimensions) 和指标 (metrics),并可基于维度进行过滤。
          • 语义视图管理 (Semantic View Management):
            • 新增 SHOW SEMANTIC FACTS 命令,用于列出指定语义视图、schema、数据库或账户中的事实 (facts)。
            • 支持 ALTER SEMANTIC VIEW … RENAME TO … 命令,允许用户重命名一个已存在的语义视图。
        • 数据湖 (Data Lake): Apache Iceberg™ 表 (Apache Iceberg™ Tables - GA): 针对外部管理的 Iceberg 表,已正式支持使用 positional delete files 进行行级别删除。这使得外部 Iceberg 引擎能够通过写时复制 (copy-on-write) 和读时合并 (merge-on-read) 两种模式对这些表执行更新、删除和合并操作,确保了 Snowflake 与外部工具之间行为的一致性。
        • 数据治理 (Data Governance)
          • 敏感数据分类 (Sensitive Data Classification - GA): 现已支持在数据库级别设置分类配置文件 (classification profile),从而自动对该数据库内的所有表和视图进行敏感数据分类。
          • 数据质量 (Data Quality): 更新了权限模型。现在拥有表或视图 SELECT 权限的用户即可为其关联一个数据指标函数 (Data Metric Function, DMF)。此前,此操作仅限于对象的所有者。作为此变更的一部分,DMF 与对象的关联新增了一个 EXECUTE AS ROLE 属性,用于指定 DMF 运行时所使用的角色。
        • 安全 (Security):加密密钥支持 (Cryptographic Key Support): 针对密钥对认证和外部 OAuth,新增了对椭圆曲线数字签名算法 (Elliptic Curve Digital Signature Algorithms, ECDSA) 生成密钥的支持。具体支持的算法包括 ES256(P-256)、ES384(P-384) 和 ES512(P-512)。
      • 数据库内核版本 9.26 (9月1日 - 9月4日)
        • SQL 更新:
          • 时间序列数据缺失值填充(预览):新增以下功能,可用于填补时间序列数据集中的缺失值:
            • 在 SELECT 语句的 FROM 子句中使用 RESAMPLE 子句,可将行按指定时间间隔进行“上采样”,自动生成并填充缺失的时间点。
            • 提供以下插值函数,可用于为重采样生成的缺失行更新列值,也可单独用于对现有数据集中的缺失行进行插值补全:
              • INTERPOLATE_BFILL
              • INTERPOLATE_FFILL
              • INTERPOLATE_LINEAR
          • Account Usage:
            • 新增 INGRESS_NETWORK_ACCESS_HISTORY 视图:可用于查询过去一年内对 Snowflake 账户的所有网络访问尝试。
            • 新增 INTERNAL_STAGE_NETWORK_ACCESS_HISTORY 视图:可用于查询过去一年内对内部 Stage 的所有网络访问尝试。
        • Document AI 模型纳入模型注册表:Document AI 现已将所有已发布或已训练的模型统一存储于 Snowflake 模型注册表中。当前支持在同一账户下的不同数据库或模式之间,或在同一组织内的不同账户之间复制 Document AI 模型,以便于模型版本的管理与发布控制。模型注册表作为控制平面,用于在不同环境中安全高效地部署 Document AI 的各个模型版本,支持版本控制与基于角色的访问控制(RBAC)。该功能目前支持部署在 AWS 和 Microsoft Azure 上的账户,不支持 Google Cloud。
        • 对 Apache Iceberg™ 表的分区写入功能(预览):Snowflake 现已支持对 Iceberg 表进行分区写入,从而提升与 Iceberg 更广泛生态系统的兼容性,并加速来自外部 Iceberg 工具的读取查询性能。用户现在可以使用 Snowflake 创建并写入支持分区策略的 Iceberg 表,无论是由 Snowflake 管理的表,还是外部管理的 Iceberg 表。
        • Cortex Agents 管理对象 REST API(预览):现已支持通过 REST API 创建代理对象,并将其集成到应用程序中以执行任务或响应查询。用户可以配置线程在内存中保留上下文信息,从而在多轮对话中无需客户端每次都重复发送上下文。此次更新还包括代理功能的拓展、Cortex Agents 工作流程的改进,以及新增的多个 REST API 端点。


    • Databricks 产品发布与更新:
      • AI Agent 相关: 外部 MCP 服务器 (External MCP Servers - Beta): 此功能处于 Beta 阶段。用户现在可以将 Databricks 连接到外部模型上下文协议 (Model Context Protocol, MCP) 服务器。该功能允许在 Databricks 中运行的 Agent 访问和使用 Databricks 平台外部的工具集。
      • 数据工程 (Data Engineering)
        • Lakeflow 声明式管道 (Lakeflow Declarative Pipelines): 现已支持自动液体集群 (Automatic Liquid Clustering)。用户可以在 CREATE STREAMING TABLE 或 CREATE MATERIALIZED VIEW 等语句中使用 CLUSTER BY AUTO,Databricks 将智能选择聚类键以优化查询性能。
        • Delta Lake SQL (GA): INSERT REPLACE USING 和 INSERT REPLACE ON 两个命令已正式发布 (General Availability)。
          • INSERT REPLACE USING: 当 USING 指定的列值相等时替换行。
          • INSERT REPLACE ON: 当满足用户定义的条件时替换行。 这两个命令为 Delta Lake 提供了更精确的原子性数据覆盖能力。
      • 数据治理 (Data Governance) 受治理的标签 (Governed Tags - Public Preview): 此功能处于公测阶段。管理员可以创建受治理的标签,定义允许的键 (keys) 和值 (values),并控制哪些用户和组可以将这些标签分配给数据资产(如 catalogs, schemas, tables)。此举旨在跨数据资产强制实施一致的元数据标记标准。
      • 平台与基础设施 (Platform & Infrastructure)
        • 无服务器基础环境管理 (Serverless Base Environments - Public Preview): 工作区管理员现在可以创建和管理用于无服务器笔记本的基础环境。管理员可以定义一个包含特定环境版本和依赖库的规范,并将其设置为工作区默认选项,确保用户在一致且已缓存的环境中启动。
        • Lakebase 同步表 (Lakebase Synced Tables): 现已支持在 Snapshot sync mode(快照同步模式)下,从 Apache Iceberg 表和外部表 (foreign tables) 创建同步表。
        • 成本管理 (Cost Management - Public Preview): 现已支持为 Lakebase 数据库实例和同步表添加预算策略 (budget policy) 标签,以便将计费使用量归因于特定策略。此外,还可以为数据库实例添加自定义标签,以实现更精细的成本归因。
      • Microsoft Power Platform 支持 Databricks 连接器(Public Preview):用户可在 Power Platform 中创建 Databricks 连接,用于构建 Power Apps 的画布应用、Power Automate 的流程,以及 Copilot Studio 中的智能代理,实现对 Databricks 数据的直接调用。
      • 无服务器 GPU 计算现已支持 H100 加速器(Beta):无服务器 GPU 计算现已支持按需调用 H100 加速器,适用于单节点工作流与作业的高性能计算需求。
      • Databricks Online Feature Stores(Public Preview):基于 Lakebase 构建的 Databricks Online Feature Store 提供高扩展性和低延迟的特征数据访问,同时与离线特征表保持一致性。原生集成 Unity Catalog、MLflow 和 Mosaic AI Model Serving,支持将模型端点、代理和规则引擎安全高效地部署到生产环境中。
      • MLflow 元数据支持系统表查看(Public Preview):MLflow 元数据现可通过系统表集中查看,实现对整个工作区追踪信息的统一访问。可结合湖仓工具构建自定义 AI/BI 仪表盘、设置 SQL 警报或执行大规模分析查询。
      • Databricks Assistant「Agent 模式」进入 Beta,推出 Data Science Agent:Agent 模式可基于单条提示构建多步骤工作流。新上线的 Data Science Agent 针对数据科学任务(如探索性数据分析、预测建模等)自动生成完整 notebook,可规划方案、调取资源、执行代码、处理输出并自动修正错误。
      • C5 合规控制:为支持德国联邦信息安全局(BSI)制定的 C5 云服务商安全标准,Databricks 提供一系列合规控制增强项。
      • 默认存储支持 Delta Sharing(Beta):Delta Sharing 提供方现可将默认存储支持的表共享给任意接收方(包括使用经典计算资源的用户),但带分区的表除外。
      • Lakeflow Declarative Pipelines 回退至公测状态:Lakeflow 管道此前发布的默认发布模式迁移功能因发现问题已从 GA 状态回退至公测状态。
      • AI 代理支持「代表用户授权」(Public Preview):部署到 Model Serving 端点的 AI 代理现可启用“代表用户授权”,代理可按实际运行查询的用户身份执行操作,增强安全性与访问控制精度。
      • SQL Server 连接器支持 SCD Type 2:Lakeflow Connect 中的 Microsoft SQL Server 连接器现已支持 Slowly Changing Dimensions(SCD)Type 2,可记录数据变更历史,满足对版本控制敏感的分析场景。


    • VMware Greenplum 密集发布更新,涉及统一数据平台,Greenplum 7.6,Tanzu Data Lake v2.0等产品:
      • 发布统一数据智能平台 Tanzu Data Intelligence。VMware 发布了新的统一数据平台 Tanzu Data Intelligence。此更新的核心是将 Greenplum、数据湖、实时数据服务等多个组件整合为一个统一的、面向 AI 的架构。
        • 核心技术细节: 此平台最关键的新增能力是在数据引擎层级集成了原生向量搜索。这意味着用户可以在 Greenplum 中存储高维向量,并使用如 <-> 这样的特定 SQL 距离运算符来执行高效的近似最近邻 (ANN) 搜索。这使得在单一查询中即可实现传统 SQL 谓词过滤与向量语义搜索的混合查询,为 RAG (Retrieval-Augmented Generation) 等 AI 应用提供了强大的数据基础,且无需依赖外部独立的向量数据库。
      • Tanzu Greenplum 7.6:核心引擎的性能与弹性增强。此版本专注于 Greenplum 数据库内核自身的性能优化与系统可靠性提升。
        • 核心性能特性:Ghost Index (Implied Index): 这项功能主要针对 Append-Optimized (AO) 列存表。其技术原理是利用列存表每个数据块内部存储的元数据(如列的最大/最小值),在查询执行时,根据 WHERE 子句的谓词条件,直接跳过读取那些元数据范围不匹配的数据块。这种机制在不产生传统 B-Tree 索引的存储与维护开销的前提下,显著减少了 I/O 操作。
        • 弹性增强:集群自动恢复 (Cluster Autorecovery): 新增的后台服务进程会持续监控集群中各 segment 节点的状态。一旦检测到有 segment 发生故障,系统会自动触发增量恢复流程 (gprecoverseg -a),使集群能够在无需管理员立即手动介入的情况下,自行恢复至健康和数据平衡的状态。
      • Tanzu Data Lake v2.0:集成 Spark 与 Iceberg 构建湖仓基础。Tanzu Data Lake v2.0 版本通过集成两大关键开源项目,构建了现代数据湖仓 (Lakehouse) 的基础,旨在解决传统数据湖在数据一致性与管理上的挑战。
        • Apache Iceberg 集成: 引入了 Iceberg 开放表格式。其核心技术在于通过维护元数据快照 (Snapshots) 来跟踪表状态的变更,从而将表的逻辑结构与物理数据文件解耦。这一设计原生支持了 ACID 事务、模式演进 (Schema Evolution) 和时间旅行 (Time Travel),保证了即使在并发读写场景下,数据湖中的数据依然保持强一致性。
        • Apache Spark 集成: 允许 Spark 分布式计算引擎直接、高效地读写由 Iceberg 管理的数据表,为大规模 ETL、数据科学和机器学习模型训练提供了高性能的计算支持。
      • Tanzu Platform 10.3:增强 AI 应用的治理与控制能力。作为底层的基础设施平台,Tanzu Platform 增加了针对 AI 工作流的企业级治理功能:
        • 核心技术细节:推理调用的 Webhooks: 平台为 AI 模型的推理 (inference) 调用提供了入站 (inbound) 和出站 (outbound) 的 Webhooks。这是一个技术上的拦截点,允许平台与第三方工具(如审计日志系统、外部模型验证服务)进行集成。平台团队可利用 Webhooks 在推理请求执行前后实施自定义策略,例如记录详细审计日志、进行实时安全扫描或执行更复杂的访问控制逻辑。
        • AI 模型配额管理: 提供了对 AI 模型调用次数、资源消耗等设置上限的功能,用于进行精细化的成本控制和资源分配。
      • Tanzu GemFire 与 Data Flow 集成:提供实时数据洞察能力。此项更新聚焦于实时数据处理,通过组合 Tanzu GemFire 和 Tanzu Data Flow,为需要低延迟响应的 AI 应用提供数据支持。
        • 技术组合解析:
          • Tanzu GemFire: 是一个内存数据网格 (In-Memory Data Grid),提供键值对存储,旨在实现微秒级的低延迟数据访问。它适用于高并发事务和实时事件处理场景。
          • Tanzu Data Flow: 是一个基于 Spring Cloud Data Flow 的可视化数据管道编排工具,支持通过拖拽方式构建事件驱动的流式数据处理流程。
        • 核心价值: 两者结合,用户可以通过 Data Flow 以低代码的方式构建数据管道,将来自 Kafka、CDC 或其他来源的流式数据实时注入到 GemFire 的内存缓存中。这为需要即时数据的 AI Agent 或智能应用(如实时欺诈检测、动态推荐系统)提供了一个高性能的数据服务层,满足其对数据新鲜度和访问速度的苛刻要求。
      • Greenplum 7.5.3发布:以稳定性和正确性修复为目标的维护版本。此版本是一个维护版本 (maintenance release),其性质与其他功能驱动型 (feature-driven) 的版本不同。它不包含新的核心功能,其更新重点在于解决已知问题,以提升系统的稳定性和数据安全性。
        • 核心修复项:解决了特定 DDL/VACUUM 操作导致的数据损坏问题
          • 技术背景: 该版本修复了一个严重的数据完整性问题。问题触发的场景是在一个行存的追加优化表 (row-oriented append-optimized table) 上,执行 ALTER TABLE ... ADD COLUMN 操作(且不带 DEFAULT 值),随后再执行 VACUUM 命令。
          • 问题影响: 在特定条件下,这一系列操作可能导致表物理文件内部的数据结构损坏。后续对该表的查询或操作会因此失败,并可能引发底层错误,如 "invalid memory alloc request size" 或段错误 (segmentation fault)。
          • 修复价值: 此修复对于使用行存追加优化表的用户至关重要,因为它确保了在常规的表结构变更和维护操作下数据的完整性,属于关键的正确性修正 (correctness fix)。
        • 其他修复:
          • 工具链与扩展修复: 该版本还解决了数据库管理工具 gppkg 在特定迁移场景下可能挂起的问题,以及修复了部分数据库扩展 (Extensions) 因库版本不匹配而无法加载的缺陷。这些修复增强了 Greenplum 生态系统工具的稳定性和可用性。


    • Google Cloud Platform (GCP) 产品发布与更新:
      • Firestore 兼容 MongoDB 的 Firestore (Firestore with MongoDB compatibility - GA):
        • Firestore 现在提供了一个与 MongoDB 兼容的 API,允许开发者使用现有的 MongoDB 应用程序代码、驱动程序和工具来访问 Firestore 的无服务器 (serverless) 数据库服务。此集成旨在结合 Firestore 的原生优势,包括:多区域复制、近乎无限的可扩展性、高达 99.999% 的 SLA、个位数毫秒级的读取性能、集成的 Google Cloud 治理以及按使用量付费的定价模型。
      • Database Migration Service (DMS) - Private Service Connect (PSC) 支持 (GA):
        • DMS 对 Private Service Connect (PSC) 接口的支持现已正式发布。
        • 该功能适用于面向 Cloud SQL 和 AlloyDB 的同构迁移 (homogenous migrations),通过 PSC 提供了一个私有且安全的数据迁移路径。


    • PostgreSQL 产品发布与更新:
      • 自动化生产级 Postgres HA集群 pg_cirrus 发布版本v2.0。
      • pgFormatter 发布版本 v5.7。
      • pgmoneta 发布版本v0.19。
      • Cloudberry 发布版本 2.0.0:该版本以PostgreSQL 14为核心构建,显著优化了分布式查询规划与执行流程,提升了内存与CPU资源的管理效率,并增强了并行处理能力。新增的动态表功能支持自动定时刷新查询结果,适用于实时分析、湖仓一体及自动ETL等场景。同时引入PAX(Partition Attributes Across)混合存储格式,兼具行存和列存优势,提升数据写入与分析性能,尤其适配大规模OLAP分析与AI工作负载。此外,该版本还改进了分布式环境下的备份与恢复策略,整体上大幅增强了系统的可扩展性与实用性。
      • pgAdmin 4 发布版本 9.8:本次更新共包含 10 项功能新增与问题修复,旨在提升 PostgreSQL 图形化管理体验与平台兼容性。主要更新内容包括:新增外部表截断菜单项;支持 Debian Trixie 系统;允许用户自定义 Gunicorn 的安全参数;默认主题调整为系统主题。在安全性方面,修复了 OAuth 2.0 登录流程中的跨源开放者策略(COOP)漏洞(CVE-2025-9636);移除已废弃的 BrowserFS 库;固定 Paramiko 为 3.5.1 版本以避免 DSSKey 报错。此外,还解决了从 v9.7 升级时配置迁移失败的问题、macOS 下 Option 组合键导致快捷键失效的问题,以及首次使用外部配置数据库时未能创建配置表的问题。
      • PostgreSQL 全球开发团队正式发布了 PostgreSQL 18 的第一个候选版本(RC 1):
        • 该版本功能基本接近最终正式版,仅在正式发布前可能还会加入少量修复补丁。按照官方计划,PostgreSQL 18 的正式发布日期为 2025 年 9 月 25 日。
        • RC 1 相较于 Beta 3 期间,主要修复内容包括:在使用 vacuumdb --missing-stats-only 命令时跳过对虚拟生成列的清理操作;以及在使用 pg_upgrade 升级后新增了对全文索引(Full-Text Search)和 pg_trgm 索引是否应重建的建议。
        • 本次升级为主版本升级,需使用 pg_upgrade 或 pg_dump / pg_restore 等工具完成,用户可查阅 PostgreSQL 18 官方升级文档获取详细操作指南。当前为首个 RC 版本,如无严重问题,将不会发布更多候选版本,届时 PostgreSQL 18 将如期正式发布。
      • SynchDB 发布版本 1.2 :该版本带来了原生 Oracle 数据流同步、增强的监控功能及快速部署工具等多项重要更新。此次版本新增了基于 Openlog Replicator 的 Oracle 原生连接器(olr,Beta),支持常见 DML 与部分关键 DDL 操作,具备全快照与批量同步能力,底层依托 libprotobuf-c 与 IvorySQL 的 Oracle 解析器实现高效通信。同时,SynchDB 1.2 引入了 JMX 接口并集成 Prometheus 与 Grafana 监控体系,提供预设仪表板模板及全面的生产级指标采集能力。在部署方面,新版提供一键部署脚本 ezdeploy.sh,可快速集成 MySQL、SQL Server、Oracle(19c/23ai)及 Openlog Replicator 服务,并预加载监控组件。性能上优化了事件轮询机制和内存管理,增强连接器隔离性并支持细粒度表级快照控制。此外,还修复了多个关键问题,如 spi_execute_select_one() 崩溃、共享内存冲突及 PostgreSQL 编译兼容性问题。


    • OCI Landing Zone 支持 Oracle Cloud VMware Solution:
      • Oracle 宣布 OCI Landing Zone 现已支持 Oracle Cloud VMware Solution(OCVS)。这一举措使用户能够通过 Terraform 实现 OCVS 资源在 Oracle Cloud Infrastructure(OCI)上的自动化配置与管理,进一步简化 VMware 迁移流程,并加速企业向云端转型。
      • OCVS 是 Oracle 为 VMware 工作负载提供的云解决方案,允许企业在不改变原有架构的前提下,将本地 VMware 环境迁移至云端。OCVS 提供与本地环境高度一致的运行体验,同时集成 OCI 的原生服务,增强系统性能、弹性和安全性,是实现无缝迁移的理想路径。
      • OCI Landing Zones 是由 Oracle 提供的可配置 Terraform 自动化模板,帮助用户快速构建安全、合规、弹性和经济的云基础设施。用户可以通过 GitHub、命令行工具(CLI)、OCI 控制台、Resource Manager 和 Fleet 应用管理等多种方式部署模板,所有模板均免费公开。
      • 新发布的 OCVS Terraform 模板提供了高度自动化的部署能力,用户可以绕过传统的 OCVS 向导流程,直接通过代码定义并部署软件定义数据中心(SDDC)、ESXi 主机和 VMware 集群等核心组件。这不仅提升了部署效率,也增强了配置的可重复性和可控性。
      • OCVS 模块可抽象并自动化整个 VMware 云基础设施的搭建过程,主要特点包括:
        • 自动部署 SDDC 与主机资源,支持动态管理集群与存储;
        • 提供三种灵活的网络安全组(NSG)配置方式:新建默认规则 NSG、复用已有 NSG 并自动添加规则、或向预配置 NSG 注入 OCVS 所需规则;
        • 支持高度模块化扩展,适配不同企业的网络和安全需求。


    • Elasticsearch (ES) 发布版本 v8.19.3, v8.18.6, v9.1.3, v9.0.6。这些版本主要是维护性发布,但在 AI 推理和第三方 Agent 集成方面包含了一些值得关注的实质性更新。
      • AI 与 Agent 相关更新:
        • ELSER v2 模型与推理端点重命名 (v9.1.3, #130336) 这是一个关键的运营性变更。ELSER (Elastic Learned Sparse Encoder) 是 Elastic 用于实现语义搜索的核心稀疏向量模型。此更新重命名了 ELSER v2 的默认模型和推理端点。对于正在使用或计划集成 ELSER v2 的团队,需要注意此变更以确保 API 调用和模型部署的正确性。这标志着 ELSER v2 正在走向成熟和标准化。
        • 推理批处理大小调整 (v9.1.3, #132646) 此更新将 Elastic Inference Service (EIS) 中稀疏和稠密向量嵌入的最大批处理大小 (max batch size) 更新为 16。这是一个性能调优更新,更大的批处理大小可以显著提升批量数据推理的吞吐量和效率,对于大规模文档向量化的场景尤其重要。
        • 第三方 Agent 集成权限增强 (v8.18.6, v9.0.6, #132387) 为 kibana_system 角色增加了针对第三方 Agent(如 ExtraHop 和 QualysGAV)索引的精细化权限 (manage, create_index, read, index, write, delete)。这简化了与第三方安全和可观测性工具的集成,提供了更安全、更明确的权限模型,增强了 Elastic作为中心数据平台与其他生态系统工具协同工作的能力。
      • 核心数据功能与平台更新:
        • ES|QL 性能优化 (v8.19.3, #133313)ES|QL 查询执行被移出 transport thread。这是一个重要的底层优化,可以防止复杂的 ES|QL 查询阻塞核心的网络通信线程,从而提高节点的整体稳定性和响应能力,尤其是在高并发查询负载下。
        • Ingest Node 功能升级 (All Versions, #133410) 将内置的 Apache Tika 库升级到 3.2.2 版本。Tika 用于从 PDF、Office 文档等富文本格式中提取内容。版本升级意味着更强的文档解析能力、对更多格式的支持以及安全修复,直接提升了 Ingest pipeline 的数据提取质量和可靠性。
        • API 稳定性增强 (All Versions, #133113) 为 REST API 中的过滤器增加了深度限制。这是一个防御性措施,可以防止因恶意或错误的超深度嵌套查询(例如 Filter DSL)导致的服务端资源耗尽或堆栈溢出,提升了集群的健壮性。


    • ByteHouse 产品发布与更新:

    功能名称

    功能描述

    相关文档

    权限管理

    为用户、角色授予权限时,新增支持 TRUNCATE、MYSQL、CREATE TEMPORARY TABLE、ALTER DELETE、ALTER UPDATE 权限。

    支持授予的库表权限说明

    数据导出

    数据导出时,导出文件名优化为非必填项,支持自定义导出文件名和不指定文件名两种方式。
    不指定文件名适用于导出文件较大的场景,导出时系统将源文件拆分为若干小文件,导出文件将使用系统默认生成的名称。

    数据导出

    标签管理

    ByteHouse 与火山引擎之间新增标签键即时同步能力:在 ByteHouse 创建的标签键可即时同步至火山引擎,在火山引擎创建的标签键也可即时同步至 ByteHouse。

    快速入门



    智能应用 Infra

    2.2

      • OpenAI 产品发布与更新:
        • OpenAI Codex 更新摘要 (2025年8月27日) OpenAI 宣布了针对 Codex 的一系列更新,旨在将其集成到更多开发场景中,并通过统一的 ChatGPT 账户连接各个平台:
          • IDE 扩展程序: 发布了新的扩展程序,将 Codex 功能引入 VS Code、Cursor 及其他 VS Code 分支,支持无缝预览本地变更及编辑代码。
            • 通过 ChatGPT 登录: 在 IDE 和 CLI 中,用户现在可以通过其 ChatGPT 账户直接登录,无需设置和管理 API Key。
          • 本地与云端任务交接: 新增一项功能,允许开发者在本地环境与 Codex 配对,随后将任务交由云端异步执行,并保持状态同步。
          • Codex CLI 升级: 命令行工具获得了用户界面更新、新增命令及问题修复。
          • GitHub 代码审查集成: Codex 现可配置为自动审查代码仓库中的新 Pull Request (PR)。开发者也可在 PR 中通过 @codex 来触发审查和获取修复建议。
          • 新开发者网站: 所有关于 Codex 的产品信息和未来更新将在新站点 developers.openai.com/codex 上发布。
        • 网页版对话现已支持分支功能:ChatGPT网页版现已支持对话分支功能,方便探索不同思路而不丢失原始对话。只需将鼠标悬停在某条消息上,点击“更多操作”(⋯),选择“在新对话中创建分支”,即可从该位置开始新的对话路径。
        • ChatGPT 免费版现已支持“项目”功能:“项目”功能可将对话与文件集中管理,帮助更好地聚焦任务并提升效率。现在,该功能已面向免费版用户开放,最多可上传 5 个文件至每个项目中。同时,付费版的文件上传数量也已更新:Plus、Go 和 Edu 计划支持每个项目最多上传 25 个文件;Pro、Business 和 Enterprise 计划支持最多上传 40 个文件。此外,所有计划均新增了颜色与图标的自定义选项,便于更清晰地管理与组织项目内容。
        • ChatGPT Agent 支持网站封锁功能:Enterprise 和 Edu 工作区的所有者现可申请封锁特定网站或整个域名(包括所有子域),限制 ChatGPT Agent 的网页浏览与操作行为。
        • SharePoint 同步连接器正式上线:Enterprise 和 Edu 工作区现已支持 SharePoint 同步连接器。启用后,工作区成员可安全地从 OneDrive 和 SharePoint 文件中提问并获取回答,系统将在相关时自动引用内容。连接器可随时创建、删除或修改。ChatGPT Enterprise 工作区管理员需首先在“管理员连接器设置”中启用 SharePoint 和 SharePoint 同步连接器访问权限。启用后,用户可通过 OAuth 登录流程连接各自的 SharePoint 账户。管理员还可通过基于角色的访问控制(RBAC)进一步配置权限。
        • 支持 IP 白名单访问控制:Enterprise 和 Edu 工作区现支持 IP 白名单功能,用于控制哪些 IP 地址可访问 ChatGPT 和合规性 API。一旦启用,仅允许来自指定 IP 的用户访问,所有来自未列入白名单的 IP 的请求将被阻止,即使拥有有效凭据也不例外。该功能适用于 ChatGPT 的所有端点,包括经过身份验证的文件下载与合规性 API 密钥访问。对于合规性 API,IP 白名单控制始终强制执行,无法关闭。


      • Anthropic 产品发布与更新:
        • Claude APP 消费者条款与隐私政策更新:
          • 面向消费者用户(Free, Pro, Max 计划)提供新选项,允许其选择是否共享聊天记录和编码会话以用于改进 Claude。
          • 现有用户需在2025年9月28日前做出选择,新用户将在注册时设置。此偏好可随时在数据隐私控制页面更改。
          • 这些更新不适用于 Team, Enterprise, API, 或通过第三方平台使用的用户。
        • API 更新:
          • 发布 PHP SDK: 推出了 PHP SDK 的 Beta 版本,供开发者集成使用。
          • 提升 1M 上下文窗口速率限制: 增加了 Claude Sonnet 4 模型在处理 1M token 上下文时的 API 速率限制。
          • 扩展 1M 上下文窗口可用性: 宣布 1M token 上下文窗口现已在 Google Cloud 的 Vertex AI 平台上可用。
          • 控制台的使用页面已推出速率限制图表,可用于随时间监控 API 的速率限制使用情况和缓存率。
          • 客户端工具结果支持可引用文档:客户端工具的结果现已支持可引用文档功能,提升了引用来源的可追溯性与文档化能力。
          • 代码执行工具 v2 公测上线:代码执行工具 v2 已进入公开测试阶段,替代了原先仅支持 Python 的工具,现支持 Bash 命令执行和文件的直接操作能力,包括编写其他语言的代码。


      • 阿里通义/百炼产品发布与更新:

      新增模型类型

      上架时间

      模型规格

      功能说明

      视频生成

      2025-08-26

      wan2.2-s2v-detect、wan2.2-s2v

      通义万相数字人模型支持基于单张图片和音频,生成动作自然的说话、唱歌或表演视频,不限制形象画幅,支持肖像、全身或半身的人物图像。通义万相-数字人

      文生文

      2025-09-05

      qwen3-max-preview

      基于Qwen3的Qwen-Max模型(预览版),相较Qwen 2.5系列整体通用能力有大幅度提升,中英文通用文本理解能力、复杂指令遵循能力、主观开放任务能力、多语言能力、工具调用能力均显著增强;模型知识幻觉更少。通义千问Max


      • 字节豆包产品发布与更新:

      时间

      功能模块

      功能说明

      8月

      模型推理

      模型单元支持切换输入类型和计算器TPM 保障包支持 Doubao-Seed-1.6、Doubao-Seed-1.6-flash 分段计费模型推理接入点创建页面整体改版推理接入点监控优化,支持查看推理缓存相关指标;监控指标可分拆深度思考模型的请求中启用了 thinking 的请求速率和thinking tokens 数量

      用量统计

      支持查看文生图模型用量

      9月

      模型广场

      优化了智能助手的回复质量与性能,截图提问增加快捷键支持;Seedance 1.0 lite 模型详情页优化,增加参考图模型能力信息

      模型精调

      支持精调训练过程中手动导出过程产物,提前部署推理评测

      模型推理

      模型单元支持一段时间无流量自动退订

      API

      Seedance 1.0 lite 模型新增参考图参数,支持多图参考生视频功能;Responses API SDK 支持 Python SDK

      开通管理

      一键开通模型体验优化:新增全选/反选开关、安心体验、报错提醒等优化项

      用量统计

      接入点按照计费项拆分用量展示(模型单元,TPM保障包,按tokens分段计费)


      • LangChain v1.0 Alpha 版本的发布。这标志着 LangChain 正在向一个更稳定、更标准化的版本迈进。其核心变化围绕着 增强 Agent 能力 和 标准化核心抽象。关键特性更新详情:
        • Agent 核心能力重构:create_react_agent (相关版本:langchain==1.0.0a1)
          • create_react_agent 函数被从 langgraph 移回 langchain 主包,并进行了重大重构,是本次 Agent 相关更新的核心。
          • 集成的结构化输出 (Structured Output):新版本将结构化输出功能直接整合进主循环中,允许模型在调用工具或生成结构化输出之间自由选择,显著 降低了成本和延迟。
          • 高级输出策略配置:通过 ProviderStrategy(针对 OpenAI, Groq 等)和 Artificial Tool Calling(通用)为不同后端模型提供了统一的结构化输出体验。
          • 增强的错误处理机制:通过 handle_errors 和 handle_tool_errors 参数,开发者可以对结构化输出和工具调用的失败进行精细化控制,增强了 Agent 的鲁棒性。
          • API 简化:create_react_agent 不再接受预先绑定了工具的模型实例,使得 API 更加清晰和一致。
        • langchain-core v1.0:标准化消息内容(相关版本:langchain-core==1.0.0a1)langchain-core 的 v1.0 Alpha 版本引入了 标准化的、强类型的消息内容 (Standard, typed message content)。
          • 核心变化:引入了用于推理 (reasoning)、引用 (citations)、服务端工具调用 (server-side tool calls) 等现代 LLM 功能的标准内容类型,可通过 message.content_blocks 访问。
          • 重大变更 (Breaking Change):BaseChatModel 的调用返回类型签名从 BaseMessage 变更为更精确的 AIMessage,提升了代码的类型安全性。
          • Provider 集成深化 (OpenAI & Anthropic) 相关版本(langchain-openai==1.0.0a1,langchain-anthropic==1.0.0a1)这两个包同步发布了 v1.0 Alpha 版本,并深化了与模型提供商高级功能的集成。
          • Anthropic: AnthropicLLM 被重构为使用现代的 Messages API,并增加了对代码执行、文件 API 等内置工具的支持。
          • OpenAI: 增加了对 Responses API、内置代码解释器 (Code Interpreter) 和远程工具 (MCP tools) 的支持。



      应用落地微观察

      03

      • 数禾科技 × 阿里云合作案例总结
        • 客户信息
          • 上海数禾信息技术有限公司是一家由分众传媒、红杉资本、新浪等联合投资的C 轮金融科技公司,成立于 2015 年 8 月,核心愿景是 “做陪伴用户一生的智能金融家”,秉持 “开放、挑战、专业、创新” 的价值观,致力于让人人享有金融服务最优解。
          • 核心产品:“还呗”(信贷服务)、“拿铁智投”(理财服务),同时覆盖电商场景,已积累8000 万注册用户;
          • 业务特色:国内金融科技领域的代表性企业,率先将大数据与 AI 技术应用于智能获客、智能风控、智能运营、智能客服等核心环节;
          • 合作生态:已与银行、信贷机构、持牌消金公司、基金公司、保险公司等100 余家金融机构建立合作。
        • 核心问题:数禾科技在大数据上云过程中,面临两大核心业务与技术挑战:
          • 计算资源与成本矛盾
            • 业务扩张导致计算资源不足,且大规模计算用量推高成本(如创建多组 EMR 集群后,资源消耗持续增加);
            • EMR 集群初期采用 “抢占式实例”(成本低于按量付费),但底层资源紧张时易出现扩容失败,切换为 “按量付费实例” 后又面临成本飙升;
            • 多组 EMR 集群按业务维度的分账管理困难,无法清晰核算各业务线的资源消耗成本,不利于运维优化。
          • 数据湖与数据仓库协同难题 采用 “EMR+OSS” 搭建数据湖后,无法与 MaxCompute 数据仓库实现高效协同,存在元数据管理分散(数据湖与数仓元数据不互通)、权限管理不统一(两套体系权限需分别配置)的问题,导致数据与计算无法在湖、仓之间自由流动,难以实现 “湖仓一体”。
        • 阿里云解决方案: 针对数禾科技的痛点,阿里云从 “资源弹性与成本优化”“成本精细化管理”“技术架构升级” 三个维度提供解决方案:
          • 弹性资源保障与成本优化
            • 资源规划先行:对可用区选择、服务器规格进行合理规划,避免因底层资源不足导致业务被动迁移,从源头保障资源稳定性;
            • 实例类型策略调整:推出 “成本优先” 的弹性伸缩策略 —— 优先创建成本更低的抢占式实例,若底层资源不足导致创建失败,自动切换为按量付费实例,既提升资源交付成功率,又控制成本;
            • 预留实例券覆盖稳态资源:梳理数禾科技的按量资源类型,推荐购买XXX 台预留实例券,100% 覆盖业务稳态下的按量资源需求(如日常固定计算任务),直接降低稳态资源成本;
            • 块存储成本优化:指导客户参考 “SCU( Savings Plan,节省计划 )最佳实践”,对块存储资源进行成本优化,进一步压缩非核心资源开支。
          • 精细化成本管理(分账与 SQL 优化)
            • TAG 标签分账:提供 “资源打 TAG” 功能,数禾科技通过给不同业务线的 EMR 集群添加专属 TAG(如 “风控业务 - EMR 集群”“获客业务 - EMR 集群”),实现多 EMR 集群的业务维度分账,清晰核算各业务线资源成本;
            • SQL 费用估算与优化:指导客户拉取 EMR 集群中 ResourceManager 的 “MemorySeconds” 指标(内存使用时长),通过公式 “单条 SQL 费用 =(该 SQL 的 MemorySeconds/EMR 集群总 MemorySeconds)×EMR 集群总费用” ,精准估算每条 SQL 的资源消耗成本,进而督促业务团队优化高消耗 SQL、下线无用 SQL,减少资源浪费。
          • 湖仓一体架构升级
            • 基于 DLF 的数据湖架构迁移:协助数禾科技尝试将 EMR 数据湖的元数据、MaxCompute 数据仓库的元数据统一迁移至DLF(Data Lake Formation,数据湖构建服务) ;
            • OSS 统一存储:底层采用 OSS 作为统一存储载体,打通 “EMR 数据湖” 与 “MaxCompute 数据仓库” 的存储层,实现数据在湖、仓之间的自由流动,真正落地 “湖仓一体” 架构,解决数据孤岛问题。
        • 实施成果
          • 成本显著降低:通过预留实例券覆盖稳态资源,保守估计降低成本40% 以上;“成本优先” 弹性伸缩策略进一步控制弹性资源成本,块存储 SCU 优化也在推进中,持续压缩开支;
          • 资源与成本管理精细化:
            • 资源交付成功率提升:解决了抢占式实例扩容失败的问题,保障业务高峰期资源需求;
            • 分账清晰可控:TAG 标签分账实现各业务线成本独立核算,SQL 费用估算推动资源浪费减少,运维效率提升;
          • 技术架构升级:基于 DLF 与 OSS 的湖仓一体架构已进入尝试阶段,成功打通 EMR 数据湖与 MaxCompute 数仓的元数据和存储层,为后续数据与计算的高效协同奠定基础;
          • 业务支撑能力增强:稳定的弹性资源、可控的成本、统一的湖仓架构,为数禾科技服务 8000 万用户、对接 100 余家金融机构提供了可靠的技术支撑,助力其智能风控、智能运营等核心业务高效运转。


      • Google Cloud 发布 “101+ Gen AI 用例与技术蓝图”,以下精选十条:
        • 通信/电信 (Telecommunications)
          • 定制 AI 呼叫中心解决方案
            • 业务挑战:通信运营商需为其企业客户提供现代化的 AI 客服中心,既可自动处理来电,又能辅助人工坐席。
            • 技术栈:Contact Center AI(CCAI)、Vertex AI、CRM 系统集成。
            • 流程亮点:AI 通过 CCAI 实现智能来电处理与交互,并实时协助客服坐席,提高效率与用户满意度。
          • 员工生成式 AI 工具平台
            • 业务挑战:通信公司希望在保障安全合规的基础上,向全员推广 AI 工具。
            • 技术栈:Vertex AI、IAM、 Storage。
            • 流程亮点:构建内部 “AI Sandbox”,利用权限控制,仅允许员工访问其有权限的企业文档,通过 Agent Builder 快速应用生成式 AI 功能。
          • 通话摘要与质量监控自动化
            • 业务挑战:通信运营商客服中心海量录音难以人工评估与质量掌控。
            • 技术栈:Speech-to-Text API、Vertex AI、BigQuery、Looker。
            • 流程亮点:将通话转录后,AI 生成关键点摘要与质量评估,再通过 Looker 展示趋势与洞察,提升管理效率。
          • Vodafone 的网络生命周期 AI 应用
            • 业务挑战:网络运维效率提升、复杂文档检索与自动化查询 SQL。
            • 技术栈与应用场景:
              • 利用图像即时评估 RAN 基站太阳能安装情况;
              • 文档搜索支持自然语言快速定位根因分析(RCA);
              • Natural Language to SQL (NL2SQL),让非技术人员也能生成 SQL 查询。
        • 金融服务 (Financial Services)
          • AI 财务规划向导
            • 业务挑战:FinTech 平台新用户需快速集成财务数据与构建三表模型,流程复杂耗时。
            • 技术栈:Vertex AI、BigQuery、第三方数据 API。
            • 流程亮点:连接用户财务数据源至 BigQuery 后,由 Gemini 自动生成收入、成本、现金流等模型,极大缩短准备时间。
          • 销售协助工具(Sales Co-pilot)
            • 业务挑战:B2B 销售需从 CRM 中提取洞察,流程繁琐。
            • 技术栈:Vertex AI、BigQuery、CRM 集成。
            • 流程亮点:AI 自动分析客户历史、产品信息等,辅助销售人员快速洞察与应对策略,提升谈判效率。
        • 能源(Energy) & 制造(Industrial)
          • 工业安全巡检自动化
            • 业务挑战:能源或制造企业多工厂安全审核费时费力且容易出错。
            • 技术栈:Vertex AI、 Storage、移动应用、Gemini。
            • 流程亮点:通过手机拍摄现场图像,AI 自动分析是否符合安全要求,并即时提供改进建议,提升巡检效率与准确度。
          • 能源电网 CO₂ 强度预测
            • 业务挑战:能源供应商需实时了解碳强度以优化可再生能源利用,减少排放。
            • 技术栈:Vertex AI、BigQuery、Cloud Run。
            • 流程亮点:AI 基于历史数据与实时输入预测电网 CO₂ 强度,帮助调度策略优化与可视化监控。
          • 为可配置产品生成销售报价(如太阳能系统)
            • 业务挑战:配置产品报价复杂,需要人工估算屋顶尺寸与其他因素。
            • 技术栈:Google Maps Platform(Aerial View API)、Vertex AI、Document AI。
            • 流程亮点:系统获取屋顶图像估算参数,结合 Document AI 提取客户需求与历史记录,自动生成准报价,提升效率并减少人工错误。
        • 政府/公共部门(Public Sector & Nonprofits)
          • 面向公众福利申请的 SMS 聊天机器人
            • 业务挑战:政府福利申请流程复杂,门槛高,影响申请效率与普惠性。
            • 技术栈:Vertex AI、SMS API、福利资格数据库。
            • 流程亮点:通过短信形式,AI 聊天机器人快速判断用户是否有资格领取福利,并协助启动申请流程,使原本几天的流程缩短至几分钟。


      • 【Databricks客户案例|制造业】Barilla 通过构建统一的 Lakehouse 数据平台,根本性地解决了其传统数据架构在扩展性、数据孤岛和治理方面的核心瓶颈。此举的本质价值在于,将一个分散、迟缓、难以维护的本地数据仓库体系,转变为一个集中的、高效的、支持从BI到AI全流程的云端数据智能平台,从而系统性地提升了全公司(从供应链到市场营销)的数据驱动决策能力与运营效率。
        • Barilla 核心挑战: 在采用 Databricks 平台之前,Barilla 的数据基础设施是典型的传统企业架构,导致了三大核心痛点:
        • 架构僵化与数据孤岛: 原有的本地数据仓库无法有效扩展以处理每日超 1TB 的海量异构数据(如制造日志、传感器数据、ESG报告等)。数据分散在各个业务系统中,形成了严重数据孤岛,导致跨部门数据整合与分析效率低下,无法形成全局业务洞察。
        • 价值交付迟缓: 数据分析师难以快速获取和整合所需数据,大量时间被消耗在数据准备而非价值挖掘上。这直接导致了业务洞察的交付延迟,使其难以快速响应由气候变化、成本上涨等因素引发的供应链波动。
        • 治理与合规的复杂性: 广泛的欧洲业务范围意味着必须严格遵守 GDPR 等数据法规。在分散、孤立的旧架构下,实施统一的数据质量标准、权限控制和合规性审计变得极其困难且成本高昂。
        • 解决方案与关键价值: Barilla 将其数据战略全面迁移并统一到 Databricks 数据智能平台(构建在 Azure 之上),实现了从数据采集、整合、治理到分析与机器学习的全流程闭环。其核心价值体现在以下可衡量的成果上:
        • 实现全价值链的运营效率提升(核心价值):
          • 生产成本降低: 通过部署在平台上的机器学习模型进行预测性维护,将非计划性停机转为计划性维护,显著降低了生产损失和运营成本,案例提及此项节省了数百万欧元。
          • 供应链优化: 基于统一数据实现的供应商绩效量化评估和近乎实时的物流追踪,有效降低了供应商风险并优化了库存管理。
        • 数据架构的根本性简化(降本增效):
          • 消除数据孤岛: 基于 Delta Lake 构建的集中式存储库,打破了各业务部门间的数据壁垒,为全公司 2000 多名数据用户提供了单一可信的数据源。
          • 统一技术栈: 在一个平台上同时支持 Databricks SQL(用于BI分析)和 MLflow(用于机器学习),取代了过去可能需要为不同任务搭建不同技术栈的复杂局面,降低了技术维护成本。
        • 治理与生产力的双重增强:
          • 强化数据治理: 通过 Unity Catalog 实现了集中、统一的数据资产目录和精细化的权限管理,在促进数据共享的同时,确保了数据使用的安全与合规(如满足GDPR要求)。
          • 释放数据团队生产力: 为数据团队提供了标准化的、高效的协作环境,使其能更专注于业务问题的解决(如开发成本归因模型、营销ROI分析模型),而非基础的数据管道搭建。
        • 业务影响: 通过构建现代化的数据 Lakehouse,Barilla 将数据能力从后台支持部门转变为驱动业务增长的核心引擎。平台支撑了从制造、研发、供应链到市场营销等 90% 的业务部门,使其能够更敏捷地应对市场变化、优化成本结构、提升可持续发展表现,最终将数据洞察直接转化为保护运营利润和提升市场竞争力的商业成果。


      • 【DolphinDB x 金仕达案例分析|金融科技】 金仕达通过集成DolphinDB时序数据库,对其金融交易系统的数据架构进行升级。此举的核心是采用统一的“流批一体化”平台,解决传统架构在处理高频交易数据时,因写入与分析能力分离而导致的性能瓶颈,旨在为金融业务提供可量化的性能提升。
        • 面临的技术挑战与量化指标:
          • 架构吞吐与查询瓶颈: 原有架构无法稳定处理每秒50万条的逐笔数据写入峰值;同时,对千亿级行情表的关联查询耗时超过10分钟,导致分析结果严重滞后于市场变化。
          • 实时计算延迟超限: 在执行实时因子计算、信号推理等复杂运算时,系统的处理时延超过100毫秒,该延迟水平无法满足高频及算法交易策略的执行要求。
          • 业务交付周期过长: 由于采用多系统分离的技术栈,数据整合与开发流程冗长,导致新交易策略的上线周期长达3个月,限制了业务的敏捷性。
        • 解决方案与可衡量的价值提升:
          • 提升混合负载处理能力: 新架构旨在稳定承载每秒50万条数据写入的同时,将千亿级数据表的复杂查询响应时间从10分钟以上缩短至交易决策允许的秒级或毫秒级范围内,消除数据延迟。
          • 满足实时计算性能要求: 核心目标是将复杂策略的计算延迟从100毫秒以上降低至符合高频交易需求的水平,使原先因性能不足而无法实施的复杂量化模型得以运行。
          • 缩短策略上线周期: 通过提供统一的数据平台和简化的技术栈,旨在将新策略的研发与部署周期从3个月显著缩短,从而提升金融机构对市场机会的快速响应能力。
        • 业务影响:此次架构升级为金仕达的客户提供了具备明确性能优势的技术基础。通过解决数据处理中的关键量化瓶颈,金融机构能够部署并执行对时效性要求更高的交易策略。这直接关系到在分秒必争的金融市场中,对交易机会的捕捉能力和精细化风险管理的水平,最终影响其盈利能力与市场地位。



      招投标微观察

      04

      国家

      招标方

      项目名称

      金额

      起始-结束时间

      开标时间

      信源

      中国


      江苏省医疗保障局

      (机关)

      江苏省“一人一档”全民参保数据库升级项目

      200万元

      2025年08月18日 — 2025年09月16日

      2025年09月16日

      江苏省“一人一档”全民参保数据库升级项目采购公告

      太仓正和国际集装箱码头有限公司

      太仓正和国际集装箱码头有限公司数据库服务器购置项目

      145万元人民币

      2025年08月28日 — 2025年08月01日

      2025年9月22日15点

      2025关于江苏省太仓正和国际集装箱码头有限公司数据库服务器购置项目的招 标公告

      中铁信息工程集团有限公司

      中铁信息工程集团有限公司信创操作系统、数据库、中间件采购项目询价函

      /

      2025年8月26日—2025年9月4日下午2:00

      /

      中铁信息工程集团有限公司信创操作系统、数据库、中间件采购项目询价函

      上海广播电视台


      关于采购数据库一体机设备及相关数据库软件的招标公告

      /

      2025年08月20日 — 2025年08月27日

      另行通知

      关于采购数据库-体机设备及相关数据库软件的招标公告

      华润雪花啤酒(中国)有限公司成都分公司

      WEP平台数据库、效能分析平台信创改造实施


      /

      2025年09月05日- unknown

      /

      华润雪花啤酒(中国)有限公司成都分公司WEP平台数据库、效能分析平台信创改造实施公告

      广电运通集团股份有限公司

      广电运通信创分布式数据库系统采购项目

      /

      2025年09月09日- unknown

      /

      广电运通信创分布式数据库系统采购项目采购公告

      海关总署物资装备采购中心

      全国海关信息中心2025年数据库设计软件采购项目

      180万元人民币

      2025年09月09日 - 2025年09月30日

      2025年09月30日

      全国海关信息中心2025年数据库设计软件采购项目

      光大证券股份有限公司


      光大证券股份有限公司国产分布式数据库_框架_补充_2025项目

      283.4万元


      2025年09月05日- 2025年10月14日上午9:00

      2025年10月14日上午9:00

      光大证券股份有限公司国产分布式数据库_框架_补充_2025项目

      美国

      VETERANS AFFAIRS, DEPARTMENT OF (VA)

      DA01--CMOP Application, Database, and Automation Control Software

      Enhancements

      3400万美元

      2025年08月13日

      2025年10月12日

      /


      DA01--CMOP Application,Database, and Automation Control Software Enhancements

      德国


      Bezirk Mittelfranken

      Germany: IT services: consulting, software development, Internet and support

      Kauf, Lieferung und Supportleistungen von Oracle Database Appliances

      /

      Now —

      2025年9月26日9点(柏林时间)

      /

      562890-2025 . competition

      Thüringer Aufbaubank - Anstalt öffentlichen Rechts

      Germany: Database systems

      Support- und Wartungsverträge Oracle

      /


      Now —

      2025年09月29日12点(柏林时间)

      /


      562548-2025- Competition

      罗马尼亚

      卫生部

      数据库和操作系统软件开发服务

      440万欧元

      2025 年 09 月 09 - 2025 年 10 月 13 日 - 15:00:00(UTC+3)东欧夏令时间,伊斯坦布尔,马约特岛

      2025 年 10 月 13 日 - 15:00:00(UTC+3)东欧夏令时间,伊斯坦布尔,马约特岛

      593814-2025-竞争


      • 墨天轮 - 数据库资讯|8月国产数据库中标情况/大单一览:
        • 大单:

        • 中标次数较多的数据库产品:
          • 达梦数据库:在江苏农村商业联合银行股份有限公司、上海黄金交易所、深圳证券信息有限公司、恒丰理财有限责任公司、中国电信股份有限公司宁夏分公司、全国海关信息中心、中国国际货运航空股份有限公司、中核环保有限公司、中国东方航空股份有限公司、石河子大学等项目中中标。
          • 金仓数据库在中国能源建设股份有限公司、中电建华科软公司、中国电建贵州工程有限公司、中国金融期货交易所、同方股份有限公司、宁波市统计局、华池县住房和城乡建设局、北京市科学技术委员会、中关村科技园区管理委员会综合事务中心、汕头职业技术学院、、温州科技职业学院等项目中中标。另外金仓数据库还入围了2025年度-2026年度甘肃省党政机关、 事业单位基础软件框架协议采购项目。
          • OceanBase:在东莞银行股份有限公司、龙江银行股份有限公司、太平金融科技服务(上海)有限公司、长城基金、中国期货市场监控中心、中国移动通信集团湖北有限公司等项目中中标。
        • 汇总一览


      • 智能超参数|中国大模型中标项目监测与洞察报告(2025年8月)
        • 市场概览: 2025年8月,中国大模型相关公开中标项目共623个,披露总金额约14.7亿元。市场数据表明,项目数量与金额持续增长,商业化重心正从基础模型转向具体应用。

        • 核心发现:
          • 市场规模与项目价值: 市场保持增长,项目金额中位数上升至90.6万元,显示单个项目投资额度与复杂度在增加。金额超千万元的项目有25个,其总金额占市场整体的54%。

          • 项目类型分布: 应用类项目占比达59.6%,成为市场主体。需求最集中的三个应用场景是:智能审核与分析决策、知识问答平台、智能客服与数字人。

          • 主要应用行业: 按项目数量统计,教科行业连续4个月居首,主要由高校与职校的需求驱动。按中标金额统计,政务行业位列第一,大型项目较多。

          • 技术趋势信号:
            • 智能体(Agent): 相关项目增长缓慢,市场对该技术的应用落地仍处早期谨慎阶段。
            • 数据标注: 数据类项目数量创新高。市场信号显示,为构建特定业务应用,对高质量、定制化数据的需求正在显著增加。

        • 厂商竞争态势:
          • 头部厂商: 按中标项目数量排序,科大讯飞、火山引擎、百度位列前三。具备完整解决方案能力的厂商优势明显。
          • 开源模型影响: 与DeepSeek明确相关的项目数量连续两月下滑。这表明企业级客户在选型时,除模型性能外,也高度关注配套的开发工具链与服务支持。


      宏观消息

      05

      • 近日,国务院印发《关于深入实施 “人工智能 +” 行动的意见》,旨在推动人工智能与经济社会各领域深度融合,加快培育新质生产力,服务中国式现代化建设。
        • 指导思想
          • 以习近平新时代中国特色社会主义思想为指导,贯彻新发展理念,坚持以人民为中心,依托我国 “数据资源丰富、产业体系完备、应用场景广阔” 三大优势,强化 “前瞻谋划、系统布局、分业施策、开放共享、安全可控”,聚焦科技、产业、消费、民生、治理、全球合作 6 大领域,推动人工智能催生新基建、新技术、新产业、新岗位。
        • 分阶段发展目标
          • 到 2027 年:人工智能与 6 大重点领域广泛深度融合,新一代智能终端、智能体应用普及率超 70%,智能经济核心产业规模快速增长,人工智能在公共治理中作用显著,开放合作体系完善。
          • 到 2030 年:人工智能全面赋能高质量发展,上述应用普及率超 90%,智能经济成为我国经济重要增长极,实现技术普惠与成果共享。
          • 到 2035 年:我国全面步入智能经济和智能社会发展新阶段,为基本实现社会主义现代化提供支撑。
        • 6 大重点行动:AI 与各领域融合方向
          • “人工智能 +” 科学技术:驱动科研创新
            • 加速科学发现:构建科学大模型,推动科研平台 / 大设施智能化升级,打造高质量科学数据集,促进跨学科融合。
            • 创新技术研发模式:推动 “研发 - 工程 - 落地” 协同,支持智能研发工具,加强 AI 与生物制造、量子科技、6G 等技术协同。
            • 革新社科研究:探索人机协同社科研究模式,研究 AI 对人类认知、伦理的影响,构建 “智能向善” 理论体系。
          • “人工智能 +” 产业发展:重塑产业生态
            • 培育智能原生业态:推动企业将 AI 融入战略 / 架构 / 流程,培育底层逻辑基于 AI 的 “智能原生企业”,开辟新兴产业赛道。
            • 推进工业智能化:覆盖工业 “设计 - 中试 - 生产 - 服务 - 运营” 全环节,提升全员 AI 素养,突破工业软件,优化供应链协同与生产工艺。
            • 加快农业数智化:创新 AI 育种体系,推广智能农机 / 无人机 / 机器人,强化农业生产管理与风险防范。
            • 升级服务业模式:推动服务业从 “数字赋能” 向 “智能驱动” 演进,探索 “无人 + 人工” 结合模式,在金融、法律、物流等领域推广智能终端 / 智能体。
          • “人工智能 +” 消费提质:丰富消费场景
            • 拓展服务消费:发展提效型、陪伴型智能应用,升级文娱、家政、养老等生活服务,拓展体验消费、个性消费。
            • 培育产品消费:推动智能终端 “万物智联”,发展智能网联汽车、AI 手机、智能家居等,探索 AI 与元宇宙、脑机接口融合的新产品形态。
          • “人工智能 +” 民生福祉:提升生活品质
            • 优化工作方式:探索人机协同组织模式,在高危 / 紧缺岗位应用 AI,开展 AI 技能培训,评估就业风险以减少冲击。
            • 创新教育模式:将 AI 融入教育全流程,发展 “智能学伴 / 教师”,推动 “知识传授” 向 “能力提升” 转变,实现大规模因材施教。
            • 改善生活体验:推广居民健康助手,在辅助诊疗、健康管理中应用 AI;用 AI 创作中华文化内容,壮大文化产业;拓展 AI 在养老托育、全民健身、“好房子” 全周期中的应用。
          • “人工智能 +” 治理能力:完善治理体系
            • 升级社会治理:推动市政设施智能化,探索 AI 时代城市规划,加快 AI 向乡村延伸;在政务领域打造 “主动服务、智能办理” 模式,提升公共资源交易监管水平。
            • 强化安全治理:构建 “自然人 + 数字人 + 智能机器人” 多元安全体系,用 AI 提升安全生产、防灾减灾、社会治安能力,赋能网络空间治理。
            • 优化生态治理:提升空天地海一体化感知与国土空间智慧规划能力,用 AI 监测预测大气、水、土壤等生态要素,助力全国碳市场建设。
          • “人工智能 +” 全球合作:推动普惠共享
            • 促进技术普惠:将 AI 作为国际公共产品,推动技术开源,加强算力、数据、人才国际合作,帮助全球南方国家弥合 “智能鸿沟”。
            • 共建全球治理:支持联合国主导 AI 全球治理,深化与国际组织合作,协调治理规则与技术标准,共同应对 AI 应用风险。
        • 8 项基础支撑能力:保障行动落地
          • 提升模型基础能力:加强 AI 基础理论研究,创新模型架构与训练方法,建立模型能力评估体系。
          • 加强数据供给创新:建设高质量 AI 数据集,完善数据产权制度,探索数据价值分成机制,培育数据处理产业。
          • 强化智能算力统筹:攻坚 AI 芯片与使能软件,优化国家智算布局(依托 “东数西算”),创新算力运营模式,推动算力普惠绿色。
          • 优化应用发展环境:建设国家 AI 应用中试基地,培育 “模型即服务”“智能体即服务” 生态,完善场景激励与试错容错机制,加快标准研制。
          • 促进开源生态繁荣:支持 AI 开源社区,建立开源贡献评价机制(纳入高校学分 / 教师成果),发展具有国际影响力的开源项目。
          • 加强人才队伍建设:推进 AI 全学段教育,超常规培养领军人才,完善多元化人才评价体系,用股权期权等方式引才留才。
          • 强化政策法规保障:健全国有资本 AI 投资考核制度,加大金融财政支持,完善 AI 法律法规与伦理准则,优化安全评估备案机制。
          • 提升安全能力水平:防范模型黑箱、幻觉、算法歧视风险,建立 AI 技术监测、预警、应急体系,形成 “政府引导 + 行业自律” 的动态治理格局。


      • 近日,《广州市公共数据运营服务费收费标准(试行)》在广州公共数据运营平台发布,此举标志着广州正式启动公共数据授权运营价格形成机制的实践,作为粤港澳大湾区核心引擎,广州也在率先打造公共数据资源授权运营创新模式策源地,助力湾区高质量发展。目前,广州已推动 38 个登记主体在国家、省公共数据资源登记平台登记超 260 项公共数据资源。
        • 收费标准:全国首份城市级标准,平衡公共属性与市场规律
          • 该《收费标准》既立足公共数据公共属性,明确用于公共治理、公益事业的公共数据产品和服务 “有条件无偿使用”;又兼顾市场规律,针对市场主体需求创新设置 “基础技术服务费 + 公共数据产品和服务调用费” 双维度分项收费模式。其中,基础技术服务费按年收取且有固定上限,公共数据产品和服务调用费基于数据调用量实行阶梯递减式累进计价,同时结合广州公共数据运营平台能力,可对市场主体使用的产品形式、数量、数据调用量等精准匹配、计量、计费。
        • 供需对接:平台支撑 “快申速审”,提升效率
          • 广州公共数据运营平台已公开 5000 多项公共数据授权运营目录信息,数据商注册后可查阅人工智能生成的关键目录对应仿真数据,以便快速掌握数据状况、开展数据应用分析。后续运营机构能快速 “转译” 数据商的应用需求,依托市政务大数据中心与该运营平台的高效贯通,实现公共数据使用 “快申速审”,截至目前已完成超 50 个公共数据产品和服务的开发利用申请审核。
        • 数据安全:合规审查与互联互通保障流通安全
          • 运营机构与数据交易机构的平台、数据、合规体系实现互联互通,保障公共数据产品和服务交易可追溯、可审计,也为公共数据资源授权运营公允价格形成发挥示范引导作用。继全国首发热线系列数据产品后,广州数据集团开发的 “公积金智贷”“商保核保数据产品” 等 12 款公共数据产品和服务已在广州数据交易所数据产权登记服务平台公示。广州数据交易所凭借积累的全省近百款公共数据产品合规辅导与审查经验,总结沉淀公共数据产品审查合规要点,为这 12 款产品完善合规材料、通过省数据资产合规委员会审核提供支持。
        • 下一步规划:推进先行示范,激发城市创新活力
          • 广州将持续推进公共数据资源授权运营先行示范建设,围绕城市全域数字化转型需求,发挥公共数据资源引领带动和创新引擎作用,聚焦民生服务、卫生健康、住房保障等领域打造实用价值高的公共数据产品和服务,推动应用场景从点状示范走向规模应用,支撑广州城市可信数据空间国家试点建设,构建共建共治共享的数据流通利用服务生态链,激发城市创新发展新活力。



      行业消息

      06

      • 由中国信息通信研究院人工智能研究所和中电信人工智能科技(北京)有限公司联合发布的《数据标注产业发展研究报告(2025年)》
        • 数据标注产业总体概况
          • 数据标注是数据治理的重要环节,其核心任务是对数据进行精准分类、标记和描述,以提升数据质量和价值。数据标注分为狭义和广义两种定义:
            • 狭义:将人类知识转换为机器可识别信息的过程,涵盖文本、图像、语音、视频和3D点云标注等。
            • 广义:以数据标注为核心的人工智能数据服务产业链,包括数据采集、清洗、标注、质检等环节。
          • 数据标注产业的组织服务模式包括集中式、分布式和混合模式,其中混合模式结合了集中式和分布式的优势,成为当前主流。数据标注产业链呈现“需求-平台-执行”的三层架构,上游是数据提供方和应用需求方,中游是数据标注平台公司,下游是具体标注服务商。
        • 数据标注产业发展现状和机遇
          • 政策支持:国家层面出台多项政策支持数据标注产业发展,如《关于促进数据标注产业高质量发展的实施意见》等,明确了数据标注产业的发展目标和路径。地方政府也积极响应,如四川省成都市、辽宁省沈阳市等七个数据标注基地城市,纷纷出台相关政策,推动技术创新、人才培养和生态建设。
          • 大模型带来的机遇:大模型的快速发展对数据标注提出了新的需求,数据需求呈海量增长,且对标注数据的质量和多样性要求更高。大模型的数据标注需求贯穿全生命周期,包括预训练、监督微调、强化学习和持续学习等阶段。DeepSeek等企业通过技术创新,开启了数据标注的新范式,如自动生成高质量数据集、数据蒸馏与人类协同技术等。
          • 市场发展:数据标注产业起源于1984年,2010年后随着人工智能产业加速发展,市场规模逐年扩大。全球数据标注企业主要分布在北美、欧洲和亚太地区,中国数据标注行业蓬勃发展,相关企业数量达1123家。七个数据标注基地已建设数据集524个,服务大模型163个,带动相关产值超过83亿元。
        • 数据标注产业发展核心要素与实践
          • 技术创新:技术创新是数据标注产业发展的关键驱动力,包括自动化标注、众包标注、多模态标注等技术。例如,商汤科技通过大模型技术对自动驾驶数据进行自动标注,提升了标注效率。
          • 行业赋能:数据标注在多个行业领域有广泛应用,如科学、制造、农业、能源、交通、金融、医疗等。通过数据标注,可以形成高质量的训练和评测数据,推动人工智能技术在各行业的应用。
          • 生态培育:生态培育涉及整合产业资源,打造健康的产业链和生态环境。通过产学研用的深度融合,形成产业生态圈,推动产业集群发展。
          • 标准应用:标准应用有助于提高数据标注的准确性、一致性和可靠性。国家数据局等机构正在推动数据标注标准体系的建设,涵盖数据标注质量、安全与隐私保护、工具与平台等方面。
          • 人才培养:数据标注人才需求不断增加,需要具备计算机科学、统计学等专业知识,以及数据预处理、标注工具使用等技能。通过校企合作、职业培训等方式,培养高素质的数据标注人才。
          • 安全保障:数据安全是数据标注产业的重要保障。通过数据加密、访问控制、脱敏处理等技术手段,确保数据的安全和隐私。
        • 数据标注产业发展趋势
          • 数据标注产业呈现出高技术含量、高知识密度、高价值应用的“三高”特征。未来,数据标注将朝着智能化标注技术深化应用、人机协同标注优化升级、合成数据技术创新突破等方向发展。同时,数据标注行业将更加注重从业者的专业素养和跨学科知识融合,推动人才培养和职业发展的专业化。
        • 推动数据标注产业发展的建议,报告提出了六点建议:
          • 加强数据标注技术创新能力,推动智能化标注工具的研发和应用。
          • 提升数据标注行业赋能水平,建设高质量行业数据集。
          • 完善数据标注生态体系,培育龙头企业,孵化中小微企业。
          • 推动数据标注标准编制和应用,构建标准框架体系。
          • 强化数据标注人才培养力度,设立实训基地,推动产教融合。
          • 保障数据安全可靠,加强数据安全管理和技术应用。


      • 近日,以 “数聚产业动能 智启发展新篇” 为主题的中国国际大数据产业博览会在贵阳开幕,多位嘉宾围绕数字经济创新发展、数据资源开发利用、政企数智化转型、数据安全等议题分享观点,部分观点摘录内容如下:
        • 大数据国家工程研究中心常务副主任韩国权:聚焦数据要素赋能与治理
          • 政府数据治理优化:提出摒弃 “求大求全” 的数据需求思路,以 “小切口、小场景” 精准匹配数据资源,构建跨部门、跨域的协同机制,缓解数据供给方的处理与安全保障压力。
          • 数据治理标准建设:强调先统一基础性数据标准、技术标准与运营管理规范,再由场景主导方推进数据跨域标准(场景服务方提供数据),从具体标准体系入手让数据 “先跑先用”,进而提炼宏观整体标准。
          • 政企数字化转型方案:推出 “面向未来的数据要素赋能” 方案,包括将数据标准落地至功能与服务平台,实现数据采集融合分析,并结合安全要求自动完成数据分级、分类、脱敏、匿名化,形成智能化处理能力。
          • 数据与 AI 协同:指出数据资源需主动调度、高效匹配支撑模型,以数据赋能 AI 发展,再由 AI 形成新应用能力,最终服务经济社会。
        • 清华大学孟天广教授:AI 影响与数据治理、数字政府建设
          • AI 浪潮的意义:认为当前 AI 浪潮区别于前两波专用智能,将切实影响产业、生活与治理模式,需积极探索人类文明新发展模式。
          • 虚假信息治理:分两类应对 —— 人为生成的虚假信息(如谣言),用 AI 甄别特征规律并开发识别智能体嵌入社交平台;AI 生成的虚假信息(影响价值观),需加快推进生成式 AI 价值对齐的规则制定与技术研发,构建开放包容的舆论生态。
          • 数字政府制度建设三维度:一是整合数据底座,促进部门与层级联动,建设 “无缝隙政府”;二是以场景驱动(如政务服务、城市治理)激发积极性,推动数据跨部门交换与协同;三是政府主导建立数字生态,联动科技企业、高校等外部伙伴,释放数据价值。
          • 我国数据治理优势:指出我国 2022 年出台 “数据二十条” 及后续确权、价值释放政策,数据要素流通需供需两侧发力,现阶段应重点聚焦需求侧,保障市场高效运行以推动数字产业与经济发展。
        • 中能智新杨俊董事长:能源大数据体系与海外布局
          • 能源大数据核心成果:依托国家级能源大数据资源,原创数学模型、算法与系统设计,构建多源异构能源大数据标准化处理体系,将规划、运行、市场数据整合为 “数据资产”,打造自主知识产权数智化产品与新型电力系统解决方案。
          • 成果应用:服务华电、三峡等企业预测电力市场趋势、提升运营水平,在国内甘肃、广东等电力现货地区及菲律宾等海外市场有成功案例,计划推向 “一带一路”。
          • 技术出海挑战应对:数据合规方面,针对不同国家要求(如菲律宾能源数据本地存储),开发 “数据脱敏 + 本地部署” 架构;技术适应方面,模块化设计系统,实现市场规则、电网参数可配置,快速匹配海外标准。
          • 海外 “三步走” 战略:先以菲律宾项目为起点拓展东南亚、中东欧市场(2 年内获多项目);再参与当地标准编制,推动中国技术标准出海;最后在进入市场建立区域服务中心,开拓增量。
        • 璞跃中国徐洁平 CEO:企业开放式创新与贵阳合作
          • 开放式创新内涵:区别于 “定向资源、内部为主” 的开发式创新,开放式创新强调横向平台探索,龙头企业需兼顾内部创新文化与外部颠覆式创新平台合作。
          • 璞跃创新实践:通过 “大手牵小手” 对接世界 500 强与新型科技公司,以场景拉动创新、创新推动场景,覆盖汽车、能源、健康等近 20 个产业赛道,全球布局 60 余个创新中心。
          • 与贵阳合作计划:看好贵阳贵安的算力集群及新能源、大健康等优势,计划在此建立垂直产业加速平台与创新生态平台,深化合作。
        • 贵州大学王旭副校长:“大数据学科群” 与产学研转化
          • 学科布局:10 年前启动 “大数据学科群” 建设,涵盖大数据信息工程学院、计算机学院等核心院系,机械、电气等交叉学科(如智能制造、算力调度),及人工智能、物联网等新专业,联动高等研究院与产业形成合力。
          • 科研成果应用:法律大模型可预处理案件数据、自动生成法院文书;医疗影像大模型整合 B 超、CT、诊断结果等多模态数据,已投入实践。
          • 产学研用落地:通过省部共建公共大数据重点实验室转化技术,与贵阳城投、数据宝等企业联合建实验室、培养人才;依托国家级大学科技园设概念认证、产学研一体化、种子基金三大中心,验证创意可行性并孵化技术,打通科技服务产业 “最后一公里”。


      产业上下游企业消息

      07

      • 谷歌
        • 谷歌 AI 推出名为 Stax 的实验性开发者工具,旨在帮助开发者根据自定义标准(如流畅性、真实性和安全性)评估大型语言模型,而非依赖通用基准测试 。
        • 谷歌发布代号为“nano-banana”的图片模型 Gemini 2.5 Flash Image 。该模型具备图像生成和编辑功能,包括保持角色一致性、多图像融合及基于提示的局部编辑,定价为每张图片 0.039 美元 。
        • 美国地方法院裁定,谷歌无需被迫出售 Chrome 浏览器和 Android 操作系统 。裁决要求谷歌向包括 AI 公司在内的部分竞争对手分享某些搜索数据,并禁止其签订排他性应用分销合同 。


      • 亚马逊在其购物应用中推出名为“Lens Live”的 AI 功能 。该功能允许用户通过手机摄像头实时扫描现实世界中的产品,并即时在应用内以轮播形式展示匹配或相似的商品 。该功能集成了亚马逊的 AI 助手 Rufus,目前正向美国的 iOS 用户推出 。


      • OpenAI 宣布以 11 亿美元的全股票交易形式收购数据分析平台 Statsig 。Statsig 创始人兼首席执行官 Vijaye Raji 将出任 OpenAI 新设立的应用首席技术官一职 。Statsig 将继续独立运营并服务现有客户 。


      • Anthropic
        • Anthropic 推出 Claude 浏览器 AI 助手的预览版 。该功能作为 Chrome 扩展程序运行,目前仅对约 1000 名月费为 100-200 美元的顶级 Max 套餐订阅用户开放 。
        • Anthropic 发布声明(Updating restrictions of sales to unsupported regions),明确将中国列为“敌对国家”,并更新服务条款,禁止由中国实体拥有或控制超过 50% 的公司使用其旗下模型 。


      • xAI
        • xAI 公司宣布开源 Grok-2.5 模型,并在 Hugging Face 平台上公布其模型权重 。该模型拥有 3140 亿参数,采用专家混合(MoE)架构 。其开源许可协议明确禁止将其用于训练或改进其他 AI 模型 。
        • 马斯克在 X 平台上表示,xAI 前员工薛辰李在离职前下载了 xAI 的全部代码库,并计划携带至 OpenAI 。xAI 已就此提起诉讼,指控其窃取商业机密 。


      • 阿里巴巴
        • 阿里巴巴发布开源的 Wan2.2-S2V(语音到视频)模型 。该模型拥有 140 亿参数,能够根据单张肖像照片和音频剪辑生成 480p 或 720p 分辨率、帧率为 24fps 的动画视频 。
        • 阿里巴巴发布其迄今为止规模最大的模型——Qwen3-Max-Preview (Instruct),参数超过一万亿 。该模型为闭源模型,通过阿里云 API 和 OpenRouter 提供服务,支持高达 262,144 个 token 的上下文窗口 。


      • 智谱 AI 宣布推出 GLM-4.5 编码套餐,可以接入 Claude Code 。针对 Anthropic 限制中国用户的情况,智谱 AI 为 Claude API 用户提供迁移方案,新用户可获得 2000 万免费 token 。


      • 腾讯
        • 腾讯开源了 70 亿参数的翻译模型 Hunyuan-MT-7B 。该模型支持 33 种语言互译,并在 WMT2025 机器翻译大赛的 31 个语言对项目中获得 30 项第一 。
        • 腾讯开源了智能体框架 Youtu-Agent,该框架旨在使用简单的 YAML 配置文件构建自主 AI 智能体,并针对 DeepSeek-V3 等开源模型进行优化 。


      • 华为召开发布会,推出新款三折叠手机华为 Mate XTs 非凡大师 。同时,华为在发布会上正式宣布该手机搭载麒麟 9020 芯片,这是自 2021 年以来华为首次在发布会上提及麒麟芯片相关信息 。


      • 小米召开发布会,正式推出基于 Android 16 的澎湃 OS 3 (HyperOS 3) 操作系统 。新系统引入了“小米超级岛”功能用于实时通知,增强了“超级小爱”AI 助手,并对图标和锁屏界面进行重新设计 。


      • 英特尔与特朗普政府达成历史性协议,以加速美国技术和制造业领导地位。政府对英特尔的投资将是一种被动所有权,不涉及董事会代表或其他治理或信息权利。政府还同意在需要股东批准的事项上与公司董事会投票,但有限制例外。政府将获得一项五年期认股权证,以每股 20美元的价格购买英特尔普通股的额外5%,但只有在英特尔不再拥有至少51 %的晶圆业务时才能行使。政府的股权投资将由先前根据美国《芯片与科学法案》授予但尚未支付英特尔剩余的57亿美元拨款,以及作为安全区域计划授予该公司的32亿美元组成。英特尔将继续履行其安全区域义务,并重申其致力于向美国国防部提供可信且安全的半导体的承诺。这项89亿美元的投资除去了英特尔迄今为止获得的22亿美元芯片拨款,使总投资额达到111亿美元。


      • Docker Desktop 中发现一个评分为 9.3 的严重漏洞 CVE-2025-9074 。该漏洞允许在本地运行的恶意 Linux 容器未经身份验证访问 Docker 引擎 API,从而绕过隔离机制直接访问宿主机文件系统 。目前 Docker Desktop v4.44.3 版本已修复该漏洞 。


      • Jetbrains 宣布其旗下的 Ruby 和 Rails 集成开发环境 RubyMine 对非商业用途免费开放,主要面向学生、业余爱好者和无偿的开源贡献者 。



      初创微观察

      08

      • Pokee.ai 是一家专注于开发下一代通用 AI 智能体的创新科技公司,成立于 2024 年 10 月,总部位于美国华盛顿州
        • 初创团队
          • Bill Zhu(CEO)
            • 曾在 Facebook(Meta)AI 担任 Senior Staff Research Lead Manager(Head of Applied Reinforcement Learning),Engineering Manager / Tech Lead(Ads Growth Machine Learning),Machine Learning Engineer(Ads Growth Machine Learning),负责强化学习技术研发与落地项目,该项目主导开发并开源了 Meta 面向生产场景的旗舰强化学习训练平台 Pearl,同时将 RL 模型部署于广告、推荐系统及现实实验室(Reality Labs)等业务领域;负责广告主增长 AI 产品研发项目,该项目成功搭建了 Meta 首个广告主增长 AI 产品;负责广告增长领域机器学习技术支撑项目,该项目聚焦广告业务增长,为广告主增长相关场景提供机器学习算法研发、模型优化等技术支持,保障广告增长业务的技术落地与效率提升,任职时间为 2017 年 - 2024 年。
        • 核心产品
          • Pokee.ai 的核心产品 Pokee 是一款以强化学习(RL)为底层架构的通用 AI 智能体平台,与主流 LLM 驱动的智能体不同,Pokee 的智能体以 RL 为决策核心,LLM 仅作为理解用户指令的「UI 层」。这种设计带来三大突破:
            • 多步任务闭环能力:通过强化学习的自我对弈(self-play)机制,智能体在虚拟环境中通过试错学习工具调用逻辑,支持从信息提取 → 内容生成 → 跨平台发布的完整工作流。例如,用户只需输入「整理 Product Hunt 热门工具并生成 LinkedIn 图文」,Pokee 即可自动完成网页抓取、分类整理、图文生成、多平台定时发布的全流程,无需人工干预。
            • 工具调用精准性与扩展性:训练阶段已覆盖 6000+ 工具(含 API、数据库、文件系统等),执行准确率超 97%,且新增工具无需重新训练即可适配(小众工具仅需微调)。例如,在电商场景中,Pokee 可同时调用 Shopify 订单系统、Google Analytics 数据接口及社交媒体 API,实现从销售数据监控到营销内容生成的自动化。
            • 轻量化与低成本优势:模型参数量仅为同类产品的 1/10,单任务执行时间压缩至几分钟,成本降低至行业平均水平的 1/10。例如,生成并发布一条多平台图文的成本不足 0.5 美元,而传统方案需依赖 LLM 多次调用与人工干预,成本可达 5 美元以上。
        • 应用场景:

        • 融资情况
          • 2025 年 7 月 Pokee.ai 完成 1200 万美元种子轮融资,本轮融资由对冲基金 Point72 旗下风投机构 Point72 Ventures 领投,跟投方包括高通创投(Qualcomm Ventures)、三星 NEXT Ventures(Samsung NEXT Ventures)、泰国 SCB 10X、Salience Capital、锦秋资本(Jinqiu Capital)等知名机构,以及英特尔 CEO 陈立武(Lip-bu Tan)、前 Adobe CTO Abhay Parasnis、前 Tinder CTO Maria Zhang 等行业资深人士。


      • Neurelo 是一家成立于 2022 年的美国科技公司,总部位于加利福尼亚州洛斯阿尔托斯,专注于开发云数据 API 平台,旨在简化开发者与数据库的交互流程。
        • 初创团队
          • Guru Kamat(CTO)
            • 曾在 Palo Alto Networks 担任 VP, Engineering (Prisma Cloud),负责 Prisma Cloud 相关云安全产品的研发管理项目,该项目带领涵盖平台、CSPM(云安全态势管理)、搜索、前端及数据科学领域的全球团队,为 AWS、GCP、Azure、OCI 等公有云部署场景搭建 Palo Alto Networks 的云安全解决方案,任职时间为 2019 年 5 月 - 2022 年 3 月。
            • 曾在 Zero Systems, Inc. 担任 CTO,负责零信任应用安全初创公司的创立与技术团队管理项目,该项目是一家处于保密模式(stealth-mode)的天使投资初创公司,聚焦零信任应用安全领域,搭建了基于 AWS 托管的 SaaS 平台,通过为云端及本地工作负载构建不可变运行时架构,实现分布式入侵检测功能,任职时间为 2017 年 10 月 - 2019 年 4 月。
            • 曾在 A10 Networks, Inc 担任 Director, Engineering (Service Provider & SDN),负责服务提供商及 SDN 领域的产品研发与技术战略推进项目,任职时间为 2007 年 10 月 - 2016 年 9 月。
        • 核心产品
          • Neurelo 的核心产品是云数据 API 平台,其核心价值在于通过自动化、智能化和全托管的技术设计,将传统数据库访问转化为高效的 API 驱动开发模式。以下是其核心产品的详细解析:
            • 产品定位与技术架构
              • Neurelo 的平台定位为数据库抽象层,目标是消除开发者与数据库之间的技术鸿沟。其核心架构包含三大模块:
                • API 生成引擎:直接对接 PostgreSQL、MySQL、MongoDB 等主流数据库,根据用户定义的数据模型自动生成 REST/JSON 和 GraphQL API。
                • AI 增强工具链:集成 AI 分析能力,提供查询优化建议、异常检测和性能监控。
                • 全托管云服务:API 无需本地部署,直接运行于 Neurelo 云端,支持弹性扩展和高可用性。
            • 核心功能模块
              •  API 自动化生成与管理
                • 零代码 API 构建:用户仅需定义数据模型(如通过可视化界面或文本描述),平台即可自动生成结构化 API,并附带完整的 Swagger/OpenAPI 文档和 SDK。
                • 多协议支持:同时生成 REST 和 GraphQL 两种格式的 API,满足不同开发团队的技术偏好。
                • 自定义扩展:允许开发者通过 “文本到 MQL” 功能添加复杂查询逻辑,或创建完全自定义的 API 端点。
              • 数据建模与版本控制
                • GitSchema 协作:数据模型以代码形式存储于 Git 仓库,支持团队协作开发和版本追踪,确保 Schema 变更的可审计性。
                • 模拟数据生成:基于 Schema 自动生成测试数据,加速开发和测试流程。
                • 跨数据库兼容性:统一管理多种数据库的 Schema,解决异构数据库集成难题。
              • AI 驱动的可观测性与优化
                • 查询性能分析:AI 实时监控 API 调用模式,识别慢查询并提供优化建议(如索引调整、查询重构)。
                • 异常检测:通过机器学习识别潜在的安全风险(如 SQL 注入尝试)或数据一致性问题。
                • 智能诊断工具:提供可视化的查询执行计划和资源消耗报告,帮助开发者快速定位问题。
              • 安全与合规保障
                • 细粒度权限控制:支持基于角色的访问控制(RBAC)和行级安全策略,确保敏感数据隔离。
                • 审计日志与监控:自动记录所有 API 调用和数据库操作,满足 GDPR、HIPAA 等合规要求。
                • 加密传输与存储:API 通信采用 TLS 加密,数据库存储支持 AES-256 加密,确保数据全生命周期安全。
              • 全托管云服务与集成
                • 无服务器架构:API 完全由 Neurelo 云端托管,用户无需管理服务器或基础设施,按需付费。
                • CI/CD 无缝集成:支持与 GitHub、GitLab 等版本控制系统以及 Jenkins、CircleCI 等 CI/CD 工具链集成,实现自动化部署。
                • 第三方生态兼容:提供与 Slack、Datadog 等工具的预构建集成,方便监控和通知。
        • 融资情况
          • 2022 年 8 月,种子轮融资 500 万美元,领投方 Foundation Capital。


      • Omni Analytics Inc. 是一家专注于商业智能和数据分析的企业,公司正式成立于2022 年 2 月,总部位于美国加利福尼亚州旧金山
        • 初创团队
          • Colin Zima(CEO)
            • 曾在 Looker 担任 Chief Analytics Officer, VP Product,负责公司数据分析与产品管理核心项目,该项目以 “帮助企业用数据创造价值” 为核心目标,统筹数据分析策略制定与产品方向规划,助力企业挖掘数据潜力、提升业务决策效率,任职时间为 2014 年 6 月 - 2022 年 1 月。
            • 曾在 HotelTonight 担任 Data 相关负责人,负责公司数据体系搭建与业务赋能项目,该项目主导 HotelTonight 的数据工作,搭建了个性化服务、需求预测及分析工具,革新了酒店收益管理的模式,任职时间为 2012 年 10 月 - 2014 年 5 月。
        • 核心产品:核心产品为基于共享数据模型的新一代商业智能(BI)平台:
          • 共享数据模型
            • 动态建模机制:
              • 零代码抽象:用户通过 SQL、Excel 公式或自然语言查询生成的临时指标,系统自动提炼为可共享的标准化数据模型。例如,市场部用 Excel 计算 “转化率” 后,技术团队可一键将其定义为全公司通用指标,避免 “同一指标多个版本” 的混乱。
              • 三层架构设计:
                • 原始层:直接连接数据库表和视图,保留数据原始形态;
                • 治理层:定义业务指标(如 “活跃用户”)的统一口径,支持版本控制和审计追踪;
                • 沙盒层:支持个性化分析,临时查询结果可选择性同步至治理层,实现 “边分析边治理”。
            • 语义层技术:
              • 内置数据字典,自动解析业务术语与技术字段的映射关系。例如,业务用户输入 “客单价”,系统自动关联技术表中的 “总销售额 / 订单量” 字段,避免沟通误差。
          • 多模态分析引擎
            • 交互方式融合:
              • SQL+Excel+AI 三位一体:技术用户用 SQL 深度探索,业务用户用 Excel 公式或自然语言(如 “2024 年 Q3 北美销售额同比增长”)分析,系统自动统一结果。例如,财务团队用 SQL 编写复杂财务模型,市场团队通过自然语言追问 “该趋势是否与促销活动相关”,AI 模块即时生成归因分析。
              • 智能洞察增强:AI 模块自动识别数据异常(如某区域销售额骤降 30%),生成归因报告并推荐后续分析路径(如 “建议对比该区域物流成本变化”)。
            • 可视化交互升级:
              • 支持 3D 数据可视化(如全球供应链热力图)和 Apple Vision Pro 等 AR 设备交互,用户可通过手势缩放查看数据细节。
          • 嵌入式分析能力
            • 零代码嵌入:
              • 企业可将 Omni 的图表和仪表盘直接嵌入客户应用(如 SaaS 平台),支持动态参数传递。例如,电商平台允许商家在后台实时查看 “本店转化率与行业均值对比”,并通过参数调整(如促销预算)实时更新预测结果。
              • 交互增强功能:2025 年推出的电子表格编辑功能,允许用户在仪表盘内直接修改数据源(如调整库存数量),模型自动重新计算并更新可视化结果。
        • 融资情况
          • 2022 年 8 月,种子轮与 A 轮总计 2690 万美元(种子轮 940 万美元 + A 轮 1750 万美元),First Round Capital领投,Redpoint Ventures、Box Group 等跟投;Redpoint Ventures 领投,First Round Capital、GV 跟投。
          • 2025 年 3 月,B 轮融资 6900 万美元,ICONIQ Growth 领投,Theory Ventures、First Round Capital、Redpoint Ventures、GV、Snowflake Ventures 参投。



      开源微观察

      09

      • DB-GPT
        • 项目简介:DB-GPT是一个开源的AI原生数据应用开发框架,其目的是构建大模型领域的基础设施,通过开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。它能够让用户通过自然语言与数据库进行交互,实现智能数据分析、报表生成、知识库问答等功能。
        • 项目关注度:该项目起始于2023年4月,截至2025年9月,其在GitHub上的总星标数为17.3k。
        • 开发者:DB-GPT是由蚂蚁集团发起的开源项目,其开源项目发起人为陈发强。陈发强是蚂蚁集团数据基础设施与智能化负责人。他本科毕业于兰州大学。
        • 系统架构:DB-GPT作为开源的AI原生数据应用开发框架,通过创新的分层架构设计,让企业能够快速构建、部署智能数据应用:

          • 运行环境层:支持从本地单机到基于Ray与Kubernetes的分布式部署,适应不同规模企业需求。
          • 训练层:通过DB-GPT-Hub子项目提供Text2SQL、Text2DSL等专业微调能力。
          • 协议层:独创AWEL语言(Agentic Workflow Expression Language),实现可视化智能体工作流编排。
          • 核心模块层:整合SMMF多模型管理框架、RAG增强检索与多智能体协作三大引擎。
          • 服务层:提供LLM Server、API Server等标准化服务接口。
          • 应用层:内置六大开箱即用场景,覆盖企业主流数据需求。
          • 可视化层:支持对话交互、图表展示与可视化编排。
        • 特点与功能:
          • 多模型支持与管理:支持多种常用大语言模型,包括开源、API代理的几十种大语言模型。
          • 自动化微调:围绕大语言模型、Text2SQL数据集、LoRA/QLoRA/Pturning等微调方法构建的自动化微调轻量框架,让TextSQL微调像流水线一样方便。
          • 数据驱动多Agents插件:支持自定义插件执行任务,原生支持Auto-GPT插件模型,Agents协议采用Agent Protocol标准。
          • 私域问答&数据处理&RAG:支持内置、多文件格式上传、插件自抓取等方式自定义构建知识库,对海量结构化、非结构化数据做统一向量存储与检索。
          • 多数据源&GBI:支持自然语言与Excel、数据库、数仓等多种数据源交互,并支持分析报告。
          • 隐私安全:通过私有化大模型、代理脱敏等多种技术保障数据的隐私安全。
        • 应用场景:
          • 智能数据分析与报表生成:用户可以通过自然语言查询数据,自动生成SQL,并获取数据分析结果或可视化报表,极大地降低数据分析门槛。
          • 企业级BI与决策支持:赋能企业用户,使其能够以对话方式获取业务洞察,辅助商业决策。
          • 数据库交互与管理简化:开发人员和DBA可以利用自然语言与数据库进行交互,简化查询、管理和维护操作。
          • 领域特定知识库构建与问答:结合RAG和KBQA,为特定行业或企业内部知识提供智能问答系统,提高信息检索效率。
          • 定制化数据应用开发:开发者可以基于DB-GPT框架和AWEL,快速构建符合特定业务需求的AI原生数据应用。
          • 数据科学与机器学习流程自动化:通过智能体编排,自动化数据预处理、模型训练和结果评估等数据科学流程。


      • YDB
        • 项目简介:YDB是由Yandex开发并开源的分布式SQL数据库,结合了高可用性、可扩展性与严格的一致性及ACID事务。它支持行存储和列存储表,能同时处理事务性(OLTP)、分析性(OLAP)和流式工作负载,适用于构建大规模的云服务、处理实时数据分析等复杂的数据存储和处理场景。
        • 项目关注度:该项目起始于2022年3月,截至2025年9月,其在GitHub上的总星标数为4.5k。
        • 开发者:YDB的开发者是俄罗斯的Yandex公司。YDB由Yandex团队开发并维护。Yandex的创始人是 Arkady Volozh 和 Ilya Segalovich。
            • Yandex 是一家总部位于俄罗斯的全球性科技公司,以搜索引擎起家,业务涵盖搜索、地图、出行、广告、云计算等多个领域,是俄罗斯最大的互联网公司之一。
          • Arkady Volozh:Yandex 的联合创始人兼 CEO。他毕业于莫斯科国立大学。在创业初期,他与Ilya Segalovich共同创建了Yandex。他们的目标是建立一个能高效处理俄语搜索的引擎,突破当时Google等国际搜索引擎在俄语搜索上的劣势。
          • Ilya Segalovich:Yandex 的联合创始人。他毕业于莫斯科物理技术学院,主要负责Yandex的搜索引擎技术开发,尤其是在俄语搜索的优化上。他不仅推动了Yandex的技术创新,还大力推动了公司在广告、地图和其他在线服务的多元化发展。
        • 系统架构:YDB采用分布式架构,数据分散存储在多个节点上,提高了数据的安全性和可靠性,同时实现了数据处理的并行化,可快速响应用户请求,提高整体性能。它还可以动态地添加或移除节点以适应业务的增长或收缩,能够处理PB级别的数据,并实现跨数据中心的数据复制,保证了服务的高可用性和容灾能力。

        • 特点与功能:
          • ACID事务支持:YDB支持ACID(原子性、一致性、隔离性、持久性)事务,对于需要高度一致性的业务逻辑来说,这是一个巨大的优势。它还能处理复杂的多行读/写操作,非常适合电商、金融等对数据准确性要求极高的领域。
          • 多数据模型支持:YDB支持SQL表(关系型数据)和键值对(NoSQL)等多种数据模型,还支持以JSON格式存储和查询数据,这种灵活性允许开发者根据具体需求选择最适合的数据表示方式。
          • 丰富的SQL方言:YDB使用专门开发的SQL方言YQL进行数据操作和模式定义。
          • 与PostgreSQL和Kafka兼容:YDB支持PostgreSQL的表操作和Kafka的主题操作。
          • 多租户和Serverless架构:YDB支持多租户和Serverless数据库部署。
          • 高性能与扩展性:YDB优化的数据库引擎设计,实现低延迟和高吞吐量。它能够轻松地通过增加更多的服务器来提升容量和性能,无需迁移数据或停止服务。
          • 易用性:YDB提供了丰富的客户端SDK和SQL接口,易于集成到现有应用中。它还提供了直观的Web界面,便于管理和监控。
        • 应用场景:
          • 云计算服务:作为基础组件,为云平台提供可靠的存储解决方案。
          • 实时分析:处理海量数据流,支持实时报告和决策制定。
          • 大规模分布式应用:如社交网络、游戏平台和电子商务,需要处理大量并发请求和复杂的事务操作。
          • 物联网(IoT):收集和处理来自各种设备的大量传感器数据。
          • 大数据存储和处理:比如日志存储、用户行为分析等。
          • 微服务架构:在分布式系统中,每个服务都可以利用SDK与YDB进行通信,以存储和检索数据。
          • 实时交易系统:由于YDB对ACID事务的支持,它非常适合处理金融交易和其他需要强一致性的业务逻辑。


      • LongCat
        • 项目简介:LongCat是由美团发布的开源大语言模型,于2025年9月1日正式发布。它采用创新的混合专家模型(Mixture-of-Experts, MoE)架构,总参数量达5600亿,每次推理仅激活186亿至313亿参数,平均约270亿,实现了计算效率与性能的双重优化。该模型面向推理效率进行了设计和创新,具有更快的推理速度,更适合耗时较长的复杂智能体应用。
        • 系统架构:LongCat采用了混合专家模型(MoE)架构,并引入了两项关键创新:
          • 零计算专家(Zero-Computation Experts):在专家池中嵌入“恒等映射通道”,路由器通过动态评分机制实时判断任务复杂度,对简单任务直接跳过计算层,数据原样返回,从而实现算力按需分配和高效利用。
          • 跨层流水线技术(Cross-layer Pipelining):工程师拆解GPU层级依赖,实现“计算-通信无缝接力”,上一层的FFN计算未结束时,下一层的参数通信已提前发起,通过Shortcut-connected MoE结构,将dispatch/combine操作与计算并行。

        • 性能评估:

          • 通用领域知识方面:在 ArenaHard-V2 基准测试中取得 86.50 的优异成绩,位列所有评估模型中的第二名,充分体现了其在高难度“一对一”对比中的稳健实力。在基础基准测试中仍保持高竞争力,MMLU(多任务语言理解基准)得分为 89.71,CEval(中文通用能力评估基准)得分为 90.44。这些成绩可与目前国内领先的模型比肩,且其参数规模少于 DeepSeek-V3.1、Kimi-K2 等产品,体现出较高的效率。
          • 智能体(Agentic)工具使用方面:即便与参数规模更大的模型相比,其在 τ2-Bench(智能体工具使用基准)中的表现仍超越其他模型;在高复杂度场景下,该模型在 VitaBench(复杂场景智能体基准)中以 24.30 的得分位列第一,彰显出在复杂场景中的强大处理能力。
          • 编程方面:其在 TerminalBench(终端命令行任务基准)中,以 39.51 的得分位列第二,体现出在实际智能体命令行任务中的出色熟练度;在 SWE-Bench-Verified(软件工程师能力验证基准)中得分为 60.4,具备较强竞争力。
          • 指令遵循方面:在 IFEval(指令遵循评估基准)中以 89.65 的得分位列第一,展现出在遵循复杂且细致指令时的卓越可靠性;此外,在 COLLIE(中文指令遵循基准)和 Meeseeks-zh(中文多场景指令基准)中也斩获最佳成绩,分别为 57.10 和 43.03,凸显其在中英文两类不同语言、不同高难度指令集上的出色驾驭能力。



      学术微观察

      10

      • Diva: Dynamic Range Filter for Var-Length Keys and Queries (VLDB 2025 Best Research Paper)
        • 主要作者:
          • Navid Eslami:多伦多大学SysNet小组博士生,目前在 ORCA 实验室工作,由 Niv Dayan 教授指导。他的研究方向是面向数据库系统设计高效的数据结构,特别关注随机化与压缩(sketching)数据结构。他在伊朗谢里夫理工大学(Sharif University of Technology)获得了学士学位。
          • Ioana O. Bercea:瑞典皇家理工学院(KTH Royal Institute of Technology)助理教授,她的研究领域涵盖理论计算机科学,重点关注数据结构、随机化与近似算法以及计算几何。在此之前,她曾在哥本哈根 大学的 BARC(Basic Algorithms Research Copenhagen)小组从事博士后研究;也曾在特拉维夫大学担任博士后。她在马里兰大学(University of Maryland)获得计算机科学博士学位,本科毕业于芝加哥大学(University of Chicago)。
          • Niv Dayan:多伦多大学助理教授,主要研究方向是现代数据库系统中的数据结构设计与优化。在学术经历方面,他先后在哥本哈根 IT 大学完成博士学位,并在哈佛大学与哥本哈根大学从事博士后研究。除了学术研究,他还积极与产业界合作,他曾在 Pliops 担任三年研究科学家,目前是 Speedb 的顾问委员会成员。
        • 核心问题:现有的范围过滤器(range filters)存在以下不足:
          • 无法同时提供鲁棒的低误报率(false positive rate,FPR)和高性能保证。
          • 不支持变长键(variable-length keys)和查询范围(queries)。
          • 不允许动态操作,如插入(insertions)、删除(deletions)等。
          • 论文提出理想的通用范围过滤器应同时满足以下六个目标:(G1)在严格的内存预算下实现尽可能低的假阳性率(FPR);(G2)支持任意长度的范围查询;(G3)支持可变长度的键;(G4)支持动态修改操作,如插入、删除、扩展和收缩;(G5)具备最佳的查询性能;(G6)具备最佳的构建性能。然而,现有的范围过滤器只能满足这些目标的子集。
        • 解决方案:提出了Diva,首个同时解决上述所有挑战的范围过滤器。Diva通过以下方式实现:
          • 学习数据分布:通过采样键并将其存储在缓存高效的 trie(字典树)中来学习数据集的分布。
          • 键的压缩与存储:对于采样点之间的键,去除最长公共前缀(longest common prefix),截断后缀(truncating suffixes),保留足够的中间位(infix)以在排序顺序中区分键。将这些infix存储在动态数据块(dynamic data blocks)中,通过拆分来处理插入和扩展操作。
          • 查询处理:通过遍历trie并检查目标查询范围内infix的包含关系来处理范围查询。
        • 技术实现:
          • 采样键和推导 infix:
            • 从有序键集中每隔 T 个键采样一个键,并将其插入 trie 中以近似键的分布。
            • 对于每对连续的 trie 样本(前驱和后继),去除它们之间的键的最长公共前缀,因为这些前缀是冗余的。
            • 进一步通过截断后缀来减少内存占用,剩余的键部分称为 infix,所有 infix 的长度相同。
            • 通过识别并去除前驱和后继之间特定的冗余位序列,来确保 infix 之间的可区分性。
          • Infix Stores:
            • Infix Store 是一个随机访问的槽数组,利用 infix 之间的均匀性高效且简洁地存储它们。
            • 采用 Knuth 的商数技术将 infix 分成商和余数,使用位图(occupieds 位图)表示每个可能的商,将余数存储在槽数组的连续运行中(称为 Run),并通过另一个位图(runends 位图)来界定 Run。
            • 利用 rank 和 select 原语来快速定位 infix 的 Run,从而提高查询效率。
          • Trie 选择:使用 y-Fast trie 作为 Diva 的 trie,通过将有序键集划分为多个组,并使用平衡二叉搜索树和二叉 trie 来高效地进行前驱和后继搜索,从而减少缓存未命中次数。
          • 动态性支持:
            • 修改 Infix Stores 以支持动态插入和删除操作,通过过量分配槽位、均匀分布 Run 以及在插入和删除时移动 Run 来处理动态更新,并在必要时调整 Infix Stores 的大小。
            • 以一定概率将新键作为样本插入 trie,并相应地更新 Infix Stores,以维持数据分布模型并处理动态更新。
            • 在插入新样本时,对 Infix Stores 进行拆分和合并,以保持 Infix Stores 的大小适中,便于快速更新。
            • 采用一元填充的方式存储可变长度的 infix,以适应新样本插入导致的前驱和后继键之间的变化。
        • 最终结果:
          • 理论分析:Diva 在理论上证明了其低误报率(FPR)和高性能。当数据集来自“表现良好”的分布时,Diva 能够保证 FPR 不超过设定的目标值。
          • 实验评估:Diva 在静态和动态设置下与其他范围过滤器进行了比较。实验结果表明,Diva 在支持动态操作、可变长度查询和键的同时,实现了与现有技术相当的低误报率和高性能。
          • 实际应用:Diva 还在 WiredTiger(一个流行的基于 B-Tree 的键值存储)上进行了端到端的实验评估,证明了其在实际应用中的有效性。


      • AnyBlox: A Framework for Self-Decoding Datasets (VLDB 2025 Best Research Paper)
        • 主要作者:
          • Mateusz Gienieczko:德国慕尼黑工业大学(Technical University of Munich)博士生。他曾在华沙大学(University of Warsaw)获得计算机科学硕士学位。他专注于让系统“更快”,研究重点包括数据库、编译、现代硬件,并对自动机理论与计算理论有个人偏好与浓厚兴趣。
          • Maximilian Kuschewski:德国慕尼黑工业大学博士生。他于2018年在奥格斯堡大学获得计算机科学与工程学士学位,并于2020年在慕尼黑工业大学(TUM)、慕尼黑大学(LMU)以及奥格斯堡大学联合获得硕士学位。2022 年,他随 Leis 教授从埃尔兰根大学加入 TUM 分布式信息系统与数据管理教席,攻读博士学位。他的研究兴趣主要集中在高效的数据库查询处理、现代 NVMe 固态硬盘以及云原生数据分析。
          • Thomas Neumann:德国慕尼黑工业大学教授。他本科就读于曼海姆大学商业信息系统专业,并于 2005 年在该校获得信息学博士学位。此后,他在萨尔布吕肯的马普信息学研究所担任高级研究员,并在萨尔兰大学获得信息学的特许任教资格。2010 年,Thomas Neumann 加入慕尼黑工业大学,担任数据科学与工程教席。他主持的 HyPer 项目开发的高性能数据库系统,后被 Tableau 公司收购。2020 年,Thomas Neumann 获得德国研究基金会颁发的莱布尼茨奖。
        • 核心问题:
          • 数据格式的兼容性与演进问题:随着数据存储格式研究的不断进步,新的编码和压缩技术不断涌现,但新格式往往因为高实施成本而难以被广泛采用,而旧格式又因需要保持系统间兼容性而难以进化,导致数据系统无法充分利用最新的研究成果,限制了数据存储格式的发展。
          • N×M问题:即C系统需要支持C格式,就会产生C×C的实现和维护工作量。随着数据格式的增多和数据系统的多样化,这种复杂性呈指数级增长,使得新的数据格式难以被广泛支持和采用,进而阻碍了数据格式的创新和进步。
        • 解决方案:提出了一种新的抽象框架 AnyBlox,通过将数据与轻量级的 WebAssembly 解码器捆绑在一起,使得任何消费者都可以在不了解数据编码细节的情况下读取任意数据格式。这种框架将解码器从系统和文件格式规范中解耦,实现了格式的透明演进、实例优化的编码,并促进了研究进展的主流采用。
          • Bring-your-own-Decoder架构:基于 WebAssembly 解码器的架构,允许支持任意格式,同时提供良好的性能和安全保证。通过这种方式,AnyBlox能够无缝集成到现代系统(如DuckDB、Spark和Umbra)中,同时提供强大的性能和安全保证。
          • 零拷贝内存管理方案:AnyBlox 引入了一种新的内存管理方案,允许解码器和数据库系统之间进行零拷贝的数据传输,从而提高了数据处理的效率。
        • 技术实现:
          • WebAssembly解码器:AnyBlox使用WebAssembly(Wasm)作为解码器的运行环境。Wasm是一种轻量级的虚拟机规范,具有良好的内存安全性和隔离性,能够保证解码器在运行时不会对宿主系统造成损害。同时,Wasm的代码是可移植的,可以在多种硬件架构和操作系统上运行,这使得AnyBlox能够轻松地集成到不同的数据处理系统中。
          • Apache Arrow输出格式:AnyBlox选择Apache Arrow作为解码器的输出格式。Arrow是一种高效的列式存储格式,已经被许多数据库系统支持。它能够标准化常用的数据类型,并支持复杂的数据结构。此外,Arrow还提供了高效的内存管理和数据传输机制,使得AnyBlox能够在不同的系统之间高效地传输数据。
          • 元数据管理:AnyBlox在数据文件中包含了一个薄的元数据层,用于存储数据的模式、压缩文件中的行数、解码后的数据大小估计以及推荐的批处理大小等信息。这些元数据信息有助于宿主系统在查询计划阶段更好地利用AnyBlox数据源。
          • 解码器API:解码器只需要暴露一个decode_batch函数,该函数接受一系列参数,包括编码数据的指针、数据长度、起始元组ID、元组数量、状态页面指针和投影掩码等。通过这种方式,解码器可以在Wasm的沙盒环境中安全地运行,并且能够高效地处理数据。
          • 运行时管理:AnyBlox在初始化时会对解码器进行即时编译(JIT),并将编译后的模块缓存起来,以便后续重复使用。同时,AnyBlox还实现了自定义的线性内存管理机制,通过内存映射的方式将数据集直接映射到Wasm实例的线性内存中,从而避免了数据拷贝的开销。
          • 与多种数据库系统的集成:将AnyBlox集成到DataFusion、DuckDB、Umbra、Spark等不同系统中,展示了其良好的可移植性,覆盖了不同的核心范式、并行方式、编程语言和成熟度,还讨论了内部数据表示、语言互操作性、并发扫描等问题的解决方案。
        • 最终结果:
          • 解决了N × M问题:实现了不同格式数据在多种系统中的便捷读取,如将Vortex、CERN ROOT等格式的数据集成到多个数据库系统中,无需对宿主系统进行修改,且集成工作量小,代码量少。
          • 性能表现良好:
            • 在DataFusion中,使用AnyBlox的Vortex解码器与原生Parquet解码器相比,在TPC-H基准测试中,Vortex的扫描延迟低2倍以上,且压缩率更好,AnyBlox基于Vortex的解码与原生Vortex解码的性能差异很小。
            • 在DuckDB中,AnyBlox在TPC-H和ClickBench基准测试中的表现接近原生格式,且在处理ROOT格式数据时,Umbra的并行处理能力得到了发挥,展现出比原生ROOT框架更高的吞吐量。
            • 在Spark中,由于其大部分时间都用于执行操作符,AnyBlox对整体性能的影响较小,但在ClickBench基准测试中,AnyBlox的性能仍优于原生Parquet解码器。
          • 为未来数据格式发展提供可能:AnyBlox支持与系统无关的编码方案,允许数据集直接捆绑解码器,安全引用远程解码器,透明应用原生解码器,为未来“Parquet v3”等格式的进化和实例优化编码方案的探索提供了基础,推动了真正模块化、未来化、开放的数据库系统的发展。


      • TabAgent: A Multi-Agent Table Extraction Framework for Unstructured Documents
        • 主要作者:
          • Jingfei Wu、Chaoyuan Shen、Qiyan Deng、Yuping Wang、Jiajun Li、Yuhao Deng:北京理工大学研究生。
          • Minghe Yu:东北大学软件学院副教授。2018年获得清华大学计算机科学与技术专业博士学位。同年,任教于东北大学软件学院。担任中国计算机学(CCF)会高级会员,CCF数据库专委会、信息系统专委会执行委员,《Frontiers of Computer Science》编委。
        • 核心问题:随着信息技术的快速发展,大量非结构化文档在各个领域不断涌现,从这些文档中提取结构化数据对于高效的数据管理和高级分析至关重要。然而,现有的结构化表格提取方法面临以下挑战:
          • 语义复杂性和隐含性:非结构化文档中的语义信息和模式复杂且隐含,这显著影响了提取信息的准确性和完整性。需要具备高级理解和推理能力的提取框架,以及对多样化上下文、模糊表达和不断演变的用户意图的适应性。
          • 对用户意图和严格模式对齐的有限适应性:现有的解决方案大致可以分为基于规则的系统和监督学习管道,但这些方法存在训练成本高、对未见数据格式和多样化用户意图的适应性有限等问题。此外,直接使用 LLMs 作为提取器在强制执行严格的模式合规性和结构一致性方面存在困难。
        • 解决方案:为了解决上述问题,作者提出了TabAgent,这是一个基于LLMs的多智能体框架,用于从非结构化文档中提取结构化表格。TabAgent通过四个专门的智能体(Schema Agent、Extraction Agent、Semantic Agent和Validation Agent)以及共享内存库进行协作,以迭代方式优化提取结果。通过利用协作推理和迭代自我检查循环,TabAgent能够在多样化的文档领域和用户指令下实现准确、适应性强和鲁棒的表格提取。

        • 技术实现:
          • Schema Agent(模式智能体):负责生成候选表格模式,为表格提取提供指导。它基于输入文档和用户指令进行分析,同时参考内存库中存储的历史模式模板,以适应不同的数据领域和用户需求。对于明确指定属性的用户查询,直接将指定属性映射到输入文本;对于一般性或探索性查询,则咨询知识库识别类似历史任务,推断潜在的模式候选。若内存库中缺乏相关经验,会根据其他智能体验证后的最终提取结果动态更新内存,以增强模式生成能力,适应新领域和用户需求。
          • Extraction Agent(提取智能体):基于 Schema Agent 生成的模式执行初始表格提取。它按照模式定义从输入文档中提取初步的表格结构和内容,并将这些初步提取的表格传递给 Semantic Agent 进行验证,以便后续进行语义检查和迭代优化,确保提取结果的准确性和一致性。
          • Semantic Agent(语义智能体):对 Extraction Agent 提取的表格进行全面验证,包括检查与原始文档的语义对齐情况、识别缺失或冗余属性以及检测数据表示中的不一致性。它根据错误类型和任务相似性从内存库中检索历史错误模式,结合当前的修订建议,为 Extraction Agent 提供反馈,指导其进行迭代细化。通过这种方式,Semantic Agent 逐步提高框架的性能,实现准确且稳健的表格提取,确保提取结果在语义上与原始文档保持一致。
          • Validation Agent(验证智能体):对经过迭代细化后的表格进行最终验证,确保其符合指定的模式、数据类型和格式约束。它采用基于规则的逻辑进行确定性检查,以及 LLM 辅助推理进行更敏感于上下文的验证,保证输出的表格不仅在语义上准确,而且在结构上符合要求,适用于数据库集成和自动化分析等下游任务,从而维护提取表格的可靠性和高质量。
          • 共享内存库(Shared Memory Repository):作为TabAgent框架的集中式知识库,存储与任务相关的模式模板和错误模式,为智能体的协作提供支持。它为Schema Agent提供历史模式模板作为辅助知识,帮助其更好地生成候选表格模式,确保提取结果与历史模式和用户期望一致。同时,它也为Semantic Agent提供分类后的错误模式,增强错误检测能力,使智能体能够从过去的错误中学习,避免在后续提取中重复出现类似错误。内存库支持动态更新,在执行过程中根据新的提取结果和验证反馈进行调整,从而适应用户查询的上下文变化,提升框架对不同领域和用户需求的适应性,有效减少提取过程中的错误,提高表格提取的整体质量和稳健性。
        • 最终结果:
          • 实验结果:在E2E和Rotowire两个数据集上进行了广泛的实验,结果表明TabAgent在所有指标上均优于多个基线方法,包括纯LLM提取器和基于LLM的系统。具体来说,在E2E数据集上,TabAgent的F1分数为83.75,LLM分数为8.59;在Rotowire数据集的Player表上,F1分数为84.29,LLM分数为7.35;在Team表上,F1分数为78.38,LLM分数为6.53。
          • 消融研究:通过移除TabAgent中的不同智能体来评估每个智能体的有效性。结果表明,每个智能体在TabAgent的整体性能中都起着关键作用。移除Schema Agent会导致最大的性能下降,这突出了其在基于历史任务预测候选模式方面的重要性。移除Semantic Agent和Validation Agent也会导致性能下降,尽管由于LLMs的强大推理和生成能力,移除这两个智能体的影响相对较小。总体而言,TabAgent始终优于其消融变体,验证了协作智能体在表格提取任务中的有效性。
          • 参数调整研究:评估了参数k(控制TabAgent在模式生成和表格优化过程中使用的记忆样本数量)的影响。结果表明,对于E2E和Rotowire数据集中的Team表,当k=7时,TabAgent表现最佳;而对于Player表,最佳性能出现在k=5时。这表明更多的知识并不总是带来更好的结果,超过一定阈值后,可能会引入干扰信息,从而降低提取的准确性。


      • CleanAgent: Automating Data Standardization with LLM-based
        • 主要作者:
          • Danrui Qi:西蒙菲莎大学(Simon Fraser University )博士生,师从 Jiannan Wang 教授。他的研究兴趣主要集中在“为人工智能提供优质数据”以及“利用人工智能改善数据质量”。
          • Zhengjie Miao:西蒙菲莎大学助理教授,专注于数据管理和人工智能领域的研究,致力于开发提升数据科学流程可用性和效率的算法与工具,并且是该校数据科学研究小组的核心成员。在加入西蒙弗雷泽大学之前,他曾在 Megagon Labs 担任研究科学家一年。他在杜克大学(Duke University)计算机科学系完成了博士学位,在哥伦比亚大学(Columbia University)获得了硕士学位,在北京大学获得了学士学位。
          • Jiannan Wang:西蒙菲莎大学副教授。他曾获得2018年IEEE TCDE新星奖和2020年CS-Can|Info-Can杰出早期职业研究者奖。他曾担任2023年VLDB大会的联合主席,2021年VLDB的副编辑,以及《Frontiers in Big Data》期刊数据科学板块的副编辑(2021年至今)。
        • 核心问题:数据标准化是数据科学生命周期中的关键部分,但现有工具如Pandas存在复杂性和手动定制代码的挑战。尽管 LLMs 如 ChatGPT 在通过自然语言理解和代码生成自动化数据标准化方面显示出潜力,但它们仍然需要专家级的编程知识和持续的交互来完善提示。这使得数据标准化过程繁琐且效率低下,限制了其在实际应用中的广泛采用。
        • 解决方案:为了解决这些挑战,作者提出了一个Python库,具有声明式、统一的API,用于标准化不同类型的列,简化LLM的代码生成过程。具体来说,解决方案包括以下几个关键部分:
          • Dataprep.Clean:这是Dataprep Python库的一个组件,通过提供简洁的API调用,显著降低了代码复杂性,使得特定列类型的标准化只需一行代码即可完成。
          • CleanAgent框架:将Dataprep.Clean与基于LLM的代理相结合,自动化数据标准化过程。数据科学家只需提供一次需求,即可实现无需人工干预的自动化处理。
        • 技术实现:
          • Dataprep.Clean模块设计
            • 统一API设计:通过观察和总结特定列类型数据标准化的通用步骤,设计了统一的API clean_type(df, column_name, target_format)。其中,type代表当前列的类型,如日期、地址、电话等;df是输入的DataFrame;column_name是要标准化的列名;target_format是用户指定的目标标准化格式。这种设计使得API具有更高的表达性和易用性,简化了特定列类型的标准化过程。
            • 类型特定的标准化函数:目前,Dataprep.Clean已经提供了142个标准化函数,每个函数处理一种数据类型。这些函数展示了声明式方法的价值,证明了为LLM构建声明式数据标准化工具的可行性和必要性。
          • CleanAgent工作流程:CleanAgent由四个代理组成,分别是Chat Manager、Column-type Annotator、Python Programmer和Code Executor。它们通过合作自动完成数据标准化过程:
            • Chat Manager:作为中心枢纽,存储所有代理之间的历史对话信息,并将消息传递给其他代理。
            • Column-type Annotator:接收输入表的信息,利用LLM标注每一列的类型。如果无法确定某一列的具体类型,则输出“我不知道”。标注结果返回给Chat Manager并存储在其内存中。
            • Python Programmer:根据Chat Manager传递的历史消息(包括列类型标注结果),选择相应的清洁函数,并生成数据标准化的Python代码。生成的代码同样返回给Chat Manager并存储。
            • Code Executor:接收Chat Manager传递的历史消息(包括列类型标注结果和生成的Python代码),执行生成的Python代码。如果代码执行无误,则返回标准化后的表;否则,将错误信息返回给Chat Manager并存储。CleanAgent会重试整个工作流程,直到成功完成数据标准化。
        • 最终结果:
          • 性能评估:使用Flights数据集进行实验,该数据集包含四个属性中高度不一致的日期时间格式。与GPT-4o + Prompting和Cocoon两个基线方法相比,CleanAgent在单元格级匹配率上达到了42.5%,大约是GPT-4o和Cocoon的2倍,同时在延迟方面也低于Cocoon。这表明CleanAgent的类型特定标准化API增强了LLM生成更精确、更简洁标准化代码的能力。
          • 用户界面:开发了一个基于Web的用户界面,允许用户简单地上传需要清理的表格,系统自动返回标准化后的结果。用户界面展示了上传文件的基本信息、列类型标注结果、Python代码生成过程以及代码执行结果等详细步骤,使用户能够直观地了解整个数据标准化过程,并根据需要进行进一步的操作。


      • Large Language Model-based Data Science Agent: A Survey
        • 主要作者:
          • Peiran Wang:伊利诺伊大学香槟分校(University of Illinois Urbana-Champaign)研究实习生。他即将入学加州大学洛杉矶分校攻读博士,硕士毕业于清华大学,本科毕业于四川大学。
          • Yaoning Yu:伊利诺伊大学香槟分校助理研究员,芝加哥大学 应用数据科学专业的硕士生,华盛顿大学 数学学士。他的研究方向主要是机器学习、基于 LLM 的多智能体系统 (MAS)、多模态大型语言模型和人工智能安全。
          • Ke Chen:伊利诺伊大学香槟分校助理研究员。他本科毕业于上海交通大学。
        • 研究背景:数据科学作为一个需要大量人工干预和专业知识的领域,其核心流程包括数据获取、清洗、特征工程、建模、评估与可视化,往往耗时且复杂。LLM 具有强大的自然语言理解与生成能力,为构建能够自主推理、规划和调用外部工具的智能代理提供了新可能。LLM 驱动的数据科学代理(DS Agents)因此成为研究热点,它们不仅能自动化和优化数据分析与建模流程,还能降低数据科学的使用门槛,提高效率与可靠性。
        • 论文贡献:本论文系统梳理了 LLM 代理在数据科学中的最新应用,包括数据预处理、模型开发、模型评估与可视化等环节 。从代理设计视角(角色、执行、知识、反思)和数据科学流程视角(数据预处理、建模、评估、可视化)进行统一分析,为后续研究提供理论框架 。
        • 代理设计视角:

          • 代理角色(Agent Roles)
            • 单智能体:一个代理完成所有任务(推理、执行、观察),常见于早期工作,简单但易受限。
            • 双智能体
              • 规划–执行(Planner & Executor):一个负责任务分解与计划,另一个负责具体执行 。
              • 编码–审查(Coder & Reviewer):编码代理生成代码,审查代理检查并提出修改意见。
            • 多智能体:
              • 软件工程团队式(SE-style):多个代理承担不同角色,如产品经理、架构师、开发者、QA 测试员,模拟人类团队协作 。
              • 最小功能代理(Minimum Function Agents):每个代理只处理一个非常具体的任务(如代码搜索、错误定位、补丁生成) 。
              • 混合模式:在协作与竞争间切换,以促进更优解探索。
            • 动态代理生成:根据任务复杂度与反馈动态生成或调整代理结构(如 SoA 的母代理、EvoMAC 的迭代生成方式) 。
          • 执行结构(Execution Structure)
            • 静态执行:严格遵循预定义流程,适合稳定的、可重复的任务(如 Data Director 框架) 。
            • 动态执行 / 即时规划(Just-in-time Planning):代理在执行中根据反馈迭代调整计划,适合环境不确定性强的任务 。
            • 计划–执行分离(Plan-then-execute):规划阶段生成整体任务分解,再由执行代理逐步完成。
            • 分层执行(Hierarchy Execution):采用树状或图状结构进行任务分解和优化,如 SELA 使用 MCTS,CodeTree 结合执行反馈优化策略 。
          • 外部知识(External Knowledge)
            • 外部数据库:利用已有结构化数据库或实验日志增强领域知识 。
            • 检索增强(RAG、BM25、案例推理):实时检索外部非结构化数据并整合,缓解 LLM 幻觉问题 。
            • API/搜索引擎集成:直接获取实时数据或调用第三方工具(如 Prophet、GitHub、Hugging Face) 。
            • 混合方法:同时结合数据库、检索与 API 提升覆盖度与可靠性 。
          • 反思机制(Reflection)
            • 方法类别:
              • 代理互评:由 reviewer agent 或 VLM 审查、反馈(例如 DA-CodeMatPlotAgent) 。
              • 代码错误处理:自动捕捉错误并迭代修复(如 BudgetMLAgentWaitGPT) 。
              • 单元测试:生成测试用例并自动验证结果,保证功能正确性 。
              • 模型指标反馈:利用准确率、F1 等指标驱动迭代优化(如 FinRobot) 。
              • 历史窗口:保存过去输出与错误日志,用于长期模式识别与回退 。
        • 数据科学视角:
          • 数据科学任务分类
            • 模型构建任务:自动完成特征工程、模型选择与超参搜索,提高效率与泛化能力 。
            • 结果分析任务:自动生成可解释的可视化与数据叙事,辅助决策 。
          • 数据科学循环(Data Science Loop)

            • 数据获取与预处理:从数据库、API、日志、网络抓取获取数据,并通过缺失值填补、异常检测、去重等方法清洗 。
            • 统计计算:描述统计、假设检验、相关性分析;大规模计算中使用 Dask、Spark 等并行框架 。
            • 特征工程:包括特征构造、选择与降维(如 PCA、t-SNE),以及特征重要性评估(SHAP、Permutation Importance) 。
            • 模型训练:自动化模型选择与超参优化(Optuna、Ray Tune)、迁移学习与元学习应用,支持动态适应 。
            • 模型评估:采用分类指标(Accuracy, Precision, Recall, F1)、回归指标(RMSE, MAE)、聚类指标(Silhouette, DBI),并结合交叉验证与自动化评估框架 。
            • 可视化与数据故事:通过可视化工具(Matplotlib, Vega-Lite 等)生成图表与解释性结果,部分代理可自动生成数据驱动的故事或动画 。



      产业见解

      11

      • 吴恩达深入探讨了“Agentic AI”的定义与发展,聚焦于智能体工作流的工程化、AI编程助手的自主性、产品管理的瓶颈与突破、小团队与AI工具的高效协同,以及未来AI对个人与行业变革的深远影响。以下是核心要点:
        • 关于“Agentic AI”及相关观点
          • 定义与目的:吴恩达提出“Agentic AI”是为了打破关于“智能体”的二元争论,将自主性看作一个光谱,把不同层级自主性的系统都纳入其范畴,以便更好地推动技术建设。
          • 行业认知与技术发展:他批评了“规模至上”的主流叙事,认为智能体工作流的工程化、多模态模型的重构方式、扩散式技术在跨领域的迁移以及企业内部的专有数据沉淀等才是AI发展的重要突破口。同时指出资本在一定程度上推动了基础研究,因为资金和人才集中在经济价值高的方向。
          • 瓶颈与挑战:当下最大瓶颈在“人”,计算机控制故障率高、安全与评估体系不成熟,更严重的是缺乏能用系统化方法定位和修正错误的团队。很多企业因缺乏工程化能力和工具,只能靠随机试错。
          • 落地案例与产品侧:真正接近高自主度的落地案例是能分解任务、逐步执行的编程助手。开发周期缩短使决策本身成为瓶颈,优秀的产品经理需具备深刻的共情与直觉。他还提出“雇佣AI而非人”的组织哲学,认为小而精的团队叠加智能体工具效率更高。
        • 关于智能体工作流及工程化
          • 技术组件与人才问题:计算机控制能力有待提升,安全护栏设计和评估体系是巨大挑战。但实施智能体工作流的首要障碍是人才问题,团队是否掌握通过系统化评估驱动错误分析的能力是关键。
          • 工程化流程与自动化:构建智能体工作流过程中,大量需要吸收外部知识,短期内难以实现全面自动化,仍需人类工程师投入大量工作。
          • 多阶段智能体工作流:以常见的工作流为例,如客户邮件发送文档后的多阶段处理,这些工作流本质上属于下一代机器人流程自动化,但目前仍需人类深度参与,因为需要根据具体业务场景判断重要性等级等。
        • 关于项目管理的加速演进
          • AI辅助编程与创业:吴恩达拒绝使用“vibe coding”,坚持用“AI辅助编程”,认为编程是深度智力活动,AI让构建系统和产品的速度大幅提升,但本质上仍是工程实践。快速工程和AI辅助编程改变了初创企业的构建方式,使产品开发速度加快,瓶颈转移到产品管理层面。
          • 产品管理瓶颈与人才:现在产品开发速度快,但如何确定真正应该构建什么成为难点,需要具备深刻的客户共情能力来快速做出产品决策。优秀产品人才稀缺,其关键在于用户共情能力,能综合各种信号站在用户立场思考。
          • 团队规模与效率:AI工具的使用使小团队借助AI提升效率成为可能,小团队本身就更高效,而AI技术进一步强化了这一优势。但企业需要根据市场动态判断投资是否过度或不足,以及如何平衡规模与效率。
        • 关于行业变革与未来展望
          • 行业变革方向:AI正在渗透所有市场和行业,引发业务模式的深刻变革。未来的工作模式可能会发生变化,例如配备大量AI工具的精锐小团队可能更具优势。
          • AI在投资领域的应用:在投资领域,一些环节如深度企业调研和竞品分析适合自动化,但在评估创业者特质等方面,人类判断仍不可替代,因为人类拥有AI难以获取的额外背景信息。
          • 对创业者的支持:风险投资机构和孵化工作室可以为创业者提供关键支持,如分享经验、帮助组建核心团队、构建同行交流网络等,帮助他们建立成功所需的流程体系。
          • AI的广泛影响:未来几年,拥抱AI的个体能力提升将远超大多数人预期,善用AI的人将在各行各业以及处理个人事务时获得巨大的能力增强。


      • DeepMind 联合创始人 Mustafa Suleyman 探讨了 AI 的发展现状与未来趋势,聚焦于训练数据的潜力、幻觉现象的转化、AGI 的务实定义、LLM 的核心价值、就业与创业的深刻变革,以及 AI 在日常生活中的应用前景。以下是核心要点:
        • 对AI训练数据极限的看法
          • 反驳数据枯竭论:Suleyman认为“训练数据即将枯竭”是迷思。计算效率提升、合成数据生成和模型间反馈循环正在突破瓶颈。
          • 类比油井:AI的发展如同不断深挖的油井,每次深入都能发现新能力。
          • 模型效率提升:现在的模型在推理成本、操作便捷性和性能上都有显著进步,未来还会继续优化。
        • 对AI幻觉现象的看法
          • 幻觉的两面性:幻觉并非缺陷,而是可转化为创造力的原材料。随着模型规模扩大和控制能力增强,幻觉正从问题转化为创新潜能。
          • 模型可控性增强:现代模型更容易被控制和引导,能更精准地遵循行为准则,减少偏见和错误。
        • 对AGI的定义
          • 拒绝抽象争论:Suleyman拒绝空泛的“意识”或“灵魂”争论,主张以模型的实际能力为核心。
          • 关注具体能力:更关心模型能否调用工具、完成浏览器任务、用视觉理解环境等具体能力。
        • 对LLM与AGI的关系
          • LLM的核心地位:他认为LLM已经握住了AGI的核心钥匙——工具使用能力,类比人类因生火、制斧而进化的历史节点。
          • 长期创新浪潮:即使基础模型开发暂停,现有生态也足以支撑长期创新浪潮。
        • 对就业与创业的影响
          • 工作性质变革:承认AI将彻底改变工作性质,但将其视为“电力般的时代”,带来创新爆发式增长。
          • 创业竞争加剧:Copilot等工具降低进入门槛,但创业公司护城河更脆弱,竞争更残酷。
        • 对未来AI的展望
          • 实际操作功能:期待CoPilot等工具的实际操作功能,如在Windows桌面高亮显示问题、帮助设置、浏览器购物、预订和规划等。
          • 互动对话体验:喜欢与CoPilot互动对话,认为这种体验让学习更生动,还能实时获取有用信息,如航班延误提醒。


      • Cursor 创始人 Michael Truell 分享了其创业历程与产品发展,聚焦于从早期编程兴趣到 AI 辅助编程工具的转变、产品迭代与市场反馈的重要性、以及未来编程与 AI 协作的趋势,以下是核心要点:
        • Michael Truell 的创业历程与 Cursor 的起源
          • 早期兴趣:Michael Truell 在中学时期受到 Paul Graham 的文章启发,对编程和创业产生兴趣,最初尝试开发移动游戏。
          • 早期项目:他开发过一款伪造游戏高分的病毒式应用,还与朋友尝试开发可通过正负反馈训练的机器狗,涉及遗传算法、神经网络和强化学习。
          • AnySphere 的创立:2021 年,Truell 和联合创始人决定创立公司,最初计划开发一个机械工程师的 AI 辅助工具,但因缺乏专业知识和相关技术不成熟而失败。
          • 转向 AI 编程工具:团队意识到未来软件开发将通过模型实现自动化,于是决定开发 Cursor,一个 AI 辅助编程工具。
        • Cursor 的发展与挑战
          • 产品开发:2022 年,团队用三个月时间开发了第一个版本,包括自己的编辑器、远程 SSH 和 Copilot 集成。
          • 2023 年的挑战:团队面临用户增长缓慢和方向不明确的问题,但通过持续改进产品,实现了从零到一百万美元的收入增长。
          • 2024 年的爆发:通过口碑传播,Cursor 实现了从一百万美元到一亿美元的收入增长。
        • 对未来的看法与建议
          • 未来编程:Truell 认为 AI 将在未来几十年内彻底改变编程,但编程技能仍将重要,未来工程师将与 AI 协作,AI 可能成为高级编译器。
          • 给创业者的建议:专注于自己热爱的项目,与值得尊敬的人合作,注重长期建设而非短期成果。
        • 关键数据与决策
          • 竞争与机会:尽管 GitHub Copilot 已经取得显著收入,团队仍看到了 AI 编程工具的潜力。
          • 产品迭代:团队拒绝了专注于非程序员或特定技术栈的用户请求,坚持开发面向专业工程师的通用工具。
          • 增长策略:早期通过社交媒体推广,但后来主要依靠口碑传播实现增长。


      Reference

      12

      • https://docs.snowflake.com/en/release-notes/2025/9_25
      • https://docs.snowflake.com/en/release-notes/2025/9_26
      • https://docs.snowflake.com/en/release-notes/2025/other/2025-09-02-document-ai
      • https://docs.snowflake.com/en/release-notes/2025/other/2025-09-02-iceberg-partitioned-writes
      • https://docs.snowflake.com/en/release-notes/2025/other/2025-09-02-cortex-agents-rest-api-object
      • https://www.databricks.com/blog/delivering-agentic-bi-how-unify-infrastructure-data-and-semantics
      • https://docs.databricks.com/aws/en/release-notes/product/2025/september
      • https://blogs.vmware.com/tanzu/meet-tanzu-data-intelligence-your-unified-platform-for-ai-ready-data/
      • https://blogs.vmware.com/tanzu/introducing-vmware-tanzu-greenplum-7-6/
      • https://blogs.vmware.com/tanzu/introducing-vmware-tanzu-data-lake-v2/
      • https://blogs.vmware.com/tanzu/powering-the-next-generation-of-ai-applications-with-tanzu-platform-10-3/
      • https://blogs.vmware.com/tanzu/the-power-of-using-tanzu-gemfire-with-tanzu-data-flow/
      • https://techdocs.broadcom.com/us/en/vmware-tanzu/data-solutions/tanzu-greenplum/7/greenplum-database/relnotes-release-notes.html
      • https://cloud.google.com/blog/products/data-analytics/whats-new-with-google-data-cloud
      • https://www.postgresql.org/about/news/announcing-the-release-of-pg_cirrus-v20-automating-production-grade-postgres-ha-clusters-3122/
      • https://www.postgresql.org/about/news/pgformatter-v57-has-been-released-3125/
      • https://www.postgresql.org/about/news/announcing-the-release-of-pg_cirrus-v20-automating-production-grade-postgres-ha-clusters-3122/
      • https://www.postgresql.org/about/news/apache-cloudberry-incubating-200-released-mpp-database-for-analytics-ai-3127/
      • https://www.postgresql.org/about/news/pgadmin-4-v98-released-3129/
      • https://www.postgresql.org/about/news/postgresql-18-rc-1-released-3130/
      • https://www.postgresql.org/about/news/synchdb-12-released-native-oracle-connector-enhanced-monitoring-quick-deployment-tools-3132/
      • https://blogs.oracle.com/cloud-infrastructure/post/oci-landing-zone-oracle-cloud-vmware-solution
      • https://github.com/elastic/elasticsearch/releases
      • https://www.volcengine.com/docs/6464/164704
      • https://help.openai.com/en/articles/6825453-chatgpt-release-notes
      • https://help.openai.com/en/articles/6825453-chatgpt-release-notes
      • https://help.openai.com/en/articles/10128477-chatgpt-enterprise-edu-release-notes
      • https://docs.anthropic.com/en/release-notes/overview
      • https://docs.anthropic.com/en/release-notes/api
      • https://help.aliyun.com/zh/model-studio/model-announcements
      • https://www.volcengine.com/docs/82379/1159177
      • https://github.com/langchain-ai/langchain/releases
      • https://bp.aliyun.com/bpcaseDetail/7?spm=a2cls.b92374736.0.0.2fe2157beyD8ab
      • https://cloud.google.com/blog/products/ai-machine-learning/real-world-gen-ai-use-cases-with-technical-blueprints
      • https://finance.sina.com.cn/roll/2025-07-16/doc-inffrzsu2923088.shtml
      • https://mp.weixin.qq.com/s/EqObo4vG1oP61jCLrfU6pQ
      • https://www.bigdata-expo.cn/news/1/1487915380
      • https://www.nda.gov.cn/sjj/swdt/dfdt/0904/20250904162904385551307_pc.html
      • https://www.caict.ac.cn/kxyj/qwfb/ztbg/202508/P020250829585535422955.pdf
      • https://news.qq.com/rain/a/20250831A05S5S00
      • https://developers.google.com/stax/overview
      • https://aistudio.google.com/?model=gemini-2.5-flash-image-preview
      • https://www.bbc.com/zhongwen/articles/c4gmgr7p8lpo/trad
      • Introducing Amazon Lens Live: Instant scanning, real-time product matches, and insights from Amazon
      • https://openai.com/index/vijaye-raji-to-become-cto-of-applications-with-acquisition-of-statsig/
      • https://support.anthropic.com/zh-TW/articles/12012173-%E9%96%8B%E5%A7%8B%E4%BD%BF%E7%94%A8-chrome-%E7%89%88-claude
      • https://www.anthropic.com/news/updating-restrictions-of-sales-to-unsupported-regions
      • https://x.com/elonmusk/status/1959379349322313920?lang=en
      • https://wallstreetcn.com/articles/3754625
      • https://www.alibabanews.com/%E9%98%BF%E9%87%8C%E5%B7%B4%E5%B7%B4%E9%96%8B%E6%BA%90%E6%95%B8%E5%AD%97%E4%BA%BA%E8%A6%96%E9%A0%BB%E7%94%9F%E6%88%90%E6%A8%A1%E5%9E%8B/
      • https://x.com/Alibaba_Qwen/status/1963991502440562976
      • https://github.com/zai-org/GLM-4.5
      • https://www.arxiv.org/abs/2509.05209
      • https://www.oschina.net/news/368953
      • https://consumer.huawei.com/cn/phones/mate-xts-ultimate-design/
      • https://www.mi.com/a/h/7047.html
      • https://wallstreetcn.com/articles/3753948
      • https://nvd.nist.gov/vuln/detail/CVE-2025-9074
      • https://blog.jetbrains.com/ruby/2025/09/rubymine-is-now-free-for-non-commercial-use/
      • https://pokee.ai/
      • https://www.zheqingbillzhu.com/
      • https://www.toutiao.com/article/7524985478114705972/?upstream_biz=doubao&source=m_redirect
      • https://docs.neurelo.com/
      • https://www.crunchbase.com/organization/neurelo
      • https://www.linkedin.com/in/gkamat/
      • https://omni.co/
      • https://www.linkedin.com/in/colinzima/details/experience/
      • https://worktile.com/kb/kuaixun/19766.html
      • https://media.qimingpian.cn/2025/03/14/93517ca8fdd2db30b75d47005ebf5ba3.html
      • https://github.com/eosphoros-ai/DB-GPT
      • https://mp.weixin.qq.com/s?__biz=MzE5ODgzMDQ5MA==&mid=2247483677&idx=1&sn=1baed14ac52a6e3169438c90d16e0809&poc_token=HBUKxWijxUlsCW25W49DwlOhUrB01eFCrfaH4Rar
      • https://blog.csdn.net/m0_50546016/article/details/144053546
      • https://github.com/ydb-platform/ydb
      • https://ydb.tech/docs/en/concepts/
      • https://github.com/meituan-longcat/LongCat-Flash-Chat
      • https://tech.meituan.com/2025/09/01/longcat-flash-chat.html
      • https://www.woshipm.com/ai/6263892.html
      • https://www.vldb.org/pvldb/vol18/p3923-eslami.pdf
      • https://www.vldb.org/pvldb/vol18/p4017-gienieczko.pdf
      • https://www.vldb.org/2025/Workshops/VLDB-Workshops-2025/DATAI/DATAI25_6.pdf
      • https://www.vldb.org/2025/Workshops/VLDB-Workshops-2025/DATAI/DATAI25_8.pdf
      • https://arxiv.org/pdf/2508.02744
      • https://mp.weixin.qq.com/s/n5JQ1gkScfvciEebYlNBQA
      • https://mp.weixin.qq.com/s/MJYB6pURkuWqOd2X7dflEw
      • https://www.ycombinator.com/library/Ms-michael-truell-building-cursor-at-23-taking-on-github-copilot-and-advice-to-engineering-students?carousel=The%20Latest


      【声明】内容源于网络
      0
      0
      KiKi闯外贸
      跨境分享家 | 持续更新跨境思考
      内容 0
      粉丝 8
      KiKi闯外贸 跨境分享家 | 持续更新跨境思考
      总阅读0
      粉丝8
      内容0