利用 NVIDIA cuVS 增强 Faiss中 的 GPU 加速向量搜索
随着企业收集的非结构化数据越来越多,并且越来越多地使用大型语言模型(LLM),它们需要更快、更可扩展的系统。诸如检索增强生成 (RAG) 之类的高级信息查找工具处理海量数据(有时达到数太字节或数拍字节的规模)可能需要数小时甚至数天的时间。
与此同时,在线搜索应用(如广告推荐系统)在 CPU 上难以实现即时结果的交付。要满足实时速度要求,需要数千个 CPU,这会大幅增加基础设施成本。
本文探讨了如何利用 NVIDIA cuVS 以及 Meta Faiss 库来解决这些难题,以实现对密集向量的高效相似性搜索和聚类。cuVS 利用 GPU 加速技术,极大地加快了搜索索引的创建以及实际搜索过程的速度。其结果是性能大幅提升、成本大幅降低且更加高效,同时还能保持 CPU 和 GPU 之间的无缝兼容性。
具体而言,这篇帖子涵盖了:
将 cuVS 和 Faiss 进行整合的益处
cuVS 如何以及在何处提升了向量搜索的性能
使用 GPU 加速的倒排文件索引 (IVF) 和基于图的索引的性能
展示如何使用 Faiss 构建和搜索由 cuVS 驱动的索引的基准测试和 Python 代码示例
全文链接:
https://developer.nvidia.com/blog/enhancing-gpu-accelerated-vector-search-in-faiss-with-nvidia-cuvs/
代码执行如何推动代理式 AI 系统中的主要风险

AI 驱动的应用正从被动工具演变为能够生成代码、做出决策并采取自主行动的代理式系统。这一转变带来了严峻的安全挑战。当 AI 系统具备生成代码的能力时,必须严格管控其执行方式与运行环境。若缺乏明确的边界限制,攻击者可能通过精心设计的输入,诱导 AI 生成可在系统中直接执行的恶意代码,从而引发安全风险。
清理通常被作为一种主要的防御机制来实施。然而,在代理式工作流中,仅靠消毒难以奏效。攻击者能够设计出规避过滤器的提示词,操控可信的库函数,并以绕过传统安全控制的方式利用模型的行为。
NVIDIA AI 红色团队将此类问题视为系统性风险。必须将大语言模型(LLM)生成的代码视为不可信输出,而沙盒机制在遏制其执行过程中起着关键作用。本文通过一个在 AI 驱动的分析工作流中发现的远程代码执行(RCE) 漏洞的案例研究,阐明了为何沙盒应作为 AI 代码执行工作流中的必要安全控制措施,而非可有可无的附加功能。
全文链接:
https://developer.nvidia.com/blog/how-code-execution-drives-key-risks-in-agentic-ai-systems/

点击“阅读原文”查看更多开发者新闻

