NVIDIA NVQLink 架构将加速计算与量子处理器集成
量子计算正在步入一个新时代,在这个时代,其发展将由加速计算与量子处理器的融合来推动。控制和测量量子处理单元 (QPU) 的硬件面临着严苛的计算需求 — 从实时校准到量子纠错(QEC)解码。有用的量子应用将需要在规模上实现量子纠错和校准,而这只有通过将加速计算的最新技术与量子处理器紧密集成才能实现。
NVIDIA NVQLink 将加速计算引入量子计算堆栈,使当今的 GPU 超级芯片能够支持 QPU 本身的在线工作负载。
NVQLink 是一种开放的平台架构,它将传统的超级计算主机与量子系统控制器(QSC) 紧密连接在一起。其设计旨在与工业界已使用的现有控制系统(包括超导、俘获离子、光子或基于自旋的系统)协同工作,并且不会限制量子处理单元(QPU)和控制器构建者进行创新的方式。其目标简单却具有变革性:使超级计算节点成为量子处理单元环境的固有组成部分,从而加速量子硬件的计算能力。
全文链接:
https://developer.nvidia.com/blog/nvidia-nvqlink-architecture-integrates-accelerated-computing-with-quantum-processors/
使用支持 GPU 加速的 Polars 数据框训练 XGBoost 模型

PyData 生态系统的一大优势在于其互操作性,这使得能够轻松地在专门用于探索性分析、训练和推理的库之间移动数据。XGBoost 的最新版本引入了令人兴奋的新功能,包括类别重编码器以及与 Polars 数据框的集成。这为数据处理提供了一种更高效的处理方式。
本篇文章将指导您如何将 Polars GPU 引擎与 XGBoost 机器学习库相结合。它强调了对分类特征的无缝整合,包括 XGBoost 中的新类别编码器。
使用 XGBoost 与 Polars GPU 引擎相结合
Polars 是一个用 Rust 语言编写的高性能数据框库,它采用了惰性求值模型和GPU加速技术,能够显著优化数据处理流程。
在使用 Polars 与 XGBoost 在 GPU 加速的管道中进行操作时,关键的一点是理解延迟执行的概念。Polars 操作通常是延迟执行的,这意味着它们会构建查询计划,但在未被明确指示执行的情况下不会执行该计划。若要使用 GPU 自定义查询计划的执行,请调用 LazyFrame 的 collect 方法,并指定参数 engine=”gpu”。
本教程使用了微软恶意软件预测数据集的一个小部分来进行说明。该数据集可通过 Kaggle 获取,其规模适中,包含数值型和分类型特征。在以下示例中,仅选取了几个列来展示如何将分类型特征与 XGBoost 结合使用。
全文链接:
https://developer.nvidia.com/blog/training-xgboost-models-with-gpu-accelerated-polars-dataframes/

点击“阅读原文”查看更多开发者新闻

