RAPIDS

2025年 6月 27日
如何在 Polars GPU 引擎中处理超过 VRAM 的数据
在量化金融、算法交易和欺诈检测等高风险领域,数据从业者经常需要处理数百 GB 的数据,才能快速做出明智的决策。
1 MIN READ

2025年 6月 18日
NVIDIA 在制造和运营领域的 AI 应用:借助 NVIDIA CUDA-X 数据科学加速 ML 模型
从晶圆制造和电路探测到封装芯片测试,NVIDIA 利用数据科学和机器学习来优化芯片制造和运营工作流程。这些阶段会产生 TB 级的数据,
3 MIN READ

2025年 6月 12日
借助 RAPIDS 单细胞技术推动十亿细胞分析和生物学突破
细胞生物学和虚拟细胞模型的未来取决于大规模测量和分析数据。在过去 10 年里,单细胞实验一直以惊人的速度增长,从数百个细胞开始,
2 MIN READ

2025年 6月 5日
利用 NVIDIA cuML 中的森林推理库加速树模型推理
树集成模型仍然是表格数据的首选,因为它们准确、训练成本相对较低且速度快。但是,如果您需要低于 10 毫秒的延迟或每秒数百万次的预测,
3 MIN READ

2025年 5月 29日
RAPIDS 实现零代码更改加速、IO 性能提升和核外 XGBoost 加速
在过去的两个版本中,RAPIDS 为 Python 机器学习引入了零代码更改加速、巨大的 IO 性能提升、大于内存的 XGBoost 训练、
3 MIN READ

2025年 5月 22日
特级大师专业提示:使用 cuML 通过堆叠夺得 Kaggle 竞赛冠军
堆叠是一种先进的表格数据建模技术,通过结合多个不同模型的预测来实现高性能。利用 GPU 的计算速度,可以高效地训练大量模型。
2 MIN READ

2025年 5月 19日
聚焦:Atgenomix SeqsLab 提升健康组学分析以支持精准医疗
在传统的临床医学实践中,治疗决策通常基于一般准则、以往经验和试错方法。如今,随着电子病历 (EMRs) 和基因组数据的访问,
2 MIN READ

2025年 5月 15日
使用 GPU 预测 Apache Spark 的性能
大数据分析领域正在不断寻找加速处理和降低基础设施成本的方法。Apache Spark 已成为用于横向扩展分析的领先平台,可处理 ETL、
2 MIN READ

2025年 5月 15日
使用 NVIDIA CUDA-X 和 Coiled 简化云端环境设置并加速数据科学运算
想象一下,分析纽约市数百万次的拼车旅程 — — 跟踪各自治市的模式、比较服务定价或确定有利可图的取车地点。
4 MIN READ

2025年 5月 8日
云端 Apache Spark 加速深度学习和大语言模型推理
Apache Spark 是用于大数据处理和分析的行业领先平台。随着非结构化数据(documents、emails、
4 MIN READ

2025年 5月 7日
使用 NVIDIA NeMo Curator 构建 Nemotron-CC:一个高质量万亿令牌数据集,用于大型语言模型预训练,源自 Common Crawl
对于想要训练先进的 大语言模型 (LLM) 的企业开发者而言,整理高质量的预训练数据集至关重要。为了让开发者能够构建高度准确的 LLM,
2 MIN READ

2025年 5月 1日
借助超参数优化实现堆叠泛化:使用 NVIDIA cuML 在15分钟内最大化准确性
堆叠泛化是机器学习 (ML) 工程师广泛使用的技术,通过组合多个模型来提高整体预测性能。另一方面,超参数优化 (HPO)…
3 MIN READ

2025年 4月 10日
高效扩展 Polars 的 GPU Parquet 读取器
在处理大型数据集时,数据处理工具的性能变得至关重要。 Polars 是一个以速度和效率闻名的开源数据操作库,提供由 cuDF 驱动的 GPU…
2 MIN READ

2025年 4月 3日
使用 GPU 加速 Apache Spark 上的 Apache Parquet 扫描
随着各行各业企业的数据规模不断增长, Apache Parquet 已成为一种重要的数据存储格式。
3 MIN READ

2025年 3月 11日
在 NVIDIA Grace CPU 上使用 Polars 和 Apache Spark 实现高效 ETL
NVIDIA Grace CPU 超级芯片可为数据中心和云端的 CPU 工作负载提供出色的性能和出色的能效。
3 MIN READ

2025年 3月 6日
在 NVIDIA GPU 上无需更改代码即可加速 Apache Spark ML
适用于 Apache Spark 软件插件的 NVIDIA RAPIDS 加速器 开创了零代码更改用户体验 (UX),
2 MIN READ