SDK 术语表
NVIDIA 通过将成功的并行处理器 GPU 扩展到通用计算,率先采用了加速计算。然而,加速计算需要的不止是强大的芯片。从芯片和系统到其中运行的算法和应用,我们通过全栈研发帮助开发者实现惊人的加速效果。这些算法均已经过优化并被封装成软件开发者套件 (SDK),可帮助各行各业的数百万开发者解决复杂问题。
请浏览下列丰富的 NVIDIA SDK:
名称 | 说明 |
---|---|
Aerial cuBB | CUDA Baseband (cuBB) SDK 提供 GPU 加速的 5G 信号处理工作流程,其中包括适用于 L1层 5G 物理层的 cuPHY。通过在高性能 GPU 显存中保留所有物理层处理来提供出色的吞吐量和效率。 |
Aerial cuVNF | CUDA 虚拟网络函数 (cuVNF) SDK 能够实现经过优化的输入/输出和数据包处理,可在 GPU 显存和支持 GPUDirect® 的 NVIDIA ConnectX-6® DX 网络接口卡之间直接交换数据包。 |
Aerial 开发者套件 | 作为一个应用框架,NVIDIA Aerial 可用于构建高性能、软件定义、云原生的 5G 应用,以满足消费者日益增长的需求。此套件还可在 GPU 上利用并行处理为基带信号和数据流优化结果。NVIDIA Aerial™ 开发者套件专为发起针对 RAN 开发的性能评估和基准测试而设计,内含预先配置的软件和测试向量,可提供开箱即用的引导式体验。 |
Ansel | NVIDIA Ansel 是截取游戏中的镜头和分享精彩时刻的创新方式。玩家可在任意位置取景构图、使用后处理滤镜调整截图、截取高保真度的 HDR 图像,然后使用手机、PC 或 VR 头盔分享 360 度屏幕截图。 |
Capture SDK | NVIDIA Capture SDK(以前是 GRID SDK)使开发者能够轻松高效地截取显示内容,并可按需开展编码。 |
Clara AGX | NVIDIA Clara AGX™ 开发者套件可令医疗设备拥有实时 AI 和成像功能。结合低功耗的 NVIDIA Jetson AGX Xavier 和 RTX GPU 与 NVIDIA Clara AGX SDK 和 NVIDIA EGX 堆栈,用户可轻松安全地调配并远程管理分布式医疗器械组。 |
Clara Deploy | 此为可扩展参考开发框架,便于将 AI 模型转变为由 AI 提供助力的临床工作流,内置对 DICOM 通信的支持以及与现有医院基础设施进行交互的功能。 |
Clara Discovery GTC 大会更新 | Clara Discovery 集框架、应用和 AI 模型于一体,可实现经 GPU 加速的计算药物研发。药物研发是一项跨学科工作。Clara Discovery 可应用于药物研发流程,并在基因组学、蛋白组学、显微镜学、虚拟筛选、计算化学、可视化、临床成像和自然语言处理领域结合使用加速计算、AI 和机器学习。 |
Clara Guardian | NVIDIA Clara™ Guardian 是一个应用框架,同时也是合作伙伴生态系统,它可以利用多模态 AI 简化智能传感器的开发和部署,可应用于医疗健康设施的各个位置。借助各种各样的预训练模型、参考应用和集群管理解决方案,开发者能够以更快的速度构建解决方案,从而将 AI 引入医疗健康设施,并提高病患看护水平。 |
Clara Holoscan GTC 大会更新 | NVIDIA Clara™ Holoscan 是面向医疗设备的混合计算平台,结合了用于低延迟传感器和网络连接的硬件系统、用于数据处理和 AI 的优化库,以及用于在任何地方(包括嵌入式设备、边缘设备和云)运行串流、成像和其他应用的核心微服务。 |
Clara Parabricks GTC 大会更新 | NVIDIA Clara™ Parabricks 是一个计算框架,支持从 DNA 到 RNA 的基因组学应用。此框架采用 NVIDIA CUDA、高性能计算 (HPC)、AI 和数据分析堆栈来构建 GPU 加速库、工作流及参考应用工作流,以进行初级、二级和三级分析。Clara Parabricks 是一整套现成的解决方案组合,可与工具包结合使用,以支持开发用于满足基因组实验室需求的新应用。 |
Clara Train GTC 大会更新 | Clara Train 参考应用是一个经过域优化的开发者应用框架,其中包含用于 AI 辅助标记数据的 API,可实现 AI 在任何医疗检视器中的应用;同时还包含基于 TensorFlow 的训练框架,此框架可利用预训练模型,通过迁移学习、联合学习和 AutoML 等技术快速启动 AI 开发。 |
Clara Viz GTC 大会更新 | NVIDIA Clara Viz 是一款高性能 SDK,可使用基于 CUDA 的光线步进技术实现医学影像数据集(CT、MR、US)的高级可视化,从而生成高质量的交互式图像。 |
CloudXR GTC 大会更新 | NVIDIA CloudXR SDK 支持通过无线电信号(5G 或 Wi-Fi)或以太网流式传输图形密集型增强现实 (AR)、虚拟现实 (VR) 或混合现实 (MR) 内容(通常称为扩展现实 (XR))。SDK 支持将 OpenVR 应用即刻流式传输至多个 5G 连接的 Android 设备,从而在功耗相对较低的图形硬件上获得图形密集型应用的优势。 |
CUB GTC 大会更新 | 基元和实用程序集合。CUB 专用于 CUDA C++,而其接口则明确适用于 CUDA 特定的功能。 |
cuBLAS GTC 大会更新 | cuBLAS 库可提供基本线性代数子程序 (BLAS) 的 GPU 加速实现。cuBLAS 利用针对 NVIDIA GPU 高度优化的插入式行业标准 BLAS API,加速 AI 和 HPC 应用。cuBLAS 库包含用于批量运算、跨多个 GPU 的执行以及混合精度和低精度执行的扩展程序。通过使用 cuBLAS,应用将能自动从定期性能提升及全新 GPU 架构中受益。cuBLAS 库包含在 NVIDIA HPC SDK 和 CUDA 工具包中。 |
cuCIM GTC 大会更新 | 专注于生物医学成像的可扩展工具包,旨在为 N 维图像提供 GPU 加速的 I/O、计算机视觉和图像处理基元。 |
CUDA GraalVM | 名为 grCUDA 的开源原型,利用 Oracle 的 GraalVM 并支持在多语言环境中访问 GPU。GraalVM 可视为“一站式管理 VM”,而 grCUDA 则是“一站式 GPU 绑定”。 |
CUDA 数学 API | CUDA 数学库是一个经过行业验证、高度准确的标准数学函数集合。 |
WSL 上的 CUDA | WSL 上的 NVIDIA CUDA 将 NVIDIA CUDA 先进的 AI 和数据科学开发者工具与无处不在的 Microsoft Windows 平台相结合,可跨多个行业细分领域和应用领域呈现先进的机器学习功能。 |
CUDA Python | CUDA® Python 为 CUDA 驱动和运行时 API 提供 Cython/Python 封装器;且现在可通过 PIP 和 Conda 进行安装。Python 开发者将能够利用大规模并行 GPU 计算更快地获取更准确的结果。 |
CUDA 工具包 | CUDA® 是 NVIDIA 专为图形处理单元 (GPU) 上的通用计算开发的并行计算平台和编程模型。借助 CUDA,开发者能够利用 GPU 的强大性能显著加速计算应用。CUDA 工具包中包含多个 GPU 加速库、一个编译器、多种开发工具以及 CUDA 运行环境。 |
CUDA-X AI | NVIDIA CUDA-X AI 是一个完整的深度学习软件堆栈,可供研究人员和软件开发者构建适用于对话式 AI、推荐系统和计算机视觉的高性能 GPU 加速应用。CUDA-X AI 库为 MLPerf 等行业基准测试提供出色的训练和推理性能。 |
CUDA-X HPC | CUDA-X HPC 集多种库、工具、编译器和 API 于一体,可帮助开发者解决全球挑战性较高的问题。CUDA-X HPC 基于 NVIDIA CUDA 的并行计算平台和编程模型构建而成。CUDA-X HPC 包含高度可调整的内核,这些内核对于高性能计算 (HPC) 至关重要。 |
cuDNN GTC 大会更新 | NVIDIA CUDA® 深度神经网络 (cuDNN) 是一个 GPU 加速的深度神经网络基元库,能够以高度优化的方式实现标准例程(如前向和反向卷积、池化层、归一化和激活层)。 |
cuFFT GTC 大会更新 | cuFFT 库具备 GPU 加速的 FFT 实现,其执行速度比仅使用 CPU 的替代方案快 10 倍。cuFFT 用于在深度学习、计算机视觉、计算物理学、分子动力学、量子化学以及地震和医学成像等学科中构建商业和研究应用。通过使用 cuFFT,应用将能自动从定期性能提升及全新 GPU 架构中受益。cuFFT 库包含在 NVIDIA HPC SDK 和 CUDA 工具包中。 |
cuGraph GTC 大会更新 | cuGraph 包含在 RAPIDS 中,侧重于数据科学的图形分析部分。cuGraph 支持最小生成树 (MST)/最大生成森林 (MSF) 和单层层次聚类 (SLHC) 及其在金融领域的应用;Egonet 提取及其与图形神经网络的关联方式;旅行商问题;推动扩展至多个 GPU 并提高与外部框架的兼容性等等。 |
cuNumeric GTC 大会更新 | NVIDIA cuNumeric 的目标是成为 NumPy 的插入式替代库,将 NVIDIA 平台上的分布式计算和加速计算引入 Python 社区。用于执行基于数组的数值计算的库。cuNumeric 通过将 NumPy 应用接口转换为 Legion 编程模型并利用 Legion 运行时的性能和可扩展性来实现这一目标。 |
cuOpt GTC 大会更新 | NVIDIA cuOpt™ 是一个 AI 物流软件 API,可实现近乎实时的路线优化。ReOpt 能让物流和运营研究开发者利用更大的数据集和更快的处理速度,为最后一公里配送、供应链、仓库分拣和食品配送提供全新功能,如动态重规划路线、仿真以及亚秒级求解器响应。(旧称为 ReOpt) |
CUPTI GTC 大会更新 | NVIDIA® CUDA Profiling Tools Interface (CUPTI) 是一个动态库,可用于创建面向 CUDA 应用的性能分析和追踪工具。CUPTI 具备一组面向 ISV 的 API,这类 API 可用于创建分析器和其他性能优化工具 |
cuQuantum GTC 大会更新 | 作为一个经优化的库和工具的 SDK,cuQuantum 可用于加速量子计算工作流。开发者可以使用 cuQuantum 将基于状态向量和张量网络方法的量子电路仿真加速一个数量级。 |
cuRAND GTC 大会更新 | NVIDIA CUDA 随机数生成库 (cuRAND) 可提供 GPU 加速的高性能随机数生成 (RNG)。cuRAND 库使用 NVIDIA GPU 中提供的数百个处理器核心,可将高质量随机数的生成速度提高 8 倍。cuRAND 库包含在 NVIDIA HPC SDK 和 CUDA 工具包中。 |
cuSOLVER GTC 大会更新 | NVIDIA cuSOLVER 库可提供密集和稀疏直接线性求解器和 Eigen 求解器集合,可显著加速计算机视觉、CFD、计算化学和线性优化应用。cuSOLVER 库包含在 NVIDIA HPC SDK 和 CUDA 工具包中。 |
cuSPARCELt | cuSPARSELt 是一个高性能 CUDA 库,专用于一般的矩阵-矩阵运算,其中至少一个运算对象是稀疏矩阵。借助 cuSPARSELt 库,您无需开展复杂的低级编程,即可使用 NVIDIA 第三代 Tensor Core 稀疏矩阵乘积累加 (SpMMA) 运算。该库还提供用于剪枝和压缩矩阵的辅助函数。 |
cuSPARSE GTC 大会更新 | cuSPARSE 库为稀疏矩阵提供经 GPU 加速的基本线性代数子程序,与仅使用 CPU 的替代方案相比,这一程序的执行速度有显著的提升。此库提供了用于构建 GPU 加速型求解器的功能。在从事机器学习、计算流体力学、地震勘探及计算科学等应用的工程师和科学家群体中,cuSPARSE 得到了广泛采用。通过使用 cuSPARSE,应用将能自动从定期性能提升及全新 GPU 架构中受益。cuSPARSE 库包含在 NVIDIA HPC SDK 和 CUDA 工具包中。 |
cuTENSOR GTC 大会更新 | cuTENSOR 库是一个 GPU 加速的张量线性代数库,可提供张量收缩、归约和 Element-wise 操作。cuTENSOR 用于加速深度学习训练和推理、计算机视觉、量子化学和计算物理学等领域的应用。通过使用 cuTENSOR,应用将能自动从定期性能提升及全新 GPU 架构中受益。 |
CUTLASS GTC 大会更新 | CUTLASS(线性代数子程序的 CUDA 模板)是一个 CUDA C++ 模板和抽象的集合,用于在 CUDA 内核中的所有层级实现高性能 GEMM 计算。 |
DALI | NVIDIA 数据加载库 (DALI) 是一个可移植的开源库,专用于解码及增强图像、视频和语音,从而加速深度学习应用。 |
DCGM | NVIDIA Data Center GPU Manager (DCGM) 是一套用于管理和监控集群环境中 NVIDIA 数据中心 GPU 的工具。这一工具支持主动运行状况监控、全面诊断、系统警报和治理策略,包括电源和时钟管理。它可由基础架构团队独立使用,并可轻松集成到 NVIDIA 合作伙伴的集群管理工具、资源调度和监控产品中。 |
DeepStream | NVIDIA 的 DeepStream SDK 提供了完整的流分析工具包,可用于基于 AI 的多传感器处理以及视频、音频和图像理解 |
DGL 容器 | Deep Graph Library (DGL) 是一个与框架无关、易于使用且可扩展的 Python 库,用于实现和训练图形神经网络 (GNN)。DGL 不受框架的束缚,可轻松集成到现有 PyTorch、TensorFlow 或 Apache MXNet 工作流中。 |
DL Prof | 利用 GPU 利用率着手分析和优化不失为一计良策。您可以采用 DLProf 和 PyProf 等工具详细分析建模。您还可以利用用户界面直观地检查您的代码。深度学习分析器 (DLProf) 支持 TensorBoard,因此您可以直观地检查模型。 |
DLSS GTC 大会更新 | NVIDIA DLSS 是一个经过改进的新型深度学习神经网络,可提升帧率并为您的游戏生成精美且清晰的图像。 |
DOCA GTC 大会更新 | DOCA 是一个软件框架,可便于开发者使用行业标准 API,利用 NVIDIA BlueField® 数据处理器 (DPU) 快速创建应用和服务。 |
DRIVE Constellation | NVIDIA DRIVE Constellation™ 是一个专用数据中心平台,可大规模运行自动驾驶硬件在环 (HIL) 仿真。支持运行 NVIDIA DRIVE Sim™。 |
DRIVE OS | DRIVE 操作系统是 DRIVE 软件堆栈的基础所在,是针对车载加速计算率先推出的安全操作系统。这一操作系统内含用于传感器输入处理的 NvMedia、用于实现高效并行计算的 NVIDIA CUDA® 库、用于实时 AI 推理的 NVIDIA TensorRT™,以及可访问硬件引擎的其他开发者工具和模块。 |
DRIVE Sim | NVIDIA DRIVE Sim™ 是核心仿真引擎,可在车辆中使用的相同自动驾驶硬件上执行测试,以便支持位精确和时间精确的自动驾驶验证。 |
DRIVE Software GTC 大会更新 | 开放式 NVIDIA DRIVE® SDK 为开发者提供了自动驾驶所需的所有构建块和算法堆栈。该软件有助于开发者更高效地构建和部署各种先进的自动驾驶应用,包括感知、定位和地图绘制、计划和控制、驾驶员监控和自然语言处理。 |
DriveWorks | NVIDIA DriveWorks 在 DRIVE 操作系统的基础上提供对自动驾驶汽车开发至关重要的中间件功能。这些功能包括传感器抽象层 (SAL) 与传感器插件、数据记录器、车辆 I/O 支持和深度神经网络 (DNN) 框架。该工具拥有模块化和开放的特点,符合汽车行业软件的设计标准。 |
DriveWorks SDK | NVIDIA® DriveWorks SDK 是开发所有自动驾驶汽车 (AV) 软件的基础。它提供了一系列基础功能,包括高级自动驾驶开发所需的处理模块、工具和框架。 |
EGX 软件堆栈 | NVIDIA EGX™ 堆栈为 GPU 加速的机器学习、深度学习和高性能计算 (HPC) 提供了一个从企业到边缘的云原生平台。使用 EGX 堆栈在 NVIDIA 认证服务器上快速轻松地运行 GPU 优化的 NGC™ 容器。 |
FLARE GTC 大会更新 | FLARE(联合学习应用运行时环境)是 NVIDIA 的开源可扩展 SDK,支持研究人员和数据科学家根据隐私保护联合模式调整现有的 ML/DL 工作流。FLARE 能够在不共享数据的情况下构建稳健、通用的 AI 模型。 |
FleX | FleX 是一种基于粒子的仿真技术,用于呈现实时视觉特效。传统意义上的视觉特效是通过使用元素组合加以呈现,而这些元素则由专门针对刚体、流体、服装等的求解器创建而成。由于 FleX 用统一的粒子表示所有对象类型,因而能够实现全新的特效,让不同的仿真物质可以无缝交互。此类统一的实体求解器是离线计算机图形世界的重要组成部分,其中广泛使用了诸如 Autodesk Maya 的 nCloth 以及 Softimage 的 Lagoa 之类的工具。FleX 的目标是利用 GPU 的强大功能将这些离线应用的功能引入实时计算机图形。 |
FME | Feature Map Explorer (FME) 可以使用多种视图来查看基于图像的四维特征图数据,包括从低级的通道可视化到每通道切片的详细数值信息。 |
GeForce Now SDK GTC 大会更新 | GeForce NOW SDK (GFN SDK) 是游戏开发者和发行商直接与 NVIDIA 云游戏服务 GeForce NOW 集成的一种手段。GFN SDK 一直在不断发展,可将 GeForce NOW 功能轻松集成到发行商应用和游戏中,同时以更高效的方式将游戏集成到 GeForce NOW 生态系统中。 |
GPUDirect for Video | NVIDIA GPUDirect® 是 Magnum IO 的一系列技术,可增强 NVIDIA 数据中心 GPU 的数据移动和访问。 |
GPUDirect Storage | Magnum IO GPUDirect® Storage 可在本地或远程存储,如 NVMe 或 NVMe over Fabrics (NVMe-oF),和 GPU 显存之间创建直接数据路径。通过启用网卡或存储器附近的直接内存访问 (DMA) 引擎,它可以将数据输入或移出 GPU 显存,且不会增加 CPU 的负担。 |
GVDB Voxels | NVIDIA GVDB Voxels 是一个新框架,支持在 GPU 上仿真、计算和渲染稀疏体素。 |
Highlights | NVIDIA Highlights 能够自动记录重要游戏时刻、关键击杀和制胜之举的视频,确保随时保存游戏玩家的精彩游戏时刻。截取精彩内容后,游戏玩家可轻松地从 GeForce Experience 的游戏中叠加悬浮窗直接分享至 Facebook、YouTube 或微博。此外,他们还可以剪辑喜欢的 15 秒内容,并以动画 GIF 的形式分享,这一切操作均可在不离开游戏的情况下完成! |
HPC SDK GTC 大会更新 | 用于 HPC 的全套编译器、库和工具。 |
IndeX | NVIDIA IndeX 是一款 3D 立体交互式可视化 SDK,支持科学家和研究人员可视化海量数据集并与之交互,实时进行修改,以及导航至相关度最高的数据部分;上述所有操作均为实时开展,可助力科研人员更快地收集更有用的成效分析内容。IndeX 利用 GPU 集群实现了多值立体数据和嵌入式几何数据的实时可扩展计算和可视化。 |
IndeX - Amazon Web Services | NVIDIA IndeX SDK 可用作 AWS Marketplace 的自定义 Amazon Machine Image (AMI),支持用户修改海量数据集,并导航至最相关的数据部分以收集更好的意见,上述所有操作均为实时开展。 |
IndeX - Google Cloud Marketplace | NVIDIA IndeX 现已在 Google Cloud Marketplace 推出。借助 IndeX SDK,科学家和研究人员可以实时可视化、修改海量数据集并与之交互,还可以导航至最相关的数据部分,一切操作均为实时开展。 |
Isaac ROS GEM GTC 大会更新 | NVIDIA® Isaac ROS GEM 是一款硬件加速软件包,便于 ROS 开发者更轻松地使用 NVIDIA 硬件构建高性能解决方案。 |
Isaac SDK GTC 大会更新 | NVIDIA Isaac SDK™ 是一个工具包,其中包含基础模组和工具,对于需要 AI 支持的增强感知和导航功能的机器人开发而言,可加速这项工作的推进。 |
Isaac Sim GTC 大会更新 | NVIDIA Isaac Sim 由 Omniverse 提供动力支持,是一款可扩展的机器人开发仿真应用和合成数据生成工具,可提供逼真、物理级准确的虚拟环境,以便开发、测试和管理基于 AI 的机器人。 |
JetPack GTC 大会更新 | NVIDIA JetPack SDK 是构建端到端加速 AI 应用的全面解决方案。JetPack SDK 支持所有 Jetson 模组和开发者套件。 |
libcu++ GTC 大会更新 | NVIDIA C++ 标准库 libcu++ 为您的整个系统提供了一个 C++ 标准库,可支持在 CPU 代码、GPU 代码及这两者之间使用。 |
Magnum IO SDK | 借助 NVIDIA MAGNUM IO™ 软件开发套件 (SDK),开发者能够消除 AI、高性能计算 (HPC)、数据科学和可视化应用中的输入/输出 (IO) 瓶颈,从而缩短工作流中的端到端时间。Magnum IO 涵盖虚拟化、容器化和裸机环境中的 CPU、GPU、DPU 和存储子系统之间数据移动的各个方面。 |
数学库 | GPU 加速的数学库为分子动力学、计算流体力学、计算化学、医学成像和地震勘探等领域的计算密集型应用奠定了基础。 |
MDL SDK | NVIDIA 材质定义语言 (MDL) 是一种编程语言,可用于定义基于物理性质的渲染用材质。MDL SDK 是一组用于将 MDL 支持集成到渲染应用的工具。此工具包含用于加载、检查、编辑材质定义的组件,以及用于将 MDL 函数编译到 GLSL、HLSL、Native x86、PTX 和 LLVM-IR 的组件。借助 NVIDIA MDL SDK,任何基于物理效果的渲染器都可以轻松添加对 MDL 的支持并加入 MDL 生态系统。 |
Maxine GTC 大会更新 | Project Maxine 是 Omniverse Avatar 的参考应用之一,而后者是用于生成交互式 AI 虚拟形象的技术平台。 |
Maxine Augmented Reality (AR) | 借助 AR Effects SDK,开发者可以使用标准网络摄像头对人脸和身体进行实时 3D 追踪,从而创作出有趣且引人入胜的 AR 效果。 |
Maxine | 借助 Audio Effects SDK,开发者能够实时利用 AI 消除背景干扰噪音,将音频中的人声与传入和传出的音频源隔离开来。 |
Maxine Video Effects | 借助 Video Effects SDK,开发者能够实时利用基于 AI 的视觉功能,并将嘈杂的低分辨率视频流转换为令人愉快的最终用户体验,并提供所选的虚拟背景和分辨率更高的图像,同时不会产生视频噪声且能减少伪影。 |
Merlin GTC 大会更新 | NVIDIA Merlin™ 是用于构建大规模深度学习推荐系统的开源框架,且能提供端到端参考架构。 |
Merlin HugeCTR GTC 大会更新 | Merlin HugeCTR (Huge Click-Through-Rate) 是专为推荐系统设计的深度神经网络 (DNN) 训练框架。这一框架可通过模型并行嵌入表、嵌入缓存以及跨多个 GPU 和节点的数据并行神经网络提供分布式训练,更大限度地提高性能。 |
Merlin NVTabular GTC 大会更新 | Merlin NVTabular 既是特征工程也是预处理库,旨在有效控制大小按兆兆字节计算的推荐系统数据集,并显著缩短数据准备时间。 |
网格着色 | Turing 架构通过使用网格着色器引入了新的可编程几何着色工作流程。新的着色器将计算编程模型引入图形处理工作流程,因为系统可以协同使用线程,直接在芯片上生成可供光栅化程序使用的紧凑网格 (meshlet)。 |
Metropolis | NVIDIA Metropolis 是一个应用框架,一组开发者工具以及合作伙伴生态系统,结合了可视化数据和 AI,能够提高各行各业的运营效率和安全性。 |
Modulus GTC 大会更新 | Modulus 是一种用于开发物理机器学习神经网络模型的框架,非常适用于数字孪生。(以前称为 SimNet) |
MONAI GTC 大会更新 | MONAI 框架是由 Project MONAI 创建的开源基础。作为由社区支持的免费框架,基于 PyTorch 的 MONAI 可用于医疗健康成像领域的深度学习。此框架具备针对领域优化的基础功能,支持在原生 PyTorch 范式中开发医疗健康成像训练工作流。 |
MONAI Deploy App GTC 大会更新 | MONAI Deploy App SDK 提供了一个框架和相关工具,可支持在医疗健康成像领域设计、开发和验证 AI 驱动型应用。 |
MONAI Label GTC 大会更新 | MONAI Label 是一款智能开源影像标记和学习工具。作为一个 Python 库,支持对医学成像数据和主动学习进行基于 AI 的标记。 |
MONAI Stream GTC 大会更新 | 作为一个 Python 库,支持研究人员为超声波等医疗用例构建和测试串流 AI 应用。 |
Morpheus GTC 大会更新 | NVIDIA Morpheus 是一种网络安全框架,使用 AI 来识别和捕获先前无法识别的威胁和异常,并据此采取相应操作。 |
Mosaic | 无论您是想利用多台显示器纵览工作,还是使用 4K 设备投射奇思妙想,NVIDIA Mosaic™ 多显示器技术都能助您一臂之力。借助 NVIDIA Mosaic,您可轻松地从单个系统横跨多达 16 台高分辨率显示器或投影仪使用任意应用,将多台显示器作为单个桌面进行处理,且不会造成应用软件更改或视觉失真。 |
NCCL GTC 大会更新 | NVIDIA 集合通信库 (NCCL) 可实现针对 NVIDIA GPU 和网络进行性能优化的多 GPU 和多节点通信基元。NCCL 提供了 all-gather、all-reduce、broadcast、reduce、reduce-scatter、point-to-point send 和 receive 等例程,这些例程均经过优化,可通过节点内的 PCIe 和 NVLink 高速互联以及节点间的 NVIDIA Mellanox 网络实现高带宽和低延迟。 |
NeMo GTC 大会更新 | NVIDIA NeMo 是一个供开发者构建和训练先进对话式 AI 模型的框架。 |
NeMo MEGATRON GTC 大会更新 | NeMo Megatron 是用于训练大型语言模型的超快速框架,可以使用数十亿和数万亿的参数高效训练模型。此框架具备数据管护以及并行技术(数据、张量和工作流)。 |
NGC AI 模型 GTC 大会更新 | NVIDIA NGC 的先进 AI 模型可帮助数据科学家和开发者快速构建自定义模型或将其按原样用于推理。 |
NGC Pix2PixHD | Pix2PixHD 是一种基于深度学习的 PyTorch 实现,可用于针对高分辨率(如 2048×1024)逼真内容实现图像到图像的转换操作。 |
NGC TensorFlow | NVIDIA 与 Google 及社区合作,利用 NVIDIA GPU 加速 TensorFlow,并将其引入开源容器和即用型容器。NVIDIA 还有一个开源项目,旨在利用新款 NVIDIA GPU 加速 TensorFlow 1.x。 |
NGX SDK | NVIDIA NGX 是由深度学习提供支持的新型技术堆栈,它将基于 AI 的功能直接引入应用,从而加速并增强了图形、照片、图像和视频的处理。借助 NGX SDK,开发者可以通过预训练网络,轻松将 AI 功能集成到其应用中。 |
NIS | NVIDIA Image Scaling 是一款面向 GeForce GPU 且基于驱动的空间放大器和锐化器,适用于所有游戏。 |
NPP GTC 大会更新 | NVIDIA 性能基元 - 具备 GPU 加速的图像、视频和信号处理功能 |
NRD GTC 大会更新 | NVIDIA Real-Time Denoiser (NRD) 是一款专为低光线采样率而设计的降噪器,开发者在使用这一 API 时无需关注底层的时空降噪细节。它使用输入信号和环境条件来提供与真实图像相媲美的结果。 |
Nsight Aftermath | Nsight™ Aftermath SDK 是一个简单易用的库,您可以将其集成到 D3D12 或 Vulkan 游戏的崩溃报告器中,以在发生 TDR 或异常时生成 GPU“迷你转储文件”。 |
Nsight Compute GTC 大会更新 | 用于 CUDA 内核分析和调试的开发者工具 |
Nsight 深度学习设计器 GTC 大会更新 | 一种集成开发环境,面向希望将基于 DL 的高性能功能融入桌面或边缘主机应用的开发者。 |
Nsight Graphics GTC 大会更新 | NVIDIA® Nsight™ Graphics 是一款独立的开发者工具,支持您调试、配置和导出由 Direct3D(11、12、DXR)、Vulkan(1.2、NV Vulkan 光线追踪扩展程序)、OpenGL、OpenVR 和 Oculus SDK 构建的帧。 |
Nsight Perf SDK GTC 大会更新 | NVIDIA® Nsight Perf SDK 是一个适用于 DirectX、Vulkan 和 OpenGL 的图形分析工具箱,可帮您直接从应用中收集 GPU 性能指标。 |
Nsight Systems GTC 大会更新 | NVIDIA® Nsight™ Systems 是一个系统级性能分析工具,专用于实现应用算法的可视化,以帮助您发现诸多优化机会,以及进行调优以便跨任意数量或大小的 CPU 和 GPU(从大型服务器到较小的 SoC)进行高效扩展。 |
Nsight Visual Studio Code Edition | NVIDIA Nsight™ Visual Studio Code Edition (VSCE) 是一个适用于异构平台的应用开发环境,可将 GPU 的 CUDA® 开发引入 Microsoft Visual Studio Code。借助 NVIDIA Nsight™ VSCE,您可以构建和调试 GPU 内核和原生 CPU 代码,并检查 GPU 和显存的状态。 |
NSight Visual Studio Edition | NVIDIA® Nsight™ Visual Studio Edition 是一个适用于异构平台的应用开发环境,可将 GPU 计算引入 Microsoft Visual Studio。利用 NVIDIA Nsight™ VSE,您可以构建和调试集成式 GPU 核函数和原生 CPU 代码,并检查 GPU 和显存的状态。 |
NVAPI | NVAPI 是 NVIDIA 的核心软件开发套件,支持在所有 Windows 平台上直接访问 NVIDIA GPU 和驱动。NVAPI 支持常用图形 API(如 DirectX 和 OpenGL)以外的操作类别。 |
nvCOMP GTC 大会更新 | nvCOMP 是一个支持 GPU 的高性能数据压缩库。其中包含开源组件和非操作系统组件。nvCOMP 库使用 GPU 提供快速无损数据压缩和解压缩。它采用通用的压缩接口,支持开发者在其应用中使用高性能 GPU 压缩器。 |
NVIDIA PyTorch | NVIDIA 与 Facebook 和社区合作,在 PyTorch 主分支中的 NVIDIA GPU 上加速 PyTorch,并在 NGC 中配备即用型容器。 |
nvJPEG GTC 大会更新 | nvJPEG 库是一个高性能 GPU 加速库,用于解码、编码和转码 JPEG 格式的图像。 |
nvJPEG2K | nvJPEG2000 库用于解码 JPEG 2000 格式的图像。与仅使用 CPU 的解码相比,依靠 nvJPEG 或 nvJPEG2000 进行解码的应用可提供更高的吞吐量和更低的延迟。 |
NVSHMEM | 针对 GPU 显存的 OpenSHMEM 标准,旨在通过扩展提升 GPU 性能。并行编程接口,可令 NVIDIA GPU 集群实现高效且可扩展的通信。 |
Omniverse GTC 大会更新 | NVIDIA Omniverse™ 基于 Pixar 的 USD (Universal Scene Description) 和 NVIDIA RTX™ 技术打造而成,是一款可扩展的多 GPU 实时推理开发平台,用于实现 3D 仿真和设计协作。NVIDIA Omniverse 是从头开始构建的新平台,采用模组化开发框架,可轻松扩展和定制。在最终用户和内容创作者利用 Omniverse 平台连接和加速其 3D 工作流的同时,开发者可以插入 Omniverse 栈的平台层,轻松构建新的工具和服务。 |
Omniverse Kaolin 应用 | NVIDIA Omniverse Kaolin 应用是一款面向 3D 深度学习研究人员的交互式应用,支持检查 3D 数据集、在训练期间交互式可视化模型的 3D 输出,以及渲染合成数据集。该研究应用基于 Omniverse 套件构建而成,可使用高保真 RTX 渲染,并支持定期通过新的扩展程序获取新功能。 |
OpenACC GTC 大会更新 | OpenACC 是一款基于指令的编程模型,无需费时费力的编程,便可为加速器提供简单而强大的加速方式。借助 OpenACC,单一源代码版本将实现平台间的性能可移植性。OpenACC 让科学家和研究人员能够仅通过少量编程工作,即可便捷地利用加速计算。您可以借助 NVIDIA OpenACC 编译器将编译器“提示”或指令插入 C11、C++ 17 或 Fortran 2003 代码中,从而在 GPU 和 CPU 上卸载及运行代码。 |
光流 GTC 大会更新 | 光流 SDK 展示了 Turing GPU 和 Ampere GPU 的最新硬件功能,该功能专用于计算图像之间像素的相对运动。 |
OptiX GTC 大会更新 | 用于在 GPU 上实现出色光线追踪性能的应用框架。 |
OptiX 降噪器 | 此工具使用 GPU 加速的人工智能,显著缩短了渲染视觉上无噪声的高保真图像所需的时间。 |
PhysX | NVIDIA PhysX 是一种可扩展的多平台物理仿真解决方案,可为智能手机、高端多核 CPU 和 GPU 等各类设备提供支持。这款功能强大的 SDK 为各种工业仿真用例引入了高性能和准确度,范围囊括传统的 VFX 和游戏开发工作流、高保真机器人开发、医学仿真和科学可视化应用。 |
RAPIDS | RAPIDS 是一套开源软件库和 API,用于完全在 GPU 上执行数据科学工作流,并且可以将训练时间从几天缩短至几分钟。RAPIDS 基于 NVIDIA® CUDA-X AI™ 构建而成,并结合了图形、机器学习、深度学习、高性能计算 (HPC) 等方面的多年开发经验。 |
Reflex GTC 大会更新 | 在 NVIDIA Reflex SDK 的助力下,游戏开发者可以实现低延迟模式,在这种模式下,游戏引擎能够完成即时渲染,从而消除 GPU 渲染队列,减轻在 GPU 性能受限的情况下对 CPU 造成的背压。 |
Riva GTC 大会更新 | Riva 是 GPU 加速的 SDK,用途为开发实时语音 AI 应用。 |
Rivermax GTC 大会更新 | 基于 IP 的独特解决方案,可提升视频和串流性能。Rivermax 与 NVIDIA GPU 加速计算技术共同开拓创新在媒体娱乐、广播、医疗健康、智慧城市等领域的广泛应用。 |
RTX DI | 如果可以向游戏环境添加数百万个动态光源,而无需担心性能或资源限制,该有多妙? RTXDI 让这一切成为可能,并在同时实现实时渲染。现在,任何形状的几何体都可以发光并投射出相应阴影:小型 LED 灯、时代广场广告牌、乃至爆炸的火球,均不例外。RTXDI 可轻松融合用户生成模型的照明。所有这些光源都可以自由、动态地移动。 |
RTX GI | 借助光线追踪技术的强大功能,RTX 全局照明 SDK 提供了一些可扩展的解决方案,以便计算多次反弹间接照明,而且无需耗时的烘焙,并可避免漏光或昂贵的每帧开销。RTXGI 支持任何已启用 DXR 的 GPU,是将光线追踪优势引入现有工具、知识和功能的理想起点。 |
RTXGI UE4 插件 | 借助光线追踪技术的强大功能,RTX 全局照明 SDK 提供了一些可扩展的解决方案,以便计算多次反弹间接照明,而且无需耗时的烘焙,并可避免漏光或昂贵的每帧开销。 |
RTX UE4 分支 | 我们的 UE 4 分支集成了 RTX 功能。NvRTX 是 GitHub 上针对 NVIDIA 技术的定制 UE4 分支。在 GitHub 上提供 UE4 自定义分支可以缩短开发周期,有助于呈现更绚丽的游戏画面。 |
RTXMU | RTXMU 结合了规整和二次分配技术,可优化和降低任何 DXR 或 Vulkan 光线追踪应用的加速结构的内存消耗 |
SDK Manager | NVIDIA SDK Manager 为适用于主机和目标设备的 NVIDIA DRIVE、Jetson、Clara Holoscan、Rivermax、DOCA 和以太网交换机 SDK 提供端到端开发环境设置解决方案。 |
Spark XGBoost | 对梯度提升库 XGBoost 的 GPU 加速型增强功能,可快速准确地解决大规模 AI 和数据科学问题。 |
Studio SDK | NVIDIA Studio 堆栈是一套软件,可在与创意应用协同工作时为数字内容创作者提供出色的性能和可靠性。此堆栈包含面向应用开发者的 NVIDIA Studio SDK 和 API,以及面向创作者的 NVIDIA Studio 驱动。 |
SwitchIB | NVIDIA Quantum InfiniBand 交换机系列提供完整的交换机系统和网络管理产品组合,可连接各种规模的云原生超级计算。 |
TAO 工具套件 GTC 大会更新 | 借助 NVIDIA 训练、调整和优化 (TAO) 工具套件,您可以更快、更轻松地加速训练,并快速创建高度准确、性能出众的域特定 AI 模型。(之前称为迁移学习工具包/TLT) |
TensorRT | NVIDIA® TensorRT™ 是用于高性能深度学习推理的 SDK。此 SDK 包含深度学习推理优化器和运行环境,可令深度学习推理应用实现低延迟和高吞吐量。 |
Torch-TensorRT GTC 大会更新 | Torch-TensorRT 是 PyTorch 的集成,可在 NVIDIA GPU 上利用 TensorRT 的推理优化。只需一行代码,即可提供一个简单的 API,最高可提供 6 倍的加速效果。 |
TensorFlow-TensorRT | TensorFlow-TensorRT (TF-TRT) 是 TensorFlow 和 TensorRT 的集成,只需一行代码,即可在 TensorFlow 生态系统内利用 NVIDIA GPU 的推理优化功能。 |
TensorRT - MXNet | 借助 MXNet 的 TensorRT 后端,用户可利用 TensorRT 支持的所有图形优化加速 MXNet 中的推理。 |
TensorRT - ONNX 运行时 | TensorRT 与 ONNX 运行时的集成属于执行提供程序,可借助 TensorRT 推理引擎加速 GPU 的推理性能。 |
Texture Tools 3 | NVTT 3 是面向 CUDA 加速纹理压缩和图像处理的一个 SDK,可用于创建块压缩纹理以及编写自定义素材工作流。 |
Texture Tools Exporter | Photoshop Texture Plugin 的新版本;支持创作者导入和导出 GPU 压缩的纹理格式(如 DDS 和 KTX),并在 GPU 上应用图像处理效果。将 NVTT(NVIDIA Texture Tools,专有版本,属于独立 Exporter)用作基础库。包含用于脚本编写和在开发者工具链中使用的命令行界面。 |
Thrust GTC 大会更新 | Thrust 是一个强大的并行算法和数据结构库,具备灵活的高级 GPU 编程接口,可大幅提高开发者的工作效率。借助 Thrust,C++ 开发者只需编写几行代码即可执行 GPU 加速的排序、扫描、转换和归约操作,且速度比最新的多核 CPU 快几个数量级。 |
Triton 推理服务器 GTC 大会更新 | NVIDIA Triton™ 推理服务器可在生产环境中提供快速且可扩展的 AI。Triton 推理服务器支持团队在任何基于 GPU 或 CPU 的基础架构上部署、运行和扩展任何框架中经训练的 AI 模型,从而简化 AI 推理。 |
统一计算框架 | UCF 是一个全面加速的框架,用于开发实时边缘 AI 应用 |
Video Codec SDK | API 综合套装,包含高性能工具、样本和文档,适用于 Windows 和 Linux 的硬件加速型视频编码和解码。 |
vMaterials | NVIDIA vMaterials 是 MDL 材质和光线的精选集合,代表着设计和 AEC 工作流中使用的常见真实材质。集成 Iray 或 MDL SDK 可以在不编写着色器的情况下,向应用快速引入一个包含数百种现成材质的库。 |
VRWorks Graphics GTC 大会更新 | VRWorks™ 包含全套 API、库和引擎,可助力应用和头显设备开发者打造效果拔群的虚拟现实体验。VRWorks 为虚拟现实带来物理上十分逼真的视觉、听觉、触觉交互和仿真环境,进一步提升了虚拟现实的临场感。 |
Warp & Blend | Warp and Blend 是 NVAPI 中的公开接口,用于映射(图像几何校正)和融合(强度和黑色级别调整)单显示器输出或多显示器输出。 |
WaveWorks | NVIDIA WaveWorks 支持开发者在交互式应用中呈现电影级海洋仿真效果。系统使用针对风浪和排水量的谱波模型以及交互式波的速度势,在频率域中运行仿真。然后,系统会运用一组反向 FFT 步骤将仿真转换为可供渲染的空间域。NVIDIA WaveWorks 仿真由简单的 C API 进行初始化和控制,并会生成可作为原生图形 API 对象进行渲染的结果。通过直观的真实变量(例如风速和方向)实现参数化。这些参数可用于调整海面的外观,以适应各种条件,比如柔波荡漾的水面和强风暴(依照蒲福风级测定)肆虐的海洋。 |
XLIO GTC 大会更新 | XLIO 是一个用户空间软件库,支持通过内核旁路架构访问标准插槽 API,可在应用的用户空间内存和网络接口 XLIO 之间实现基于硬件的直接复制,从而提高 TCP/IP 应用(如 NGINX、CDN)和存储解决方案(如 NVMe-over-TCP)的性能 |