NVIDIA 虚拟 GPU (vGPU) 技术可在虚拟桌面基础架构 (VDI) 中解锁 AI 功能,使其比以往更加强大、用途更加广泛。通过跨虚拟化环境为 AI 驱动的工作负载提供支持,vGPU 可提高工作效率、增强安全性并优化性能。新版软件可助力企业和开发者进一步推动创新、转变工作流程,并更大限度地发挥加速计算的潜力。
本文将介绍 NVIDIA vGPU 18.0 版本亮点,包括扩展受支持的生态系统平台、新的 AI vWS 工具包以及针对 GPU 利用率的增强功能。
NVIDIA vGPU 支持 Microsoft Windows Server 2025
NVIDIA vGPU 18.0 支持 Microsoft Windows Server 2025,使用户能够利用 GPU 分区和跨分布式环境实时迁移等高级管理功能。 借助这些功能,用户可以高效管理多个工作负载、执行硬件维护和升级软件,而无需中断虚拟机。
此外,NVIDIA vGPU 18.0 支持带有 Windows Server 2025 的 Windows Subsystem for Linux (WSL),可无缝执行 Linux 发行版和 Windows。这一增强功能使其成为在嵌套虚拟化中进行软件开发、测试和运行基于 Linux 的应用程序的理想解决方案。
Proxmox VE,受支持的最新 KVM 平台
从 NVIDIA vGPU 18.0 开始,面向企业虚拟化的开源服务器管理平台 Proxmox VE 是 NVIDIA vGPU 支持的服务器虚拟化平台的一部分。用户可以使用 Proxmox 平台的软件定义 GPU 资源来管理要求严苛的 Linux 和 Windows 应用程序工作负载。
屡获殊荣的创意工作室 DNEG 的全球系统主管 Daire Byrne 表示:“在 Proxmox VE 上部署 NVIDIA vGPU 软件非常顺畅。“通过集成,我们可以轻松验证支持各种计算密集型工作负载所需的性能,并高效管理 GPU 利用率。现在,我们可以快速调整资源,确保最佳用户体验。”
查看 Proxmox VE 上 NVIDIA vGPU 的分步安装。 如需了解详情,请阅读 Proxmox 新闻稿。
用于微调和自定义 LLMs 的全新 AI vWS 工具包
NVIDIA 于 2024 年 11 月推出了 NVIDIA AI 虚拟工作站 (vWS) 工具包 ,可通过 NVIDIA RTX 虚拟工作站软件 获取。这些工具包使组织能够通过 VDI 加速 AI 开发。一个新的工具包现已推出: Fine-Tuning and Customizing LLMs 使开发者能够使用参数高效微调技术 (PEFT) ,如低秩自适应 (LoRA) ,为各种用例将自定义适配器附加到单个大语言模型 (LLM) 。
AI 就绪型,配备 NVIDIA vGPU 和 Citrix
NVIDIA 和 Citrix 合作推出 AI 虚拟工作站,使医疗健康、金融服务和政府等行业的组织能够扩展其在 VDI 中的投资和用例,以加速实现 AI 驱动的业务目标。这项协作计划使 Citrix 驱动的虚拟化环境能够运行 AI 工作负载,同时集中管理数据和 IT,确保安全性、可扩展性和性能。有关此合作伙伴关系的更多详细信息,请阅读 Citrix 新闻稿 。
异构 vGPU 支持更广泛的 GPU
异构 vGPU 使单个 GPU 能够同时支持多个具有不同帧缓存大小的 vGPU 配置文件 (A、B、Q) 。借助 NVIDIA vGPU 18.0,此功能可扩展到与 NVIDIA vGPU 兼容的 NVIDIA Turing 和 Volta GPU。用户可以在多代加速计算中优化 GPU 利用率。
即将推出:NVIDIA Blackwell GPU 的 vGPU 支持
在 NVIDIA GTC 2025 上,NVIDIA 推出了 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU,这是一款出色的通用数据中心 GPU,配备 96 GB 的超快 GDDR7 显存和多实例 GPU (MIG) 功能。 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU 与 NVIDIA vGPU 软件搭配使用,可以为从图形到 AI 的每个工作负载动态划分计算资源。NVIDIA RTX PRO 6000 Blackwell Server Edition GPU 的 vGPU 支持预计将于 2025 年下半年推出。
开始使用
NVIDIA vGPU 18 可让更多虚拟化平台从加速计算中受益,从而提升现有投资的价值。准备好开始了吗? 立即下载或申请 90 天免费试用许可证。 访问 NVIDIA AI vWS Toolkits,开始开发 AI 应用。