AI 平台/部署

2025年 9月 8日
如何使用 Outerbound 和 DGX 云 Lepton 自行构建 AI 系统
我们往往容易低估实际生产级 AI 系统所涉及的组件复杂性。无论是构建融合内部数据与外部大语言模型的智能体,还是提供按需生成动画的服务,
3 MIN READ

2025年 9月 5日
通过 CPU-GPU 显存共享加速大规模 LLM 推理和 KV 缓存卸载
大语言模型(LLM)处于人工智能创新的前沿,但其庞大的规模往往会影响推理效率。例如,Llama 3 70B 和 Llama 4 Scout…
2 MIN READ

2025年 9月 3日
南北向网络:加速企业 AI 工作负载的关键
在 AI 基础架构中,数据为计算引擎提供关键燃料。随着代理式 AI 系统的持续演进,多个模型与服务相互协作,需要获取外部上下文并实时做出决策,
2 MIN READ

2025年 9月 3日
如何运行 AI 驱动的 CAE 仿真
在现代工程领域,创新速度与执行模拟分析的效率密切相关。计算机辅助工程(CAE)在验证产品性能与安全性方面发挥着关键作用,
3 MIN READ

2025年 9月 3日
借助 NVIDIA DRIVE AGX Thor 开发者套件加速自动驾驶汽车开发
自动驾驶汽车(AV)技术是快速发展的,由于更大型、更复杂的AI模型被部署于边缘端推动。如今,现代汽车不仅需要先进的感知能力和传感器融合技术,
3 MIN READ

2025年 9月 2日
借助启发式算法和 CUTLASS 4.2 提高 NVIDIA GPU 上的 GEMM 内核自动调整效率
为特定问题和硬件选择合适的通用矩阵乘法(GEMM)核函数是一项重大挑战。GEMM 核函数的性能由一系列编译时和运行时的元参数共同决定,
2 MIN READ

2025年 9月 2日
降低模型部署成本,同时通过 GPU 显存交换保持性能
大规模部署大语言模型(LLM)面临双重挑战:一方面需保障高需求时段的快速响应能力,另一方面又要有效控制 GPU 成本。组织通常面临两难选择:
2 MIN READ

2025年 8月 29日
小型语言模型如何成为可扩展代理人工智能的关键
代理式 AI 的迅速崛起,正在重塑企业、开发者以及整个行业对自动化与数字生产力的认知。从软件开发流程到企业级任务编排,
2 MIN READ

2025年 8月 27日
如何将生产环境中的 LangGraph 智能体从单个用户扩展到 1000 名同事
您已经成功构建了一个功能强大的 AI 智能体,并准备与同事分享,但您有一个重要的顾虑:如果同时有 10 位、100…
3 MIN READ

2025年 8月 26日
行业协作共推 NVIDIA CPO 技术
NVIDIA 通过光、电组件的无缝集成,重塑数据中心互连新格局。这一突破的关键在于与整个行业的合作伙伴的紧密合作。
1 MIN READ

2025年 8月 22日
NVIDIA 硬件创新和开源贡献正在塑造 AI
Cosmos、DeepSeek、Gemma、GPT-OSS、Llama、Nemotron、Phi、
2 MIN READ

2025年 8月 21日
借助 NVIDIA NVLink 和 NVLink Fusion 扩展 AI 推理性能和灵活性
AI 模型复杂性的指数级增长驱动参数规模从数百万迅速扩展到数万亿,对计算资源提出了前所未有的需求,必须依赖大规模 GPU 集群才能满足。
2 MIN READ

2025年 8月 20日
大规模部署 Omniverse Kit 应用
运行采用先进渲染和仿真技术的 3D 应用程序,通常需要用户进行复杂的安装,并依赖高性能的基础设施。
3 MIN READ

2025年 8月 18日
使用 NVIDIA Streaming Sortformer 实时识别会议、通话和语音应用中的演讲者
在每一次会议、电话交流、 多人场合或支持语音的应用中,技术始终面临一个核心难题:谁在何时发言?几十年来,若不依赖专用设备或离线批量处理,
2 MIN READ

2025年 8月 18日
利用 CPO 技术扩展 AI 工厂,提高能效
随着 AI 重新定义计算格局,网络已成为构建未来数据中心发展的关键支柱。大语言模型的训练性能不仅取决于计算资源,更受到底层网络敏捷性、
2 MIN READ

2025年 8月 13日
Dynamo 0.4 最新版本提供高达 4 倍性能提升、基于 SLO 自动扩展和实时可观察性
近期,OpenAI 的 gpt-oss、月之暗面的 Kimi K2 等多个新的前沿开源模型相继问世,标志着大语言模型 (LLM)…
2 MIN READ