LLM

2025年 6月 16日
人工智能致力于为法律领域带来秩序
斯坦福大学的一个研究团队开发了一个 LLM 系统,以减少官样文章。 被称为“System for Statutory Research”…
1 MIN READ

2025年 6月 11日
借助统一的 NVIDIA NIM 工作流简化 LLM 部署和 AI 推理
将大语言模型 (LLM) 集成到真实用户与之大规模交互的生产环境中,是任何 AI 工作流中最重要的部分。这不仅仅是让模型运行,
3 MIN READ

2025年 6月 11日
通过开源 AI-Q NVIDIA Blueprint 与您的企业数据交流
企业数据呈爆炸式增长,PB 级的电子邮件、报告、Slack 消息和数据库的堆积速度比任何人都快。市场调研人员 Gartner 表示,
2 MIN READ

2025年 5月 30日
借助 NVIDIA NIM 加速 Vanna 上的文本到 SQL 推理,从而提升分析效率
从自然语言输入生成查询缓慢且效率低下,是决策制定的瓶颈。这迫使分析师和业务用户严重依赖数据团队,从而延迟洞察并限制敏捷性。
4 MIN READ

2025年 5月 28日
聚焦:使用 Iguazio 的 MLRun 和 NVIDIA NIM 构建可扩展和可观察的 AI 以投入生产
Iguazio (被麦肯锡收购) 与 NVIDIA 的合作使企业组织能够构建生产级 AI 解决方案,这些解决方案不仅具有高性能和可扩展性,
2 MIN READ

2025年 5月 27日
在 NVIDIA Grace Hopper 上分析大型语言模型训练工作流
AI 的快速发展催生了模型大小呈指数级增长的时代,特别是在大语言模型 (LLMs) 领域。这些模型凭借其变革能力,正在推动各行各业的创新。
3 MIN READ

2025年 5月 23日
LLM 推理、AI 智能体和测试时间缩放的简单介绍
智能体一直是应用大语言模型 (LLMs) 解决复杂问题的主要驱动力。自 2023 年 AutoGPT 以来,
2 MIN READ

2025年 5月 22日
Blackwell 借助 Meta 的 Llama 4 Maverick 突破 1000 TPS/ 用户门槛
NVIDIA 的大语言模型 (LLM) 推理速度创下了世界纪录。在包含 400 亿参数的 Llama 4 Maverick 模型 (…
3 MIN READ

2025年 5月 20日
NVIDIA Dynamo 新增 GPU 自动缩放、Kubernetes 自动化和网络优化功能
在 NVIDIA GTC 2025 上,我们宣布推出 NVIDIA Dynamo ,这是一种高吞吐量、低延迟的开源推理服务框架,
2 MIN READ

2025年 5月 18日
NVIDIA ConnectX-8 SuperNIC 通过 PCIe6.0总线升级 AI 平台架构
从 大语言模型 (LLM) 到 代理式 AI 推理和 物理 AI ,随着 AI 工作负载的复杂性和规模不断增加,人们对更快、
2 MIN READ

2025年 5月 16日
借助 NVIDIA MGX 为 AI 工厂奠定模块化基础
生成式 AI、 大语言模型 (LLMs) 和高性能计算的指数级增长给数据中心基础设施带来了前所未有的需求。
2 MIN READ

2025年 5月 16日
借助 Mistral Medium 3 和 NVIDIA NIM 构建智能体并了解长文档
构建功能强大的多模态应用的开发者现在可以使用 Mistral Medium 3,获得专为企业级性能而设计的全新先进模型。
1 MIN READ

2025年 5月 14日
使用先进的开放式后训练数据集构建自定义推理模型
合成数据已成为大语言模型 (LLM) 后训练程序的标准组成部分。使用从单个或一组经商业许可的开源 LLM 中合成生成的大量示例,
2 MIN READ

2025年 5月 14日
借助 NVIDIA Nemo 框架,在远程数据中心网络中加速 LLM 训练
多数据中心训练对 AI 工厂至关重要,因为预训练扩展会推动更大模型的创建,导致对计算性能的需求超过单个设施的能力。
2 MIN READ

2025年 5月 12日
在 NVIDIA NeMo 框架的首发日支持下即时运行 Hugging Face 模型
在企业组织努力更大限度地提高其 生成式 AI 投资的价值时,获取最新的模型开发成果对于持续取得成功至关重要。通过在首发日使用先进的模型,
2 MIN READ

2025年 5月 12日
在 Azure AI Foundry 上使用 NVIDIA NIM 加速 AI 推理
将 NVIDIA NIM 微服务 集成到 Azure AI Foundry ,标志着企业 AI 开发的重大飞跃。
4 MIN READ