LLM 技术

2025年 8月 13日
使用 ProRL v2 通过长时间训练扩展 LLM 强化学习
目前,AI 领域最引人注目的问题之一是大型语言模型 (LLM) 是否可以通过持续强化学习 (RL) 继续改进,或者其能力是否最终会达到顶峰。
4 MIN READ

2025年 8月 7日
黑客如何利用 AI 解决问题的能力
随着多模态 AI 模型从感知发展到推理,甚至开始自主行动,新的攻击面也随之出现。这些威胁不仅针对输入或输出,还利用了 AI 系统如何处理、
2 MIN READ

2025年 6月 18日
基准测试大型语言模型推理成本以实现更智能的扩展和部署
这是大语言模型延迟-吞吐量基准测试系列的第三篇博文,旨在指导开发者如何通过估算总体拥有成本 (TCO) 来确定 LLM 推理的成本。
3 MIN READ

2025年 6月 2日
通过高效的长上下文大语言模型训练扩展到数百万个 Token
大语言模型 (LLM) 的演变标志着其处理和生成文本的能力有了显著提升。在这些发展中,上下文长度的概念 (模型可以处理的单个输入样本中的…
2 MIN READ

2025年 5月 27日
在 NVIDIA Grace Hopper 上训练大型语言模型的高级优化策略
虽然分析有助于识别效率低下的情况,但高级优化策略对于解决硬件限制和有效扩展 AI 工作负载至关重要。在本文中,我们将探讨 CPU 卸载、
3 MIN READ

2025年 5月 23日
更智能、更安全地串流:了解 NVIDIA NeMo Guardrails 如何增强 LLM 输出串流
LLM 流式传输会在生成模型响应时,逐个 token 实时递增发送该响应。
2 MIN READ

2025年 2月 25日
定义 LLM 红色团队
在一项活动中,人们为生成式 AI 技术 (例如大语言模型 (LLMs)) 提供输入,以确定输出是否会偏离可接受的标准。
1 MIN READ

2025年 2月 12日
使用 NVIDIA NeMo 框架进行 LLM 模型剪枝和知识蒸馏
模型剪枝和知识蒸馏是功能强大且经济高效的策略,用于从最初较大的同级获得较小的语言模型。 在一篇“ 如何剪枝和蒸馏 Llama-3.1 8B ”…
4 MIN READ

2025年 1月 29日
掌握 LLM 技术:评估
评估大语言模型(LLMs) 和 检索增强生成(RAG) 系统是一个复杂而微妙的过程,反映了这些系统的复杂性和多面性。 与传统机器学习(ML)…
2 MIN READ

2025年 1月 16日
借助 iGenius 和 NVIDIA DGX 云,继续为主权 AI 和受监管行业预训练先进的 LLM
近年来,大语言模型(LLMs)在推理、代码生成、机器翻译和摘要等领域取得了非凡的进步。然而,尽管基础模型具有先进的功能,
4 MIN READ

2025年 1月 9日
宣布推出 Nemotron-CC:用于 LLM 预训练的万亿级英语语言数据集
NVIDIA 很高兴地宣布发布 Nemotron-CC,这是一种包含 6.3 万亿个令牌的 英语语言 Common Crawl 数据集 ,
1 MIN READ

2024年 12月 17日
利用 NVIDIA NeMo-Aligner 进行监督式微调的数据高效知识蒸馏
知识蒸馏是一种将更大的教师模型的知识转移到更小的学生模型的方法,理想情况下可生成紧凑、易于部署的学生,且准确度与教师相当。
2 MIN READ

2024年 12月 17日
开发具有高效数据存储的多语种和跨语言信息检索系统
高效的文本检索对于搜索、问答、语义文本相似性、摘要和商品推荐等各种信息检索应用至关重要。它还在检索增强生成(RAG)技术中发挥着关键作用,
2 MIN READ

2024年 12月 16日
对大型语言模型驱动的知识图谱的洞察、技术和评估
数据是现代企业的生命线,推动着从创新到战略决策的方方面面。然而,随着企业组织积累了越来越多的信息 (从技术文档到内部沟通),
5 MIN READ

2024年 11月 15日
掌握 LLM 技术:数据预处理
大语言模型(LLMs) 的出现标志着各行业利用人工智能(AI)增强运营和服务的方式发生了重大转变。通过自动化日常任务和简化流程,
2 MIN READ