对于使用 NVIDIA 技术的开发者、研究人员和创新者来说,2024 年又是具有里程碑意义的一年。从 AI 推理领域的突破性进展到助力开源贡献,这些博客文章重点介绍了最受读者反响的突破性成果。
NVIDIA NIM 提供经过优化的推理微服务,用于大规模部署 AI 模型
NVIDIA NIM 于 2024 年推出,是一套易于使用的推理微服务,用于加速基础模型的部署。开发者可以在尽可能减少配置更改的情况下优化推理工作流,从而实现无缝、高效的扩展。
为了普及 AI 部署,NVIDIA 为其开发者计划成员提供 NIM 的免费访问权限,使更多的开发者能够试验和实施 AI 解决方案。
NVIDIA GB200 NVL72 提供万亿参数 LLM 训练和实时推理
NVIDIA GB200-NVL72 系统通过支持万亿参数大语言模型 (LLMs) 的训练和促进实时推理,突破 AI 能力的界限,树立了新的标准。
NVIDIA 已将其 GPU 内核模块完全转为开源,从而使开发者能够在定制 GPU 相关工作流程时获得更好的控制力、透明度和适应性。
该指南简化了 RAG 的复杂世界,展示了结合文本和图像检索如何增强 AI 应用。从 chatbots 到 search systems,多模态 AI 现在比以往更易于使用。
构建由 LLM 提供支持的 Data Agent 进行数据分析
此分步教程展示了如何构建由 LLM 提供支持的智能体,使开发者能够使用自然语言界面改进数据分析并实现自动化。
StarCoder2 是一款 AI 编码助手,旨在通过提供高质量的代码建议和减少重复性编码任务来提高开发者的工作效率。
如何将蒸馏 Llama 3.1 8B 剪枝为 NVIDIA MiniTron 4B 模型
深入了解将 Llama 3.1 8B 模型剪枝和提炼成更高效的 MiniTron 4B 的方法,在不影响准确性的情况下优化性能。
本教程概述了扩展检索增强型生成(Retrieval-Augmented Generation,RAG)应用的简单路径,强调了生产就绪的最佳实践。
RAPIDS cuDF 可将 pandas 的速度提升近 150 倍,且无需更改代码
RAPIDS cuDF 为 Pandas 工作流提供了惊人的 150 倍加速,无需更改代码,从而转变数据科学工作流并提高 Python 用户的工作效率。
展望未来
在我们迈向 2025 年之际,敬请关注更多具变革性的创新。
订阅 开发者时事通讯 ,及时了解根据您的兴趣定制的 2025 年内容。在 Instagram 、 Twitter 、 YouTube 和 Discord 上关注我们,了解最新的开发者新闻。