Low-Latency Inference

2025年 7月 7日
提出一个维基百科规模的问题:如何利用数百万 token 的实时推理使世界更加智能
现代 AI 应用越来越依赖于将庞大的参数数量与数百万个令牌的上下文窗口相结合的模型。无论是经过数月对话的 AI 智能体、
3 MIN READ

2025年 4月 11日
AI Fabric 的弹性以及网络融合的重要性
高性能计算和深度学习工作负载对延迟极为敏感。数据包丢失会导致通信管道中的重传或停顿,从而直接增加延迟并中断 GPU 之间的同步。
1 MIN READ

2024年 12月 5日
聚焦:Perplexity AI 利用 NVIDIA 推理栈每月服务 4 亿个搜索请求
对 AI 赋能服务的需求持续快速增长,这给 IT 和基础设施团队带来了越来越大的压力。这些团队的任务是配置必要的硬件和软件来满足这一需求,
2 MIN READ