Posts by Min-Hung Chen
数据中心/云端
2025年 6月 9日
借助 EoRA 快速恢复 LLM 压缩错误的免微调方法
模型压缩技术已经过广泛探索,可减少为大语言模型 (LLM) 或其他大型神经网络提供服务所需的计算资源。 但是,与未压缩的模型相比,
5 MIN READ
计算机视觉/视频分析
2024年 6月 28日
推出高性能微调解决方案 DoRA,LoRA 的替代选择
全微调(FT)通常用于针对特定的下游任务定制通用预训练模型。为了降低训练成本,我们引入了参数高效微调(PEFT)方法,
3 MIN READ