打赏

相关文章

LoRA 和 QLoRA 的核心区别

1. LoRA 是什么?LoRA,全称是 Low-Rank Adaptation,低秩适配微调。正常全参微调是:模型所有参数都参与训练比如一个 7B 模型,大约有 70 亿参数,全部训练显存压力很大。LoRA 的做法是:冻结原始大模…

手机版浏览

扫一扫体验

微信公众账号

微信扫一扫加关注

返回
顶部