这里推荐一个本地微调大模型的框架。
ZO2,一个仅用18G显存就能全参微调175B大模型的框架(当然也支持微调小一些的模型)。
更新:现在ZO2支持Qwen3啦,全参微调32B的版本只需要6GB显存。
Code: ***s://github***/liangyuwang/zo2 Paper: ***s://arxiv.org/abs/2503.12668。
上一篇 : ***如古代长城用的是C140混凝土,那千百年下来会完整的留存至今还是损坏的更加严重?
下一篇 : 为什么vim***vim.org公开支持乌克兰?
为什么女游泳运动员看起来大部分都是平胸?...
一时想不开剪了朵拉头怎么办?...
Vue性能优于React,那为什么还不用Vue?...
怎么才能让孩子在不牺牲睡眠和运动时间的前提下,成绩名列前茅?...