这节课包含四大部分,为finetune简介、xtuner介绍、使用8GB玩转LLM和动手实践环节。
LoRA和QLoRA是两种很重要的方法,对微调模型、减少内存使用非常有效。
后面是XTuner的介绍。
之后是动手实践。可参考https://github.com/InternLM/tutorial/blob/main/xtuner/README.md
这节课包含四大部分,为finetune简介、xtuner介绍、使用8GB玩转LLM和动手实践环节。
LoRA和QLoRA是两种很重要的方法,对微调模型、减少内存使用非常有效。
后面是XTuner的介绍。
之后是动手实践。可参考https://github.com/InternLM/tutorial/blob/main/xtuner/README.md
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/401628.html
如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!