LLM部署特点,内存开销大,TOKEN数量不确定
移动端竟然也可以部署LLM。之前以为只能在服务端部署,移动端作为客户端发起请求来调用大模型。
LMDeploy用于模型量化
模型量化:降低内存消耗
推理性能对比
量化主要作用:降低现存开销
LLM部署特点,内存开销大,TOKEN数量不确定
移动端竟然也可以部署LLM。之前以为只能在服务端部署,移动端作为客户端发起请求来调用大模型。
LMDeploy用于模型量化
模型量化:降低内存消耗
推理性能对比
量化主要作用:降低现存开销
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/396863.html
如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!