【AIGC调研系列】llama3微调具体案例

Llama3的微调可以通过多种方式进行,具体案例包括:

  1. 使用XTuner进行微调,尝试让Llama3具有"它是SmartFlowAI打造的人工智能助手"的自我认知。这涉及到准备自我认知训练数据集,并通过脚本生成数据[2][8]。
  2. 利用Unsloth和Google Colab环境对Llama3进行微调,以打造属于自己的GPT模型[3]。
  3. 通过开源程序LLaMA-Factory进行中文的微调,提高Llama3的中文能力。这包括使用Llama3-8B-Instruct开源模型作为基座[4][17]。
  4. 魔搭社区基于Llama3-8b-instruct原始版本训练了通用中文模型,并保留且适配了中文Agent能力,以满足国内用户对Agent场景的需求[11][16][18]。
  5. 使用ORPO技术和TRL库来微调新的Llama3 8B模型,这一过程可以在Google Colab上完成[12]。
  6. LlamaFactory发布了两个社区中文微调版本:Llama3-Chinese,这是首个使用DoRA和LoRA+算法微调的中文Llama3模型[6][13]。
  7. 使用ms-bench数据集对llama3-8b-instruct进行了微调,使其对中文有更好的支持。在训练前,模型的中文回答存在重复问题,但在训练500iter后,模型的中文回答变得更加简练通顺[21]。

这些案例展示了Llama3微调的多样性和实用性,从提高特定语言能力到增强模型的自我认知能力,再到适应特定的应用场景如Agent。通过这些方法,开发者可以根据自己的需求对Llama3进行定制化的微调。

如何使用XTuner进行Llama3的微调,包括准备数据集和脚本生成的具体步骤?

使用XTuner进行Llama3的微调,包括准备数据集和脚本生成的具体步骤如下:

  1. 准备数据集
    1. 首先,需要准备或生成适合微调的数据集。可以通过编写Python脚本来自动化这一过程。可以创建一个名为generate_data.py的文件,并将特定的代码复制进去以生成数据集[29][31][32]。
    2. 在generate_data.py文件中,可以使用JSON格式输入必要的信息,例如你的名字等[32]。这表明生成数据集的脚本可能需要用户输入一些基本信息来定制化生成数据
  2. 脚本生成
    1. 根据证据,XTuner支持通过社区提供的教程和工具来进行模型的微调。例如,Llama3-XTuner-CN提供了手把手的教学,帮助用户学习如何使用XTuner进行微调[24][27]。
    2. 微调项目实践与教程(XTuner 版)可能包含了详细的步骤和代码示例,指导用户如何使用XTuner进行模型微调。这些教程可能包括理论讲解和实战操作,如微调框架和指令微调的原理,以及如何使用XTuner进行微调的操作步骤[33]。
  3. 具体操作步骤
    1. 用户应该访问XTuner的官方GitHub页面(http://github.com/InternLM/XTuner),查找相关的教程和脚本。这些资源将提供详细的指导,包括如何准备数据集、如何编写和运行脚本来生成数据集,以及如何使用XTuner进行模型的微调[24]。
    2. 可能还需要参考其他开源社区中的资源,如Llama3-Tutorial,这些资源可能提供了更具体的指导和示例代码,帮助用户更好地理解和应用XTuner进行模型微调[30]。

总结来说,使用XTuner进行Llama3的微调涉及到准备合适的数据集和编写相应的脚本。用户应该参考XTuner和相关社区提供的教程和文档,按照指导步骤操作,以实现模型的有效微调。

在Unsloth和Google Colab环境下对Llama3进行微调的详细教程是什么?

在Unsloth和Google Colab环境下对Llama3进行微调的详细教程主要包括以下几个步骤:

  1. 登录Colab Notebook:首先,需要有一个Google账号。如果没有,需要搜索并注册一个Google账号[36]。
  2. 检查GPU环境:确保你的Colab笔记本有足够的GPU资源来支持模型训练。这一步骤对于模型训练的时间长度有直接影响[36]。
  3. 使用Unsloth进行微调:Unsloth提供了最新的长上下文支持,使得Llama-3 70b模型能够轻松地适应48GB GPU卡,允许你在约7K的上下文长度上进行微调。在A100 80GB SXM机器上,Unsloth允许6倍更长的上下文长度,仅增加1.
  4. 数据准备:微调模型的一个核心环节是数据准备,这一步骤决定了微调的质量[34]。
  5. 模型训练:这是微调过程中的另一个核心环节,硬件资源在这里决定了训练所需的时间[34]。
  6. 部署模型:一旦微调完成,你可以通过点击一个按钮来部署模型[42]。

此外,还有一些特定的工具和库可以用于微调Llama3,例如ORPO和TRL库[37],以及Hugging Face提供的平台,可以在其中导出或上传模型[43]。这些工具和库为用户提供了灵活的应用方式,特别是对于那些对AI模型微调感兴趣的人来说非常有价值[43]。

使用Unsloth和Google Colab环境对Llama3进行微调的过程涉及到登录Colab Notebook、检查GPU环境、使用Unsloth进行微调、数据准备、模型训练以及部署模型等关键步骤。通过遵循这些步骤,即使是初学者也能够成功地对Llama3进行微调。

LLaMA-Factory如何用于中文Llama3模型的微调,具体技术细节和效果评估?

LLaMA-Factory用于中文Llama3模型的微调主要涉及以下几个技术细节和效果评估:

  1. 技术细节
    1. LLaMA-Factory是一个开源程序,专门用于大模型的微调和调优工作。它支持低资源环境下的显卡算力,使得用户即使在硬件条件有限的情况下也能进行大模型的微调[47]。
    2. 通过LLaMA-Factory,可以对不同尺寸的基础模型进行全量微调及高效微调。例如,已经完成了与Yuan2.0的适配微调,展示了其灵活性和适用性[48]。
    3. LLaMA-Factory还整合了FSDP(Fused Sparse Distributed Precision)和QLoRA技术,这使得在配备两块24GB GPU的硬件环境中,能够对70B参数量级的模型进行微调[50]。
  2. 效果评估
    1. 使用LLaMA-Factory进行微调后,模型在特定领域的性能得到了显著提升。例如,经过微调的Yi-6B模型在Agent方面的能力显著超越了原始模型,具备了选择工具、调用工具、总结答案的出色能力[49]。
    2. LLaMA-Factory不仅适用于大模型的微调,还支持多种微调技巧和集成思路,如ORPO微调等,这些都为模型性能的提升提供了更多可能性[51][53]。

LLaMA-Factory通过提供一个高效、灵活的微调框架,使得中文Llama3模型能够在保持原有优势的同时,针对中文语境和特定领域需求进行有效的微调和优化。通过技术细节的实施和效果评估的结果可以看出,LLaMA-Factory对于提升模型在中文处理方面的性能具有重要作用。

ORPO技术和TRL库在微调Llama3 8B模型中的应用案例和效果分析?

ORPO技术和TRL库在微调Llama3 8B模型中的应用案例和效果分析显示,ORPO技术通过指令调优和偏好对齐的方式,有效地提升了大型语言模型(LLM)在特定任务上的适应性和性能。具体来说,使用ORPO和TRL库对Llama3 8B模型进行微调的过程中,ORPO修改了标准语言建模目标,使模型能够同时学习目标任务和与人类偏好保持一致[58]。这种微调方法不仅适用于各种模型大小和基准,而且在实证结果中显示出优于其他对齐方法的性能[54][57]。

在实际应用中,例如在Llama3-8B-Chinese-Chat模型中,ORPO被用于调整模型在生成文本时对中文和英文的偏好,特别是优化模型以减少生成英文答案的倾向,从而更适应中文对话环境。这表明,在处理中文问题时,微调后的模型能更准确地理解问题的意图并以更加恰当的方式响应[60]。

此外,尽管在某些情况下样本量较少,如仅训练了1个epoch的数据集包含DPO偏好对共1000个样本,但ORPO微调的效果仍然显著[56]。这说明ORPO技术即使在资源有限的情况下也能有效提升模型性能。

ORPO技术和TRL库在微调Llama3 8B模型中的应用案例表明,这些技术能够有效地提升模型在特定任务上的适应性和性能,尤其是在处理语言偏好和文化差异方面表现出色。

使用ms-bench数据集对llama3-8b-instruct进行微调的        详细过程和结果展示?

使用ms-bench数据集对llama3-8b-instruct进行微调的详细过程和结果展示可以从以下几个方面进行概述:

  1. 微调前的准备:首先,需要了解Llama3-8B-Instruct模型是基于Meta-Llama-3-8B-Instruct模型通过ORPO算法专门针对中文进行微调得到的中文对话模型[66]。这意味着在开始微调之前,已经有一个针对中文优化的基础模型。
  2. 选择数据集:根据证据,MSAgent-Bench是一个包含598k训练集、对应的验证集和测试集的大规模训练数据集[65]。这个数据集被设计为通用且可定制的代理框架的一部分,用于实际应用中,基于开源LLMs进行模型训练[68]。
  3. 微调过程:虽然具体的微调步骤没有直接提及,但可以推断,使用ms-bench数据集进行微调的过程涉及到了将Llama3-8B-Instruct模型与MSAgent-Bench数据集结合,利用ORPO算法或其他适合的算法对模型进行进一步的训练和优化。这一过程旨在提高模型在处理中文问答任务时的表现,减少"中文问题英文答复"的情况[64]。
  4. 结果展示:微调后的模型,即Llama3-8B-Chinese-Chat,在处理中文对话方面取得了显著的改进。这包括了大幅减少了"中文问题英文答复"的情况,以及提升了模型在回答中文问题时的能力[64]。此外,通过微博上的展示样例可以看出,微调过的模型在实际应用中的效果不错[66]。

使用ms-bench数据集对llama3-8b-instruct进行微调的过程涉及到选择合适的数据集、利用特定算法进行模型训练和优化,最终实现了在中文对话处理方面的显著改进。这些改进主要体现在减少了不适当的英文答复情况,并提升了模型在处理中文问答任务时的整体性能。

推荐大家参与下微调实验,免费报名,免费参与,免费算力资源

参考资料

1. 【大模型实战案例】手把手教大家微调大模型Llama 3 原创 - CSDN博客 [2024-04-20]

2. Llama 3 全新大模型的微调项目实践与教程 - 知乎

3. Llama3微调教程:超简单,人人都可以打造属于自己的GPT! [2024-04-27]

4. 【全网首发】Llama 3 微调项目实践与教程(XTuner 版)-CSDN博客 [2024-04-23]

5. 【合集】Llama3本地部署与中文能力微调实战|零门槛零基础部署Llama3大模型|借助Llama-Factory进行高效微调

6. LlamaFactory 进行大模型llama3 微调,轻松上手体验学习 - CSDN博客 [2024-04-24]

7. Llama3-8B大模型微调训练_人工智能平台PAI(PAI) - 阿里云文档 [2024-04-25]

8. 【全网首发】 Llama3 微调项目实践与教程(XTuner 版) - 知乎

9. 【全网首发】Llama 3 微调项目实践与教程(XTuner 版) - 稀土掘金 [2024-04-23]

10. Llama3微调教程:超简单,人人都可以打造属于自己的GPT! [2024-04-28]

11. Llama3 中文通用Agent微调模型来啦!(附手把手微调实战教程) [2024-04-24]

12. 通过ORPO技术微调llama3大模型(Fine-tune Llama 3 with ORPO) [2024-04-23]

13. LlamaFactory进行llama3微调,有Colab教程可上手体验学习 - 53AI [2024-04-26]

14. 【全网首发】Llama 3 微调项目实践与教程(XTuner 版) - 哔哩哔哩 [2024-04-23]

15. 部署及微调Llama-3系列模型 - 阿里云文档 [2024-04-19]

16. Llama3 中文通用Agent微调模型来啦!(附手把手微调实战教程)-阿里云开发者社区 [2024-04-25]

17. Llama3-8B-Instruct + LLaMA-Factory 中文微调 | 本地部署教程 [2024-04-22]

18. Llama3 中文通用Agent 微调模型来啦!(附手把手微调实战教程) 原创 [2024-04-24]

19. Llama3 中文版模型微调笔记,小白也能学会 - Bilibili

20. 【全网首发】Llama3 微调项目实践与教程(XTuner 版) - 齐思 [2024-04-21]

21. Llama 3开源!魔搭社区手把手带你推理,部署,微调和评估 [2024-04-22]

22. 5个用中文基于llama 3微调的模型 - 知乎 - 知乎专栏

23. 如何微调Meta Llama-3 8B - 大模型知识库|大模型训练 - 53AI

24. 书生·浦语大模型实战营之微调Llama 3 实践与教程(XTuner 版) 原创 [2024-04-22]

25. OpenMMLab | 【全网首发】Llama 3 微调项目实践与教程(XTuner 版)-CSDN博客 [2024-04-27]

26. 【全网首发】Llama3 微调项目实践与教程(XTuner 版) - 53AI

27. 【全网首发】Llama 3 微调项目实践与教程(XTuner 版) | AI百科

28. Llama 3 Agent 能力体验+微调(Lagent+XTuner 版) - 大模型知识库

29. [学习笔记] XTuner 大模型单卡低成本微调实战 - 稀土掘金 [2024-01-15]

30. [InternLM2][Llama3]Llama 3 Agent 能力体验+微调(Lagent+XTuner ... [2024-04-24]

31. XTuner 大模型单卡低成本微调实战[大模型实战营04]【最后是王者 ...

32. XTuner InternLM-Chat 个人小助手认知微调 - 51CTO博客 [2024-01-14]

33. 第四课 - XTuner 大模型单卡低成本微调实战 - 哔哩哔哩

34. Llama3微调教程:超简单,人人都可以打造属于自己的GPT! - 知乎 [2024-04-26]

35. Llama3 微调教程:超简单,人人都可以打造属于自己的GPT! [2024-04-28]

36. Llama3 中文版模型微调笔记,小白也能学会 - 今日头条 [2024-04-19]

37. 使用ORPO 微调Llama 3 - 知乎专栏 [2024-04-22]

39. 大模型微调之使用LLaMA-Factory 微调Llama3 原创 - CSDN博客 [2024-04-25]

41. Relation Extraction with Llama3 Models | by Silvia Onofrei | Apr, 2024 ...

42. How to Fine-Tune LLaMA 3: An Easy Guide - anakin.ai

43. unsloth/llama-3-8b-bnb-4bit · Hugging Face - 齐思 - 奇绩创坛 [2024-04-23]

44. Llama3中文微调模型-Llama3-Chinese-8B-Instruct概述-CSDN博客 [2024-04-24]

45. Llama3-8B+ LLaMA-Factory 中文微调 - CSDN博客 [2024-04-23]

46. 小白也能微调大模型:LLaMA-Factory使用心得 - CSDN博客

47. 【转载】大模型高效微调框架LLaMA-Factory技术原理解析 - CSDN博客 [2024-03-13]

48. 快速上手!LLaMa-Factory最新微调实践,轻松实现专属大模型-CSDN博客

49. 单卡 3 小时训练专属大模型 Agent:基于 LLaMA Factory 实战 - 知乎

50. Llama Factory 更新日志:从v0.6.0至v0.6.2的创新突破与优化升级 [2024-04-11]

51. Llama3-8B-Chinese-Chat:第一个使用ORPO微调的中文Llama3模型 - 知乎 [2024-04-22]

52. 从LLaMA-Factory项目认识微调- H.U.C-王子- 博客园 [2024-04-17]

53. 全栈大模型微调框架LLaMA Factory:从预训练到RLHF的高效实现转载 [2024-03-04]

54. 使用ORPO微调Llama 3 - 知乎 - 知乎专栏

55. 使用ORPO微调Llama 3 ORPO 是一种将指令调... 来自短神狐仙- 微博 [2024-04-21]

56. 用ORPO 将Llama 3 的性能提升到新高度... 来自爱可可 - 微博 [2024-04-20]

57. Llama3 - 知乎

58. 使用ORPO微调Llama 3 - 齐思 - 奇绩创坛 [2024-04-23]

59. 使用ORPO微调Llama 3-腾讯云开发者社区 [2024-04-26]

60. Llama3-8B-Chinese-Chat:基于Llama3-8B微调的中文聊天模型 优化中文回答 - XiaoHu.AI学院 [2024-04-24]

61. 【教程】使用ORPO微调Llama 3 - 人工智能 [2024-04-22]

62. 使用ORPO对Llama 3进行微调- 大模型知识库 - 53AI

63. 使用ORPO fine-tune Llama3 - 知乎 - 知乎专栏

64. Llama3-8B-Chinese-Chat:基于Llama3的中文微调模型

65. 开源的Agent工具使用微调数据集:从MSAgent-Bench到AgentInstruct - 智源社区 [2023-11-30]

66. 中文微调过的Llama 3 8B 参数聊天模型,看... 来自宝玉xp - 微博 [2024-04-22]

67. MSAgent-Bench大模型工具调用数据集 - 魔搭社区

68. MSAgent-Bench大模型工具调用数据集

69. Phi-3:小模型,大未来!(附魔搭社区推理、微调实战教程) - 53AI [2024-04-25]

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/581737.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

GD32E103C8T6 封装LQFP-48 GigaDevice(兆易创新) 单片机

GD32E103C8T6 是由GigaDevice(兆易创新)公司生产的一款基于ARM Cortex-M4内核的32位MCU(微控制器)。以下是GD32E103C8T6的一些主要功能和参数介绍: 主要功能: 高性能ARM Cortex-M4内核: 采用120MHz的ARM …

求解素数环问题

注:这里我的代码是以第一位为最大数n为首元素不动的 思路: 首先我们分析问题要以较小规模的样例进行分析,例如n3时 第一步:深入搜索 我们先不管后面怎么样,当前的首要目标是先确定第一个元素的值,可知有…

paddlehub的简单应用

1、下载安装 pip install paddlehub -i https://pypi.tuna.tsinghua.edu.cn/simple 报错&#xff1a; Collecting onnx<1.9.0 (from paddle2onnx>0.5.1->paddlehub)Using cached https://pypi.tuna.tsinghua.edu.cn/packages/73/e9/5b953497c0e36df589fc60cc6c6b35…

Java中集合概述(补充ing)

一、集合分类 Java中的集合框架提供了多种类型的集合&#xff0c;主要分为两大类&#xff1a;单列集合&#xff08;只保存单一类型的对象&#xff09;和双列集合&#xff08;保存具有键值对关系的对象&#xff09;。下面对这些集合进行分类介绍&#xff0c;但由于源码分析会涉…

开源相机管理库Aravis例程学习(五)——camera-api

开源相机管理库Aravis例程学习&#xff08;五&#xff09;——camera-api 简介例程代码函数说明arv_camera_get_regionarv_camera_get_pixel_format_as_stringarv_camera_get_pixel_formatARV_PIXEL_FORMAT_BIT_PER_PIXEL 简介 本文针对官方例程中的&#xff1a;03-camera-api…

沉浸式翻译 chrome 插件 Immersive Translate - Translate Website PDF

免费翻译网站&#xff0c;翻译PDF和Epub电子书&#xff0c;双语翻译视频字幕 &#x1f4e3; 网络上口碑爆炸的网站翻译扩展工具【沉浸式翻译】⭐⭐⭐⭐⭐ &#x1f4bb; 功能特点如下&#xff1a; &#x1f4f0; 网站翻译 &#x1f680; 提供双语网站翻译&#xff0c;智能识…

618科技嘉年华!五款极致科技产品,开启智能生活新篇章!

准备好迎接一年一度的618了吗&#xff1f;这不仅仅是一场购物的狂欢&#xff0c;更是一次科技的盛宴&#xff0c;一次智能生活的全新启航。今年&#xff0c;我们将带来五款令人瞩目的极致科技产品&#xff0c;它们将彻底颠覆你对智能生活的认知。从娱乐到工作&#xff0c;这些产…

【Node.js工程师养成计划】之原生node开发web服务器

一、使用node创建http服务器 var http require(http);// 获取到服务器实例对象 var server http.createServer() server.listen(8080, function() {console.log(http://127.0.0.1:8080); })server.on(request, function(req, res){console.log(request);res.write(6666666688…

《微服务设计》读书笔记

此为阅读纽曼《微服务设计》一书后总结的读书笔记&#xff0c;点此处下载PDF文档。 一、微服务的概念 微服务&#xff08;或称微服务架构&#xff09;是一种云原生架构方法&#xff0c;其核心思想在于将单个应用拆分为众多 小型、松散耦合的服务&#xff0c;服务之间均通过网…

百度语音识别的springboot应用

1、pom依赖 <dependency> <groupId>com.baidu.aip</groupId> <artifactId>java-sdk</artifactId> <version>4.16.18</version> </dependency> 2、测试的demo 创建语音识别应用 百度智能云-管理中心 (baidu.com) 代码中要…

十大USDT交易平台大全XEX交易所

USDT是一种基于比特币区块链网络的加密代币&#xff0c;主要运用于数字货币交易平台&#xff0c;以稳定币为主。USDT的核心价值在于其与真实货币的固定兑换比率1:1&#xff0c;所以被称为Tether。随着加密货币市场的不断壮大&#xff0c;越来越多的交易平台开始支持USDT&#x…

Android 设置头像 - 裁剪及圆形头像

书接上文 Android 设置头像 - 相册拍照&#xff0c;通过相册和照片的设置就可以获取到需要的头像信息&#xff0c;但是在通常情况下&#xff0c;我们还想要实现针对头像的裁剪功能和圆形头像功能。 先上截图&#xff1a; 图像裁剪 通常裁剪可以分为程序自动裁剪和用户选择裁剪…

上位机图像处理和嵌入式模块部署(树莓派4b设置ftp下载)

【 声明&#xff1a;版权所有&#xff0c;欢迎转载&#xff0c;请勿用于商业用途。 联系信箱&#xff1a;feixiaoxing 163.com】 作为一个开发板&#xff0c;最好支持ftp下载&#xff0c;这样文件的上传和下载都会比较方便。虽然目前为止&#xff0c;利用mobaxterm和ssh也能实现…

8.11 分析工具 8.14 设计工具

一、分析工具 &#xff08;一&#xff09;结构化分析 1、数据流图&#xff08;DFD&#xff09; &#xff08;1&#xff09;数据流图 从数据传递、加工的角度&#xff0c;以图形刻画系统内的数据运动情况。全面描述系统逻辑模型的工具。通过符号&#xff0c;表示出数据流动、…

C++中的数据结构与算法

随处可见的红黑树 一般会用到[key,value]。 例如github中这个例子&#xff0c;第一个是访问网站&#xff0c;第二个是访问次数&#xff0c;但是这个不是静态的&#xff0c;这有个动态排序&#xff0c;并且当我们需要让相应的访问次数加1的时候&#xff0c;我们用红黑树查找的时…

VS2022 嘿嘿

还是大二的时候就开始用这个&#xff0c;但居然是为了用PB&#xff0c;-_-|| 用了段时间换成了C#&#xff0c;依稀还记得大佬们纠正我的读法&#xff0c;别读C井&#xff0c;应该读C夏普。。。 安装过程其实也没啥&#xff0c;就是关键Key得花时间找&#xff0c;我好不容易搞…

【论文阅读】互连网络的负载平衡路由算法 (GAL, Globally Adaptive Load-balancing 全局自适应负载平衡)

Globally Adaptive Load-balancing 全局自适应负载平衡 GAL: Globally Adaptive Load-balanced routing 全局自适应负载平衡路由 1. GAL on a ring2. GAL on higher dimensional torus3. 实验性能4. 算法稳定性 Stability总结 References Globally Adaptive Load-balancing 全…

探索数学的奇妙世界:Mathematica之美【上】

文章目录 一、二维函数作图1.二维函数作图命令Plot2.曲线样式3.重画和组合图形4.二维函数绘图 二、三维函数作图1.函数作图命令Plot3D2.三维参数作图 三、等值线图和密度图1.等值线图2.密度图3.图形之间的转换 四、数据绘图1.二维数据绘图2.三维数据绘图 总结 一、二维函数作图…

限流--4种经典限流算法讲解--单机限流和分布式限流的实现

为什么需要限流 系统的维护使用是需要成本的&#xff0c;用户可能使用科技疯狂刷量&#xff0c;消耗系统资源&#xff0c;出现额外的经济开销问题&#xff1a; 控制成本>限制用户的调用次数用户在短时间内疯狂使用&#xff0c;导致服务器资源被占满&#xff0c;其他用户无…

深度学习-线性回归+基础优化算法

目录 线性模型衡量预估质量训练数据参数学习训练损失最小化损失来学习参数显式解 总结基础优化梯度下降选择学习率 小批量随机梯度下降选择批量大小 总结线性回归的从零开始实现实现一个函数读取小批量效果展示这里可视化看一下 线性回归从零开始实现线性回归的简洁实现效果展示…