Spark大数据处理讲课笔记4.1 Spark SQL概述、数据帧与数据集

零、本讲学习目标

  1. 了解Spark SQL的基本概念
  2. 掌握DataFrame的基本概念
  3. 掌握Dataset的基本概念
  4. 会基于DataFrame执行SQL查询

在很多情况下,开发工程师并不了解Scala语言,也不了解Spark常用API,但又非常想要使用Spark框架提供的强大的数据分析能力。Spark的开发工程师们考虑到了这个问题,利用SQL语言的语法简洁、学习门槛低以及在编程语言普及程度和流行程度高等诸多优势,从而开发了Spark SQL模块,通过Spark SQL,开发人员能够通过使用SQL语句,实现对结构化数据的处理。

一、Spark SQL

(一)Spark SQL概述

  • Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个编程抽象结构叫做DataFrame的数据模型(即带有Schema信息的RDD),Spark SQL作为分布式SQL查询引擎,让用户可以通过SQL、DataFrames API和Datasets API三种方式实现对结构化数据的处理。

(二)Spark SQL功能

  • Spark SQL可从各种结构化数据源中读取数据,进行数据分析。
  • Spark SQL包含行业标准的JDBC和ODBC连接方式,因此它不局限于在Spark程序内使用SQL语句进行查询。
  • Spark SQL可以无缝地将SQL查询与Spark程序进行结合,它能够将结构化数据作为Spark中的分布式数据集(RDD)进行查询。

(三)Spark SQL结构

1、Spark SQL架构图

  • Spark SQL架构与Hive架构相比,把底层的MapReduce执行引擎更改为Spark,还修改了Catalyst优化器,Spark SQL快速的计算效率得益于Catalyst优化器。从HiveQL被解析成语法抽象树起,执行计划生成和优化的工作全部交给Spark SQL的Catalyst优化器进行负责和管理。
    在这里插入图片描述

2、Spark SQL三大过程

  • Spark要想很好地支持SQL,需要完成解析(Parser)、优化(Optimizer)、执行(Execution)三大过程。
    在这里插入图片描述

3、Spark SQL内部五大组件

  • Catalyst优化器在执行计划生成和优化的工作时,离不开内部的五大组件。
    在这里插入图片描述

(四)Spark SQL工作流程

  1. 在解析SQL语句之前,会创建SparkSession,涉及到表名、字段名称和字段类型的元数据都将保存在SessionCatalog中;
  2. 当调用SparkSession的sql()方法时就会使用SparkSqlParser进行解析SQL语句,解析过程中使用的ANTLR进行词法解析和语法解析;
  3. 使用Analyzer分析器绑定逻辑计划,在该阶段,Analyzer会使用Analyzer Rules,并结合SessionCatalog,对未绑定的逻辑计划进行解析,生成已绑定的逻辑计划;
  4. 使用Optimizer优化器优化逻辑计划,该优化器同样定义了一套规则(Rules),利用这些规则对逻辑计划和语句进行迭代处理;
  5. 使用SparkPlanner对优化后的逻辑计划进行转换,生成可以执行的物理计划SparkPlan;
  6. 使用QueryExecution执行物理计划,此时则调用SparkPlan的execute()方法,返回RDDs。

(五)Spark SQL主要特点

1、将SQL查询与Spark应用程序无缝组合

  • Spark SQL允许使用SQL或熟悉的DataFrame API在Spark程序中查询结构化数据。与Hive不同的是,Hive是将SQL翻译成MapReduce作业,底层是基于MapReduce的;而Spark SQL底层使用的是Spark RDD。
  • 在Spark应用程序中嵌入SQL语句
val res = spark.sql( "SELECT * FROM student")
  • 1

2、Spark SQL以相同方式连接多种数据源

  • Spark SQL提供了访问各种数据源的通用方法,数据源包括HiveAvroParquetORCJSONJDBC等。
  • 读取HDFS中的JSON文件,基于文件内容创建临时视图,最后与其他表根据指定的字段关联查询
// 读取JSON文件
val userScoreDF = spark.read.json("hdfs://master:9000/users.json")
// 创建临时视图user_score
userScoreDF.createTempView("user_score")
// 根据name关联查询
val resDF = spark.sql("SELECT i.age, i.name, c.score FROM user_info i INNER JOIN user_score c ON i.name = c.name")

3、在现有数据仓库上运行SQL或HiveQL查询

  • Spark SQL支持HiveQL语法以及Hive SerDesUDF(用户自定义函数),允许访问现有的Hive仓库。

二、数据帧 - DataFrame

(一)DataFrame概述

  • DataFrame是Spark SQL提供的一个编程抽象,与RDD类似,也是一个分布式的数据集合,但与RDD不同,DataFrame的数据都被组织到有名字的列中,就像关系型数据库中的表一样。在Spark 1.3.0版本之前,DataFrame被称为SchemaRDD。此外,多种数据都可以转化为DataFrame,例如Spark计算过程中生成的RDD、结构化数据文件、Hive中的表、外部数据库等。

(二)将RDD转成DataFrame

  • DataFrame在RDD的基础上添加了数据描述信息(Schema,模式,即元信息),因此看起来更像是一张数据库表。

  • 一个RDD中有5行数据
    在这里插入图片描述

  • 将RDD转成DataFrame
    在这里插入图片描述

  • 使用DataFrame API结合SQL处理结构化数据比RDD更加容易,而且通过DataFrame API或SQL处理数据,Spark优化器会自动对其优化,即使写的程序或SQL不高效,也可以运行得很快。

三、数据集 - Dataset

(一)Dataset概述

  • Dataset是一个分布式数据集,Spark 1.6中添加的一个新的API。相对于RDD,Dataset提供了强类型支持,在RDD的每行数据加了类型约束。而且使用Dataset API同样会经过Spark SQL优化器的优化,从而提高程序执行效率。

(二)将RDD转成DataSet

  • 一个RDD中有5行数据
    在这里插入图片描述
  • 将RDD转换为Dataset
    在这里插入图片描述

(三)DataFrame与Dataset的关系

  • 在Spark中,一个DataFrame所代表的是一个元素类型为RowDataset,即DataFrame只是Dataset[Row]的一个类型别名。

四、简单使用Spark SQL

(一)了解SparkSession

  • Spark Shell启动时除了默认创建一个名为scSparkContext的实例外,还创建了一个名为sparkSparkSession实例,该spark变量可以在Spark Shell中直接使用。
  • 从Spark2.0以上版本开始, Spark使用全新的SparkSession接口替代Spark1.6中的SQLContext及HiveContext接口来实现其对数据加载、转换、处理等功能。SparkSession实现了SQLContext及HiveContext所有功能。
  • SparkSession只是在SparkContext基础上的封装,应用程序的入口仍然是SparkContext。SparkSession允许用户通过它调用DataFrame和Dataset相关API来编写Spark程序,支持从不同的数据源加载数据,并把数据转换成DataFrame,然后使用SQL语句来操作DataFrame数据。

(二)准备工作

1、准备数据文件

1,郑秀芸,女,20
2,王志峰,男,18
3,陈燕文,女,21
4,郑国栋,男,19
5,肖雨涵,男,20
  • /home目录里创建student.txt文件

  • student.txt上传到HDFS的/student/input目录

2、启动Spark Shell

  • 启动Spark Shell,执行命令:spark-shell --master spark://master:7077

(三)加载数据为Dataset

1、读文件得数据集

  • 调用SparkSession对象的read.textFile()可以读取指定路径中的文件内容,并加载为一个Dataset

  • 执行命令:val ds = spark.read.textFile("hdfs://master:9000/student/input/student.txt")

  • 从变量ds的类型可以看出,textFile()方法将读取的数据转为了Dataset。除了使用textFile()方法读取文本内容外,还可以使用csv()jdbc()json()等方法读取CSV文件、JDBC数据源、JSON文件等数据。(csv: comma separated value)

2、显示数据集内容

  • 执行命令:ds.show

  • 可以看出,Dataset将文件中的每一行看作一个元素,并且所有元素组成了一列,列名默认为value

3、显示数据集模式

  • 执行命令:ds.printSchema
  • 这样的单列数据集显得太粗糙,应该加点元数据信息,让它更精细化。

(四)给数据集添加元数据信息

1、定义学生样例类

  • 定义一个样例类Student,用于存放数据描述信息(Schema

  • 执行命令:case class Student(id: Int, name: String, gender: String, age: Int)

  • 基于样例类创建对象很简单,不需要new关键字,只需要传入相应参数即可创建对象

2、导入隐式转换

  • 导入SparkSession的隐式转换,以便后续可以使用Dataset的算子
  • 执行命令:import spark.implicits._ (_表示implicits包里所有的类,类似于Java里的*

3、将数据集转换成学生数据集

  • 调用Dataset的map()算子将每一个元素拆分并存入Student样例对象
  • 执行命令:paste进入粘贴模式,然后执行红框类的命令

val studentDS = ds.map(line => {
      val fields = line.split(",")
      val id = fields(0).toInt
      val name = fields(1)
      val gender = fields(2)
      val age = fields(3).toInt
      Student(id, name, gender, age)
   }
)

4、对学生数据集进行操作

(1)显示数据集内容

  • 执行命令:studentDS.show

  • 可以看到,studentDS中的数据类似于一张关系型数据库的表。

(2)打印数据集模式

  • 执行命令:studentDS.printSchema

(3)对数据集进行投影操作

  • 显示学生的姓名和年龄字段,执行命令:studentDS.select("name", "age").show
  • 对应的SQL语句:select name, age from student

 

(4)对数据集进行过滤操作

  • 显示女生记录,执行命令:studentDS.filter("gender == '女'").show

     

  • 显示年龄在[19, 20]之间的记录

     

  • 两个数据集求交集

     

  • 可以有更简单的处理方式,执行命令:studentDS.filter("age >= 19 and age <= 20").show

     

  • 如果条件是age <19 or age > 20,那么两个数据集ds1与ds2就应该求并集:ds1.union(ds2)

(5)对数据集进行统计操作

  • 求20岁以上的女生人数

     

  • 分组统计男女生总年龄,执行命令:studentDS.groupBy("gender").sum("age").show

     

  • 分组统计男女生平均年龄:执行命令:studentDS.groupBy("gender").sum("age").show

     

  • 分组统计男女生最大年龄,执行命令:studentDS.groupBy("gender").max("age").show

     

  • 分组统计男女生最小年龄,执行命令:studentDS.groupBy("gender").min("age").show

     

(6)对数据集进行排序操作

  • 按年龄升序排列,执行命令:studentDS.sort("age").show()

     

  • 按年龄降序排列,执行命令:studentDS.sort(studentDS("age").desc).show

     

  • 先按性别升序排列,再按年龄降序排列,执行命令:studentDS.sort(studentDS("gender"), studentDS("age").desc).show()

     

  • 对应的SQL语句:select * from student order by gender, age desc;

(7)重命名数据集字段

  • 执行命令:studentDS.select(studentDS("id").as("学号"), studentDS("name").as("姓名"), studentDS("gender").as("性别"), studentDS("age").as("年龄")).show

 

(五)将数据集转为数据帧

  • Spark SQL查询的是DataFrame中的数据,因此需要将存有元数据信息的Dataset转为DataFrame。调用Dataset的toDF()方法,将存有元数据的Dataset转为DataFrame。

1、将数据集转为数据帧

  • 将学生数据集转为学生数据帧,执行命令:val studentDF = studentDS.toDF()

 

2、对学生数据帧进行操作

(1)显示数据帧内容

  • 显示学生数据帧内容,执行命令:studentDF.show

 

(2)显示数据帧模式信息

  • 打印学生数据帧模式信息,执行命令:studentDF.printSchema

 

(3)对数据帧进行投影操作

  • 显示学生数据帧姓名与年龄字段,年龄加1,执行命令:studentDF.select(studentDF("name"), studentDF("age") + 1).show

 

(4)对数据帧进行过滤操作

  • 查询年龄在19岁以上的记录,执行命令:studentDF.filter(studentDF("age") > 19).show

     

  • 查询20岁以上的女生记录,执行命令:studentDF.filter("age > 20 and gender == '女'").show()

     

(5)对数据帧进行统计操作

  • 统计学生数据帧总记录数,执行命令:studentDF.count

     

  • 分组统计男女生总年龄,执行命令:studentDF.groupBy("gender").sum("age").show

     

  • 分组统计男女生平均年龄,执行命令:studentDF.groupBy("gender").avg("age").show

     

  • 分组统计男女生最大年龄,执行命令:studentDF.groupBy("gender").max("age").show

     

  • 分组统计男女生最小年龄,执行命令:studentDF.groupBy("gender").min("age").show

     

  • 分组统计男女生人数,执行命令:studentDF.groupBy("gender").count.show

     

(6)对数据帧进行排序操作

  • 对年龄升序排列,执行命令:studentDF.sort("age").show

     

  • 对年龄降序排列,执行命令:studentDF.sort(studentDF("age").desc).show

     

  • 先按性别升序,再按年龄降序,- 执行命令:studentDF.sort(studentDF("gender"), studentDF("age").desc).show

     

(7)重命名数据帧字段

  • 执行命令:studentDF.select(studentDF("id").as("学号"), studentDF("name").as("姓名"), studentDF("gender").as("性别"), studentDF("age").as("年龄")).show

     

  • 直接对数据帧进行操作,其实并不是很方便,因此,我们需要基于数据帧创建临时视图,然后对于临时视图就可以进行SQL操作,那样就会十分方便。

(六)基于数据帧进行SQL查询

1、基于数据帧创建临时视图

  • 基于学生数据帧studentDF,创建一个临时视图student,就可以对student视图进行SQL操作

  • 执行命令:studentDF.createTempView("student")

     

  • 如果临时视图存在,使用这个命令就会报错

     

  • 此时,执行命令:studentDF.createOrReplaceTempView("student"),就不会报错

     

  • 如果指定的视图不存在,那就创建,如果存在,那就替换。

2、使用spark对象执行SQL查询

  • 在Spark Shell环境里,系统已经创建了名为sparkSparkSession对象
  • spark.sql()方法用于执行一个SQL查询,返回结果是一个数据帧

(1)查询全部表记录

  • 执行命令:spark.sql("select * from student").show

 

(2)显示数据表结构

  • 执行命令:spark.sql("describe student").show

 

(3)对表进行投影操作

  • 执行命令:spark.sql("select name, age + 1 from student").show

 

(4)对表进行选择操作

  • 查询年龄在19岁以上的记录,执行命令:spark.sql("select * from student where age > 19").show

     

  • 查询20岁以上的女生记录,执行命令:spark.sql("select * from student where age > 20 and gender = '女'").show()

     

(5)对表进行统计操作

  • 查询学生表总记录数,执行命令:spark.sql("select count(*) count from student").show

     

  • 大家试一试,可否使用中文别名。用中文别名要抛出解析异常。

     

  • 分组统计男女生总年龄,执行命令:spark.sql("select gender, sum(age) from student group by gender").show

     

  • 分组统计男女生平均年龄,执行命令:spark.sql("select gender, avg(age) from student group by gender").show

     

  • 分组统计男女生最大年龄,执行命令:spark.sql("select gender, max(age) from student group by gender").show

     

  • 分组统计男女生最小年龄,执行命令:spark.sql("select gender, min(age) from student group by gender").show

     

  • 分组统计男女生人数,执行命令:spark.sql("select gender, count(*) count from student group by gender").show

     

(6)对表进行排序操作

  • 按年龄升序排列,执行命令:spark.sql("select * from student order by age").show

     

  • 按年龄降序排列,执行命令:spark.sql("select * from student order by age desc").show

     

  • 先按性别升序,再按年龄降序,执行命令:spark.sql("select * from student order by gender asc, age desc").show

     

(7)重命名数据表字段

  • 执行命令:spark.sql("select id stu_id, name stu_name, gender stu_gender, age stu_age from student").show()

     

  • 执行命令:spark.sql("select id 学号, name 姓名, gender 性别, age 年龄 from student").show(),无法解析中文别名

     

五、课后作业

  • 成绩表,包含四个字段(姓名、语文、数学、英语),只有三条记录
姓名语文数学英语
张钦林789076
陈燕文958898
卢志刚788060
  • /home里创建scores.txt文件

     

  • scores.txt文件上传到HDFS上指定目录

     

  • 基于scores.txt文件,创建scoreDF数据帧

  • 基于scoreDF数据帧进行下列操作
    (1)显示数据帧内容
    (2)显示数据帧模式信息
    (3)对数据帧进行投影操作
    (4)对数据帧进行过滤操作
    (5)对数据帧进行统计操作
    (6)对数据帧进行排序操作
    (7)重命名数据帧字段

  • 基于scoreDF数据帧创建临时表score

  • 基于score数据表进行下列操作
    (1)查询全部表记录
    (2)显示数据表结构
    (3)对表进行投影操作
    (4)对表进行选择操作
    (5)对表进行统计操作
    (6)对表进行排序操作
    (7)重命名数据表字段

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/29071.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

物联网Lora模块从入门到精通(二) LED灯泡闪烁与呼吸灯

目录 一、前言 二、实践与代码 1.电亮LED1 2.熄灭LED1 3.翻转LED电平 4.LED1与LED2交替闪烁 5.LED1呼吸灯 三、程序代码 一、前言 本篇内容属于新大陆物联网Lora模块开发&#xff0c;使用给定的Lora基础例程&#xff0c;并在其基础上开发完成&#xff0c;并可为其他版本的Lo…

亚马逊云科技Serverless构建的实时数仓解决方案,助力猎豹降低30%成本

也许你也听过这样一句话&#xff1a;“21世纪什么最贵&#xff1f;人才&#xff01;”当数字经济全面席卷而来&#xff0c;这个问题的答案不可置否地变为了“数据”。通过数据分析获取近乎实时的洞察&#xff0c;以驱动业务的全流程&#xff0c;是企业数字化转型的必经之路。借…

Linux操作系统学习——启动

概要 Linux操作系统内核是服务端学习的根基&#xff0c;也是提高编程能力、源码阅读能力和进阶知识学习能力的重要部分&#xff0c;本文开始将记录Linux操作系统中的各个部分源码学习历程。 1. 理解代码的组织结构 以Linux源码举例&#xff0c;首先你得知道操作系统分为哪几个部…

【SpringCloud入门】-- 初识Eureka注册中心

目录 1.SpringCloudEureka简介 2.什么是CAP原则&#xff1f; 3.注册中心的概念&#xff1f; 4.SpringCloud其他注册中心 5.搭建Eureka注册中心 6.eureka的配置(主要是server&#xff0c;instance&#xff0c;client) 7.eureka集群概念 8.eureka集群搭建 1.SpringCloudE…

基于R语言的物种气候生态位动态量化与分布特征模拟

目录 专题一 引言 专题二 数据获取与处理方法 专题三 组合物种分布模型&#xff08;Ensemble Species Distribution Model&#xff09;的原理与使用 专题四 拓展研究 专题五 结果分析与论文写作 专题六 案例分析 专题七 总结和展望 利用R语言进行物种气候生态位动态量化…

【蓝桥杯算法题】用java遍写税收计算

【蓝桥杯算法题】用java遍写税收计算 题目&#xff1a;劳务报酬税收计算&#xff1a;输入 m &#xff0c;输出税后收入。如果 m <800&#xff0c;不扣税&#xff0c; 如果800< m <4000&#xff0e;则 m 减去800后的金额扣除20&#xff05;所得税。如果 m >4000&…

【计算机网络详解】——运输层(学习笔记)

&#x1f4d6; 前言&#xff1a;两台主机的通信&#xff0c;实际上两台主机中的应用进程进行通信&#xff0c;而在一台计算机中&#xff0c;用不同的端口号标识不同的应用进程。本节将介绍传输层的相关内容&#xff0c;包括端口号的分配方法、端口号的复用与分用、以及传输层的…

编译tolua——3、以pbc为例子,添加第三方库

目录 1、编译工具和环境说明 2、基础编译tolua 3、以pbc为例子&#xff0c;添加第三方库 4、更新luaJit 大家好&#xff0c;我是阿赵。 之前分享过怎样正常编译基础版本的tolua。这次用添加pbc为例&#xff0c;看看怎样往tolua里面添加其他的第三方库。知道了方法之后&#xf…

本地项目托管到 Gitee

本地项目托管到 Gitee 1、创建远程仓库2、Git Bash Here第一步&#xff1a;初始化本地仓库 git init第二步&#xff1a;建立链接git remote add origin xxx第三步&#xff1a;将远程仓库中的文件推送至本地仓库中git pull --rebase origin master第四步&#xff1a;将本地项目放…

【利用AI让知识体系化】简要了解网络七层协议

文章目录 一、前言引言目的和意义 二、网络七层协议简介OSI参考模型七层协议分层结构和各层协议简介 三、物理层 - Layer 1物理层概述物理层的作用物理层标准和协议 四、数据链路层 - Layer 2数据链路层概述常见的协议 五、网络层 - Layer 3网络层概述网络层的作用IP地址的作用…

cool-admin框架后端使用-node版本,线上宝塔部署

版本6.x 宝塔新建一个文件夹和创建好数据库&#xff0c;记录账号和密码&#xff0c;自行创建&#xff0c;不做说明 特别注意&#xff0c;如果用宝塔node管理那里运行&#xff0c;如果按照到有pm2的&#xff0c;要先卸载&#xff0c;不可以共存&#xff0c;会有冲突 cool-vue前端…

爬虫数据采集需要什么样的代理ip以及遇到的反爬措施

随着互联网的快速发展&#xff0c;数据已经成为许多行业中的重要资源。网络爬虫作为一种数据采集工具&#xff0c;在许多领域中得到了广泛应用。但是现在很多网站都有非常多的限制&#xff0c;所以在爬取数据的时候&#xff0c;还需要借助代理ip来助力&#xff0c;才能更好的完…

谁说不可兼得,用scrcpy实现手机免流播放bilibili投屏电脑

目前的手机大额流量卡都是支持设备免流的&#xff0c;但是如何将这个流量用在其他设备&#xff0c;就相当麻烦。于是我查找了些相关Android投屏技术资料&#xff0c;发现了一个简单的USB投屏工具——scrcpy。 安装说明 Office&#xff1a;https://github.com/Genymobile/scrcp…

深度学习之卷积神经网络(CNN)

大家好&#xff0c;我是带我去滑雪&#xff01; 卷积神经网络&#xff08;Convolutional Neural Network&#xff0c;CNN&#xff09;是一种基于深度学习的前馈神经网络&#xff0c;主要用于图像和视频识别、分类、分割和标注等计算机视觉任务。它主要由卷积层、池化层、全连接…

手机技巧:安卓微信 8.0.38 内测版本功能一览

2023年6月14号安卓版本的微信8.0.38又开始内测了&#xff0c;今天就赶紧下载体验一下&#xff0c;下面就来给大家一一介绍&#xff0c;本次安卓微信内测版本功能更新&#xff0c;感兴趣的朋友可以文末下载体验一下&#xff01; 首先看一下官方的更新内容&#xff1a; 本次更新…

网络安全实验室|网络信息安全攻防学习平台(脚本关1-6)

传送门&#xff1a; http://hackinglab.cn/ 1. key又又不见了 点击此处开启抓包&#xff0c;send ti repeater 模块 yougotit_script_now2. 快速口算 脚本来源&#xff1a; https://blog.csdn.net/hzxtjx/article/details/125692349 import requests,re# 自动处理cookies&a…

Java+Swing+mysql仿QQ聊天工具

JavaSwingmysql仿QQ聊天工具 一、系统介绍二、功能展示1.用户登陆2.好友列表3.好友聊天4.服务器日志 三、系统实现四、其它1.其他系统实现2.获取源码 一、系统介绍 系统主要功能&#xff1a;用户登陆、好友列表、好友聊天、服务器日志 二、功能展示 1.用户登陆 2.好友列表 3…

Ubuntu远程装载硬盘Mount and unmount disk

小虎本来以为Ubuntu&#xff08;Linux系统&#xff09;不能够远程装载硬盘&#xff0c;每次重开机都要线下重新装载硬盘。但是苦于工作站不在身边&#xff0c;跑来跑去太麻烦&#xff0c;所以想远程装载一下。 解决方法 遍历搜索所有硬盘。找到对应名字。 lsblk创建一个文件…

Unity中Camera参数—Culling Mask详解

Culling Mask 如下图所示&#xff1a; 显示层级如下&#xff1a; 应用&#xff1a; Culling Mask &#xff1a;主要是相机针对不同层级的物体进行渲染的操作&#xff08;想让相机渲染哪个层就勾选哪个层&#xff09; 层级介绍&#xff1a; unity中的层前7个被unity锁定&#…

RISC-V体系结构的U-Boot引导过程 第一阶段

RISC-V体系结构的U-Boot引导过程 第一阶段 flyfish .globl _start _start:.globl使符号对链接器可见相当于C语言中的Extern&#xff0c;声明此变量&#xff0c;并且告诉链接器此变量是全局变量&#xff0c;外部可以访问.u-boot.lds里的ENTRY(_start)也是这里的_start。 即指定…