跨境电商选品实战——Ownips静态ip代理+Python爬虫轻松搞定Lazada电商选品

文章目录

  • 一、引言
  • 二、Lazada电商平台爬虫实战
    • 2.1、分析Lazada电商平台的商品列表接口
    • 2.2、定位商品列表计算逻辑
    • 2.3、封装IP代理
    • 2.4、运行爬虫
  • 三、数据处理及选品分析
  • 四、Ownips——企业级全球静态IP代理

一、引言

互联网与外贸的结合,催生了蓬勃兴起的跨境电子商务。基于这种跨越国界的电子商务模式,企业不再受限于传统的地域销售,而是可以将产品推向全球市场,实现全球范围的发展。

然而,与传统的国内电商相比,国际市场消费者的需求、偏好、文化习惯等差异巨大,因此我们在选品方面也面临更为复杂的挑战。根据目标市场的需求和特点精选出适合销售的产品,直接影响一个商家的竞争力,而选品也不仅仅是销售产品,更是树立品牌形象和提升竞争力的重要手段。

在这里插入图片描述

对于许多初入跨境电商领域的新手而言,选品方法通常局限于国内市场的经验和视野,缺乏对全球市场的深入了解和把握,数据来源有限,难以抓住市场需求和竞争态势。本文将结合实际操作和理论分析,以Lazada电商平台为例,利用Python爬虫与Ownips静态IP代理(我常用的代理品牌)相结合的方式来进行选品,以全新的视角实战跨境电商选品,希望可以给新手商家们一些选品方法。

二、Lazada电商平台爬虫实战

2.1、分析Lazada电商平台的商品列表接口

熟悉电商的朋友肯定知道,一个平台的商品列表中包含了商品的名称、类别、价格、描述、评价、销售量等信息,这些信息可以帮助商家全面了解市场需求、价格竞争情况、产品特性和销售策略等方面。

我们首先进入Lazada电商平台商品列表:https://www.lazada.com.ph/catalog,然后在搜索框中输入搜索的关键词,这里以“clothes”为例:

在这里插入图片描述

然后按下F12键,进入浏览器开发者模式界面,点击打开网络窗口和搜索窗口,按下F5刷新一次请求,搜索本页的最后一个商品的前几个词,就可以找到对应请求。
在这里插入图片描述

在右侧窗口中可以看到对应请求的标头、载荷和响应体:

在这里插入图片描述

下面我们来分析这个请求,点开标头可以看到请求的网址,这里可以拿到商品搜索的api为:https://www.lazada.com.ph/catalog/,然后记录请求标头的全部内容,作为后续爬虫的headers;其次点开载荷,这里可以看到api的参数,其中比较重要的参数有:isFirstRequest表示是否为首次访问 ,page表示为当前页,是爬虫爬取多页的关键参数,q表示搜索的关键词,spm为追踪参数,平台用于追踪搜索记录。这几个参数一般都不会被用来反爬,所以我们就可以进行正式开发。
在这里插入图片描述

2.2、定位商品列表计算逻辑

找到api接口并分析后,正式进入开发流程,首先我们需要对响应体进行分析,首先我们可以把这个响应体复制下来保存为json文件,然后搜索第一个商品的信息,找到商品所在的列表,然后可以搜索第二、第三个和最后一个商品,看其排序是否与列表中一致,若不一致还要重新计算排序逻辑。
在这里插入图片描述

分析JSON可以得知,商品列表存在mods.listItems中,所以我们可以使用Python中的requests库发送HTTP GET请求到https://www.lazada.vn/catalog/,同时传递刚刚记录下来的参数params和请求头headers,得到response对象后,使用jsonpath模块的jsonpath函数来解析,这里可以使用JSONPath表达式'$.mods.listItems.*'来提取responsemods对象下的listItems数组的所有元素:

response = requests.get('https://www.lazada.vn/catalog/',params=params, headers=headers).json()
data = jsonpath.jsonpath(response, '$.mods.listItems.*')
print(data)
print(len(data))

得到商品列表信息后,可以打印出来看一下格式并且查到每一页的商品数量为40,这与我们在官网的商品搜索得到的数量一致,因此,我们可以通过控制分页参数page来一次性爬取多个商品的信息,比如爬取关键词为“clothes”的第1页到第3页全部商品:

for page in range (1, 4):
      params = {
        "_keyori": "ss",
        "ajax": 'true',
        "catalog_redirect_tag": 'true',
        "from": "input",
        "isFirstRequest": 'true',
        "page": page,
        "q": "clothes",
        "spm":"a2o4l.home-ph.search.go.23*******tG"
      }
      response = requests.get('https://www.lazada.vn/catalog/',params=params, headers=headers).json()
      data = jsonpath.jsonpath(response, '$.mods.listItems.*')
      #print(data)
      print(len(data))

至此,商品列表的基本计算逻辑已经理清。

2.3、封装IP代理

然而,Lazada一类的电商网站通常会监控和识别过于频繁的请求,如果检测到来自同一IP地址的大量请求,可能会将该IP地址列入黑名单或暂时封禁,使得爬虫无法继续获取数据。这里选择使用静态IP代理方法,通过配置代理服务器,将爬虫程序的请求通过该代理服务器转发,从而隐藏爬虫程序的真实IP地址。

这种方法不仅能够有效应对Lazada网站的反爬虫机制,防止被封禁,还可以模拟来自特定国家或地区的网络请求,从而伪装成该地区的用户访问目标网站或应用,更深入地了解国外用户的行为和需求。

本次实战使用Ownips进行全球静态IP代理,首先登录Ownips官网 ,登录后根据使用的场景(跨境电商、跨境服务、社媒、论坛)和所需的地区来选择出高质量的ip,我这里选择 跨境平台–Lazada为例:

在这里插入图片描述

然后点击获取代理,选择API提取模式:

在这里插入图片描述

选择单ISP,然后选择代理协议为HTTP/HTTPS,提取格式可以就用TXT+回车换行形式:

在这里插入图片描述

最后点击生成API链接并把本机的ip添加到白名单里,然后在将高质量和安全的静态IP代理封装进爬虫代码中,其主要逻辑如下:

def lazada(host, port):
    ###################
    # 定义params、headers....
    ###################
    
    # 设置代理
    proxies = {
        'http': 'http://{}:{}'.format(host, port),
        'https': 'http://{}:{}'.format(host, port),
    }
    # 利用代理发送requests
    response = requests.get('https://www.lazada.vn/catalog/',params=params,proxies = proxies, headers=headers).json()


if __name__ == '__main__':
    # 提取代理API接口,获取1个代理IP
    api_url = "https://api-proxy.ownips.com/getIsp?num=1&type=2&lb=1&sb=0&flow=1&regions=&attribute=isp"
    # 获取API接口返回的代理IP
    resp = requests.get(url=api_url, timeout=5).text
    myip, myport = resp.split(":")
    print("ip:" + myip + " port:" + myport)
    lazada(myip, myport) 

拥有多个代理ip的话,还可以进行多线程爬虫,分别以获取到的代理IP和端口作为参数,执行 lazada 的函数:

class ThreadFactory(threading.Thread):
    def __init__(self, host, port):
        threading.Thread.__init__(self)
        self.host = host
        self.port = port

    def run(self):
        lazada(self.host, self.port)
        

if __name__ == '__main__':
    # 提取代理API接口,获取1个代理IP
    api_url = "https://api-proxy.ownips.com/getIsp?num=1&type=2&lb=1&sb=0&flow=1&regions=&attribute=isp"

    while 1 == 1:
    # 每次提取10个,放入线程中
    resp = rq.get(url=api_url, timeout=5)
    try:
        if resp.status_code == 200:
            dataBean = json.loads(resp.text)
        else:
            print("获取失败")
            time.sleep(1)
            continue
    except ValueError:
        print("获取失败")
        time.sleep(1)
        continue
    else:
        # 解析json数组
        print("code=", dataBean["code"])
        code = dataBean["code"]
        if code == 0:
            threads = []
            for proxy in dataBean["data"]:
                threads.append(ThreadFactory(proxy["ip"], proxy["port"]))
            for t in threads:  # 开启线程
                t.start()
                time.sleep(0.01)
            for t in threads:  # 阻塞线程
                t.join()
    # break
    time.sleep(1)

2.4、运行爬虫

在申请到IP代理后,就可以正常进行爬虫爬取批量数据了,首先从Ownips提供的代理链接获取代理IP和端口号,然后使用 requests.get 方法发送 HTTP GET 请求,获取到 Lazada 网站的响应,并将响应结果解析为 JSON 格式,然后使用 jsonpath.jsonpath 方法提取响应中的商品信息,并将其存储到变量 data 中。得到data后,遍历每次爬虫爬到的 data 中的每个商品信息,提取其中的商品名称、原始价格、销售价格、评分、评价数量、地点、卖家名称、卖家ID、品牌名称和品牌ID 等字段信息并使用 openpyxl 库将提取的商品信息写入到 Excel 文件中,并设置单元格的对齐方式为水平居中和垂直居中,最终保存到 result.xlsx 文件当中。

完整的爬虫源代码如下,部分敏感信息做了模糊化处理:

import requests, jsonpath, openpyxl
from openpyxl.styles import Alignment
import json
import time

def lazada(host, port):
    wb = openpyxl.Workbook()
    sheet = wb.active
    header=['name','originalPriceShow','priceShow','ratingScore','review','location','sellerName','sellerId','brandName','brandId']
    sheet.append(header)
    
    headers = {
      "authority": "www.lazada.com.ph",
      "method": "GET",
      "path": "/tag/%E5%A5%B3%E8%A3%85/?_keyori=ss&ajax=true&catalog_redirect_tag=true&from=input&isFirstRequest=true&page=1&q=%E5%A5%B3%E8%A3%85&spm=a2o4l.home-ph.search.go.******hBy",
      "scheme": "https",
      "Accept": "application/json, text/plain, */*",
      "Accept-Encoding": "gzip, deflate, br, zstd",
      "Accept-Language": "zh-CN,zh;q=0.9",
      "Cookie": "__wp***********************************************************AJjnU",
      "Referer": "https://www.lazada.com.ph/",
      "Sec-Ch-Ua": ""Not A(Brand";v="99", "Google Chrome";v="121", "Chromium";v="121"",
      "Sec-Ch-Ua-Mobile": "?0",
      "Sec-Ch-Ua-Platform": ""Windows"",
      "Sec-Fetch-Dest": "empty",
      "Sec-Fetch-Mode": "cors",
      "Sec-Fetch-Site": "same-origin",
      "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36",
      "X-Csrf-Token": "e**********",
      "X-Requested-With": "XMLHttpRequest"
    }
    proxies = {
        'http': 'http://{}:{}'.format(host, port),
        'https': 'http://{}:{}'.format(host, port),
    }
    
    for page in range (1, 20):
      params = {
        "_keyori": "ss",
        "ajax": 'true',
        "catalog_redirect_tag": 'true',
        "from": "input",
        "isFirstRequest": 'true',
        "page": page,
        "q": "clothes",
        "spm":"a2o4l.home-ph.search.go.***********G"
      }
      response = requests.get('https://www.lazada.vn/catalog/',params=params,proxies = proxies, headers=headers).json()
      data = jsonpath.jsonpath(response, '$.mods.listItems.*')
      print(len(data))
      for item in data:
          name = jsonpath.jsonpath(item,'$.name')[0]
          originalPriceShow = jsonpath.jsonpath(item,'$.originalPriceShow')[0]
          priceShow = jsonpath.jsonpath(item,'$.priceShow')[0]
          ratingScore = jsonpath.jsonpath(item,'$.ratingScore')[0]
          review = jsonpath.jsonpath(item,'$.review')[0]
          location = jsonpath.jsonpath(item,'$.location')[0]
          sellerName = jsonpath.jsonpath(item,'$.sellerName')[0]
          sellerId = jsonpath.jsonpath(item,'$.sellerId')[0]
          brandName = jsonpath.jsonpath(item,'$.brandName')[0]
          brandId = jsonpath.jsonpath(item,'$.brandId')[0]
          sheet.append([name,originalPriceShow,priceShow,ratingScore,review,location,sellerName,sellerId,brandName,brandId])
      
      max_rows = sheet.max_row
      max_columns = sheet.max_column
      
      align = Alignment(horizontal = 'center', vertical = 'center')
      
      for i in range(1, max_rows + 1):
          for j in range(1, max_columns + 1):
              sheet.cell(i, j).alignment = align
      wb.save('result.xlsx') 
      time.sleep(10)         
    print("end")

if __name__ == '__main__':
    # 提取代理API接口,获取1个代理IP
    api_url = "https://api-proxy.ownips.com/getIsp?num=1&type=2&lb=1&sb=0&flow=1&regions=&attribute=isp"
    # 获取API接口返回的代理IP
    resp = requests.get(url=api_url, timeout=5).text
    myip, myport = resp.split(":")
    print("ip:" + myip + " port:" + myport)
    lazada(myip, myport)

运行完成后,最终得到的result.xlsx数据文件如下图所示:
在这里插入图片描述

三、数据处理及选品分析

拿到数据后,就可以对第二章采集到的数据开始分析选品了,首先对平台商品的标题高频词进行词云分析,可以发现在clothes作为关键词搜索下,商品标题的Tshirt和Cotton占比较高

在这里插入图片描述

其次可以对发货地进行分析,通过统计出现频率,发现当前ip爬到的商品大部分发货地来自于Metro Manila这个地点,占比55%:

在这里插入图片描述

还可以从评分、销量、价格等方面多维分析,通过使用柱状图、折线图、扇形图对数据可视化:
在这里插入图片描述
在这里插入图片描述

以下是可参考的选品分析方法,具体分析需要结合需求和市场去制定策略:

  1. 对商品的原始价格和销售价格进行统计和比较,探索商品的价格变化趋势,找出价格竞争力较强的商品。
  2. 对商品的评价数量和评分进行统计,分析商品的受欢迎程度和用户满意度,按照不同品牌、类别或卖家对评价和评分进行对比,找出高口碑的商品。
  3. 可以根据IP的地理位置信息了解不同地区的商品偏好和销售情况,进行地域性营销策略的制定。
  4. 对商品的品牌进行统计,了解不同品牌的市场份额和影响力,为品牌营销提供参考。
  5. 根据商品的排序与特征(如品牌、价格、评分等)之间的关系进行商品推荐和相似商品挖掘,根据商品的上架时间和销售情况,分析市场的发展趋势和产品生命周期。通过对商品特征的分析,预测未来市场的发展方向和趋势

四、Ownips——企业级全球静态IP代理

针对跨境电商领域的多样化业务需求,许多出海企业正在积极寻找可靠的解决方案来克服挑战。静态IP代理作为一项关键技术工具,不仅能够帮助这些企业解决访问稳定性、网站信任度以及防封禁能力等问题,还在跨境电商、跨境社媒和广告营销等领域发挥着重要作用。
在这里插入图片描述

这里推荐一款我经常使用的企业级全球静态IP代理服务:Ownips。Ownips优选原生本土ISP,定向提供独享静态家庭住宅和独享数据中心IP代理,具备以下优势:

  1. A++级严选原生ISP服务:Ownips专注于提供A++级严选原生ISP服务,其与全球运营商合作,资源覆盖欧美主流、东南亚等全球100+国家地区,其中,独享静态ISP代理来自真实住宅设备的原生私人IP,具备完全的真人属性,更高业务安全性,稳定运行不掉线,专用数据中心代理来自全球国家的本地原生机房和个人专用的服务器IP,具有更高稳定性和更快的连接速度。
  2. 完整的合作伙伴生态链:Ownips具备丰富行业经验的技术+商务团队,能够整合软件集成、跨境工具等生态资源,完美适用于各种业务场景。
  3. 第三方工具集成:Ownips支持与大多数指纹浏览器进行快捷集成,用户可以直接将Ownips提供的服务与指纹浏览器进行无缝连接,防止账号之间的关联,保护隐私和安全。

在经过了较长时间的体验后,可以说Ownips可以满足跨境电商在店铺管理、社媒营销、市场调查等各方面业务场景:

  1. 在店铺管理方面,通过使用静态IP代理可在电商平台创建并管理多个店铺账号,独立安全防止账号关联,降低账号风险。
  2. 在社媒营销方面,商家可以运营多个社媒平台账号,搭建引流矩阵,广告精准投放并全面覆盖消费者人群,提高广告的点击率和转化率。
  3. 在市场调查方面,使用静态IP代理了解不同国家地区用户的喜好和购买习惯,掌握海外市场分布状况,行业发展前景预测,维持竞争力。
    在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/451955.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

el-Switch 开关二次确认

前言 最近在做毕设,有个需求是点击按钮控制用户的状态是否禁用,就看到element有个switch组件可以改造一下,就上网看了一下,结果为了这个效果忙活了很久。。。所以说记录一下,让大家少踩坑。 前置条件 先看完我的需求再…

spring-boot操作elasticsearch

一、环境准备 springboot与elasticsearch的更新都非常快&#xff0c;为了避免兼容性问题&#xff0c;要注意下选择的版本问题。具体的可参考官网 --> springboot与elasticsearch版本兼容性 1.1导入依赖 <dependencies><dependency><groupId>org.spring…

挖掘内容资讯App流量价值,Xinstall传参安装技术引领行业变革

在移动互联网时代&#xff0c;内容资讯App已经成为人们获取信息的重要途径。然而&#xff0c;随着用户量的不断增长和业务的不断拓展&#xff0c;如何有效地挖掘流量价值&#xff0c;成为了摆在众多内容资讯App面前的一大难题。而传参安装技术的出现&#xff0c;为这一难题的解…

Web——HTML

一.HTML概述 超文本标记语言&#xff08;英语&#xff1a;HyperText Markup Language&#xff0c;简称&#xff1a;HTML&#xff09;是一种用于创建网页的标准标记语言。可以使用 HTML 来建立自己的 WEB 站点&#xff0c;HTML 运行在浏览器上&#xff0c;由浏览器来解析。 二.…

2024 遗传编程实战(一)基因实战

2024 遗传编程实战&#xff08;一&#xff09;基因实战 文章目录 2024 遗传编程实战&#xff08;一&#xff09;基因实战一、遗传编程实战介绍1、遗传编程简介2、遗传编程和进化论的关系3、遗传编程过程解释 二、基于遗传编程的例子1、实战题目介绍2、遗传算法的伪代码3、遗传实…

无人机机载频谱监测方案助力空中频谱监测与干扰排查

作者介绍 一、方案背景 频谱资源是通信最重要的资产之一&#xff0c;随着宽带无线业务的快速增长&#xff0c;对频率资源的需求大幅增加。未来频率资源的供需矛盾将非常突出&#xff0c;空中频谱环境也会越来越复杂&#xff0c;对于工程师来说&#xff0c;在复杂的电磁环境条件…

视频监控/云存储EasyCVR视频融合平台设备增删改操作不生效是什么原因?

国标GB28181协议EasyCVR安防平台可以提供实时远程视频监控、视频录像、录像回放与存储、告警、语音对讲、云台控制、平台级联、磁盘阵列存储、视频集中存储、云存储等丰富的视频能力&#xff0c;平台支持7*24小时实时高清视频监控&#xff0c;能同时播放多路监控视频流&#xf…

C++开发基础——类模板

一&#xff0c;基础定义 类模板是用来生成类的蓝图&#xff0c;是一种创建类的方式&#xff0c;同一套类模板可以生成很多种不同的类。 编译器基于类模板生成的每个类被称为类模板的实例。 第一次使用模板类型声明变量时&#xff0c;会创建类模板的一个实例&#xff0c; 以后…

3D Gaussian Splatting for Real-Time Radiance Field Rendering(慢慢啃,还是挺复杂的)

三个关键要素 从相机配准的过程中得到的稀疏点云开始&#xff0c;使用3D Gaussian表示场景; 3D Gaussian: 是连续体积辐射场能够防止不必要的空空间优化。对 3D Gaussion进行交叉优化和密度控制: 优化各向异性血方差对场景精确表示。使用快速可视感知渲染算法来进行快速的训练…

最好用的流程编辑器bpmn-js系列之基本使用

BPMN&#xff08;Business Process Modeling Notation&#xff09;是由业务流程管理倡议组织BPMI&#xff08;The Business Process Management Initiative&#xff09;开发的一套标准的业务流程建模符号规范。其目的是为用户提供一套容易理解的标准符号&#xff0c;这些符号作…

Java代码审计工程师直播第六期

本期直播课程将深入探讨Java代码审计的关键概念和技术。涵盖课题包括安全漏洞分析、代码审查方法、常见漏洞案例分析等。学员将通过实例掌握代码审计实战技能&#xff0c;提升对Java应用程序安全的认知和技能水平。 课程大小&#xff1a;6.1G 课程下载&#xff1a;https://do…

基于YOLOv8/YOLOv7/YOLOv6/YOLOv5的稻田虫害检测系统详解(深度学习+Python代码+UI界面+训练数据集)

摘要&#xff1a;本篇文章深入探讨了如何利用深度学习技术开发一个用于检测稻田虫害的系统&#xff0c;并且分享了完整的实现过程和资源代码下载。该系统采用了当前的YOLOv8、YOLOv7、YOLOv6、YOLOv5算法&#xff0c;对其进行了性能对比&#xff0c;包括mAP、F1 Score等关键指标…

java中xml概述

1.xml 1.1概述【理解】 万维网联盟(W3C) 万维网联盟(W3C)创建于1994年&#xff0c;又称W3C理事会。1994年10月在麻省理工学院计算机科学实验室成立。 建立者&#xff1a; Tim Berners-Lee (蒂姆伯纳斯李)。 是Web技术领域最具权威和影响力的国际中立性技术标准机构。 到目前为…

Linux认识与学习BASH

Linux认识与学习BASH 认识BASH这个Shellshell是什么系统的合法shell与/etc/shells功能Bash Shell的功能查询命令是否为Bash shell 的内置命令(type)命令的执行与快速编辑按钮 shell的变量功能什么是变量&#xff1f;变量的使用与设置&#xff1a;echo、变量设置规则、unset环境…

鸿蒙Harmony应用开发—ArkTS声明式开发(基础手势:Slider)

滑动条组件&#xff0c;通常用于快速调节设置值&#xff0c;如音量调节、亮度调节等应用场景。 说明&#xff1a; 该组件从API Version 7开始支持。后续版本如有新增内容&#xff0c;则采用上角标单独标记该内容的起始版本。 子组件 无 接口 Slider(options?: SliderOption…

Linux:时间指令 - cal date

Linux&#xff1a;时间指令 - cal & date date指令cal指令 date指令 date用于以指定格式显示时间 我们先看看直接输入date指令的效果&#xff1a; [hxyiZ2zehtehrgzt3wqccrpyfZ CSDN]$ date Tue Mar 12 21:38:01 CST 2024直接输入date指令&#xff0c;得到了以 星期 月 日…

RANDOMIZE-IN-PLACE随机排列算法

给定一个长度为 n n n的数组&#xff0c;如何构造出一个随机排列呢&#xff1f;《算法导论》给了我们一个名为RANDOMIZE-IN-PLACE的随机算法&#xff0c;该算法在数组原址上进行排序&#xff0c;时间复杂度为 O ( n ) O(n) O(n)。下面本文将介绍RANDOMIZE-IN-PLACE的设计思想及…

基于YOLOv8/YOLOv7/YOLOv6/YOLOv5的水下目标检测系统(深度学习模型+UI界面+训练数据集)

摘要&#xff1a;本研究详述了一种采用深度学习技术的水下目标检测系统&#xff0c;该系统集成了最新的YOLOv8算法&#xff0c;并与YOLOv7、YOLOv6、YOLOv5等早期算法进行了性能评估对比。该系统能够在各种媒介——包括图像、视频文件、实时视频流及批量文件中——准确地识别水…

HarmonyOS NEXT应用开发之多层嵌套类对象监听

介绍 本示例介绍使用Observed装饰器和ObjectLink装饰器来实现多层嵌套类对象属性变化的监听。 效果图预览 使用说明 加载完成后显示商品列表&#xff0c;点击刷新按钮可以刷新商品图片和价格。 实现思路 创建FistGoodsModel类&#xff0c;类对象是用Observed修饰的类Secon…

Linux运维:磁盘分区与挂载详解

Linux运维&#xff1a;磁盘分区与挂载详解 1、磁盘分区的原理2、查看系统中所有的磁盘设备及其分区信息3、进行磁盘分区&#xff08;对于sdb新磁盘&#xff09;4、格式化分区5、挂载分区&#xff08;临时挂载、永久挂载&#xff09;6、取消挂载分区7、删除分区 &#x1f496;Th…