LLMs之SWIFT:SWIFT的简介、安装和使用方法、案例应用之详细攻略

LLMs之SWIFT:SWIFT的简介、安装和使用方法、案例应用之详细攻略

目录

SWIFT的简介

新闻

🛠️ 安装

🚀 快速开始

Web-UI

训练

训练脚本

支持的训练过程

单卡训练

模型并行训练

数据并行训练

Deepspeed训练

多机多卡

阿里云-DLC多机训练

预训练

人类对齐

推理

评测

量化

部署

支持的模型

大语言模型

多模态大模型

扩散模型

支持的开源数据集

支持的技术

支持的硬件

环境变量


SWIFT的简介

SWIFT支持300+ LLM和80+ MLLM(多模态大模型)的训练(预训练、微调、对齐)、推理、评测和部署。开发者可以直接将我们的框架应用到自己的Research和生产环境中,实现模型训练评测到应用的完整链路。我们除支持了PEFT提供的轻量训练方案外,也提供了一个完整的Adapters库以支持最新的训练技术,如NEFTune、LoRA+、LLaMA-PRO等,这个适配器库可以脱离训练脚本直接使用在自己的自定流程中。

为方便不熟悉深度学习的用户使用,我们提供了一个Gradio的web-ui用于控制训练和推理,并提供了配套的深度学习课程和最佳实践供新手入门。 可以在Huggingface space 和 ModelScope创空间 中体验SWIFT web-ui功能了。

新闻

  • 2024.09.07: 支持Reflection-llama3-70b模型, 使用swift sft/infer --model_type reflection-llama_3_1-70b命令即可训练和推理.
  • 2024.09.06: 支持mplug-owl3的微调和推理, 最佳实践可以查看这里.
  • 2024.09.05: 支持minicpm3-4b模型. 使用swift infer --model_type minicpm3-4b进行体验.
  • 2024.09.05: 支持yi-coder系列模型. 使用swift infer --model_type yi-coder-1_5b-chat进行体验.
  • 🔥2024.08.30: 支持qwen2-vl系列模型的推理与微调: qwen2-vl-2b-instruct, qwen2-vl-7b-instruct. 最佳实践可以查看这里.
  • 🔥2024.08.26: 支持Liger, 该内核支持LLaMA、Qwen、Mistral等模型, 并大幅减少显存使用(10%~60%), 使用--use_liger true开启训练.
  • 🔥2024.08.22: 支持ReFT, 该tuner可以以LoRA的1/15~1/65的参数量达到和LoRA匹配或更好的效果, 使用--sft_type reft开始训练!
  • 🔥2024.08.21: 支持phi3_5-mini-instruct, phi3_5-moe-instruct, phi3_5-vision-instruct. 使用phi3_5-vision-instruct进行Latex OCR微调的最佳实践可以查看这里.
  • 2024.08.21: 支持idefics3-8b-llama3, llava-onevision-qwen2-0_5b-ov, llava-onevision-qwen2-7b-ov, llava-onevision-qwen2-72b-ov.
  • 🔥2024.08.20: 支持使用deepspeed-zero3对多模态大模型进行微调.
  • 2024.08.20: 支持模型: longwriter-glm4-9b, longwriter-llama3_1-8b. 支持数据集: longwriter-6k.
  • 🔥2024.08.12: 🎉 SWIFT论文已经发布到arXiv上,可以点击这个链接阅读.
  • 🔥2024.08.12: 支持packing和flash-attention时不污染attention_mask, 使用--packing开启。详情见PR.
  • 🔥2024.08.09: 支持qwen2-audio模型的推理与微调. 最佳实践可以查看这里.
  • 🔥2024.08.08: 支持qwen2-math系列模型, 1.5B, 7B, 72B. 使用swift infer --model_type qwen2-math-1_5b-instruct进行体验.
  • 🔥2024.08.07: 支持使用vllm对多模态大模型: llava系列, internvl2系列, phi3-vision, minicpm-v2.5进行推理加速和部署. 可以查看多模态&vLLM推理加速文档获取更多信息.
  • 2024.08.06: 支持minicpm-v-v2_6-chat, 使用swift infer --model_type minicpm-v-v2_6-chat进行推理体验, 最佳实践可以查看这里.
  • 2024.08.06: 支持internlm2.5的1.8b和20b系列. 使用swift infer --model_type internlm2_5-1_8b-chat进行体验.
  • 🔥2024.08.05: 支持多模态数据集的评测!命令行完全一致,新增了许多多模态数据集.
  • 🔥2024.08.02: 支持Fourier Ft训练. 使用方式为--sft_type fourierft, 参数可以参考这里.
  • 🔥2024.07.29: 支持使用lmdeploy对LLM和VLM模型进行推理加速. 文档可以查看这里.
  • 🔥2024.07.24: 人类偏好对齐算法支持视觉多模态大模型, 包括DPO/ORPO/SimPO/CPO, 训练参考文档. 支持数据集RLAIF-V.
  • 🔥2024.07.24: 支持使用megatron对qwen2系列进行CPT和SFT. 可以查看megatron训练文档.
  • 🔥2024.07.24: 支持llama3.1系列模型. 包含8b, 70b, 405b. 支持openbuddy-llama3_1-8b-chat.

More

🛠️ 安装

SWIFT在Python环境中运行。请确保您的Python版本高于3.8。

  • 方法1:使用pip命令安装SWIFT:
# 全量能力
pip install 'ms-swift[all]' -U
# 仅使用LLM
pip install 'ms-swift[llm]' -U
# 仅使用AIGC
pip install 'ms-swift[aigc]' -U
# 仅使用Adapters
pip install ms-swift -U
  • 方法2:通过源代码安装SWIFT(方便运行训练推理脚本),请运行以下命令:
git clone https://github.com/modelscope/swift.git
cd swift
pip install -e '.[llm]'

SWIFT依赖torch>=1.13,建议torch>=2.0.0。

  • 方法3:在我们的Docker镜像中使用SWIFT

🚀 快速开始

本章节介绍基本使用,更丰富的使用方式请查看文档部分。

Web-UI

Web-UI是基于gradio界面技术的零门槛训练部署界面方案。Web-UI配置简单,且完美支持多卡训练和部署:

swift web-ui

image.png

训练

训练脚本

你可以参考以下脚本来自定义属于你的训练脚本.

  • full: qwen1half-7b-chat (A100), qwen-7b-chat (2*A100)
  • full+ddp+zero2: qwen-7b-chat (4*A100)
  • full+ddp+zero3: qwen-14b-chat (4*A100)
  • lora: chatglm3-6b (3090), baichuan2-13b-chat (2*3090), yi-34b-chat (A100), qwen-72b-chat (2*A100)
  • lora+ddp: chatglm3-6b (2*3090)
  • lora+ddp+zero3: qwen-14b-chat (4*3090), qwen-72b-chat (4*A100)
  • qlora(gptq-int4): qwen-14b-chat-int4 (3090), qwen1half-72b-chat-int4 (A100)
  • qlora(gptq-int8): qwen-14b-chat-int8 (3090)
  • qlora(bnb-int4): qwen-14b-chat (3090), llama2-70b-chat (2 * 3090)
支持的训练过程

训练过程训练方式
预训练文本生成
微调单轮/多轮
Agent训练/自我认知
多模态视觉/多模态语音
人类对齐DPO
ORPO
SimPO
KTO
CPO
文生图DreamBooth等
文生视频-
单卡训练

通过如下命令启动单卡微调:

LoRA:

# 实验环境: A100
# 显存需求: 20GB
# 运行时长: 3.1小时
CUDA_VISIBLE_DEVICES=0 \
swift sft \
    --model_type qwen1half-7b-chat \
    --dataset blossom-math-zh \
    --num_train_epochs 5 \
    --sft_type lora \
    --output_dir output \

全参数:

# 实验环境: A100
# 显存需求: 80GB
# 运行时长: 2.5小时
CUDA_VISIBLE_DEVICES=0 \
swift sft \
    --model_type qwen1half-7b-chat \
    --dataset blossom-math-zh \
    --num_train_epochs 5 \
    --sft_type full \
    --output_dir output \
    --eval_steps 500 \
模型并行训练

# 实验环境: 2 * A100
# 显存需求: 10GB + 13GB
# 运行时长: 3.4小时
CUDA_VISIBLE_DEVICES=0,1 \
swift sft \
    --model_type qwen1half-7b-chat \
    --dataset blossom-math-zh \
    --num_train_epochs 5 \
    --sft_type lora \
    --output_dir output \
数据并行训练

# 实验环境: 4 * A100
# 显存需求: 4 * 30GB
# 运行时长: 0.8小时
NPROC_PER_NODE=4 \
CUDA_VISIBLE_DEVICES=0,1,2,3 \
swift sft \
    --model_type qwen1half-7b-chat \
    --dataset blossom-math-zh \
    --num_train_epochs 5 \
    --sft_type lora \
    --output_dir output \

模型并行与数据并行结合:

# 实验环境: 4 * A100
# 显存需求: 2*14GB + 2*18GB
# 运行时长: 1.7小时
NPROC_PER_NODE=2 \
CUDA_VISIBLE_DEVICES=0,1,2,3 \
swift sft \
    --model_type qwen1half-7b-chat \
    --dataset blossom-math-zh \
    --num_train_epochs 5 \
    --sft_type lora \
    --output_dir output \
Deepspeed训练

Deepspeed支持对GPTQ和AWQ量化模型进行训练.

ZeRO2:

# 实验环境: 4 * A100
# 显存需求: 4 * 21GB
# 运行时长: 0.9小时
NPROC_PER_NODE=4 \
CUDA_VISIBLE_DEVICES=0,1,2,3 \
swift sft \
    --model_type qwen1half-7b-chat \
    --dataset blossom-math-zh \
    --num_train_epochs 5 \
    --sft_type lora \
    --output_dir output \
    --deepspeed default-zero2 \

ZeRO3:

# 实验环境: 4 * A100
# 显存需求: 4 * 19GB
# 运行时长: 3.2小时
NPROC_PER_NODE=4 \
CUDA_VISIBLE_DEVICES=0,1,2,3 \
swift sft \
    --model_type qwen1half-7b-chat \
    --dataset blossom-math-zh \
    --num_train_epochs 5 \
    --sft_type lora \
    --output_dir output \
    --deepspeed default-zero3 \

ZeRO3-Offload:

# 实验环境: 4 * A100
# 显存需求: 4 * 12GB
# 运行时长: 60小时
NPROC_PER_NODE=4 \
CUDA_VISIBLE_DEVICES=0,1,2,3 \
swift sft \
    --model_id_or_path AI-ModelScope/WizardLM-2-8x22B \
    --dataset blossom-math-zh \
    --num_train_epochs 5 \
    --sft_type lora \
    --output_dir output \
    --deepspeed zero3-offload \
多机多卡

# 如果非共用磁盘请在各机器sh中额外指定`--save_on_each_node true`.
# node0
CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 \
NNODES=2 \
NODE_RANK=0 \
MASTER_ADDR=127.0.0.1 \
NPROC_PER_NODE=8 \
swift sft \
    --model_type qwen1half-32b-chat \
    --sft_type full \
    --dataset blossom-math-zh \
    --output_dir output \
    --deepspeed default-zero3 \

# node1
CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 \
NNODES=2 \
NODE_RANK=1 \
MASTER_ADDR=xxx.xxx.xxx.xxx \
NPROC_PER_NODE=8 \
swift sft \
    --model_type qwen1half-32b-chat \
    --sft_type full \
    --dataset blossom-math-zh \
    --output_dir output \
    --deepspeed default-zero3 \
阿里云-DLC多机训练

DLC环境变量中,WORLD_SIZE指代node数量,RANK指代node序号,这一点和torchrun定义不同,需要注意。

NNODES=$WORLD_SIZE \
NODE_RANK=$RANK \
swift sft \
    --model_type qwen1half-32b-chat \
    --sft_type full \
    --dataset blossom-math-zh \
    --output_dir output \
    --deepspeed default-zero3
预训练

NPROC_PER_NODE=4 \
CUDA_VISIBLE_DEVICES=0,1,2,3 \
swift pt \
    --model_type qwen1half-7b \
    --dataset chinese-c4#100000 \
    --num_train_epochs 1 \
    --sft_type full \
    --deepspeed default-zero3 \
    --output_dir output \
    --lazy_tokenize true
人类对齐

# We support rlhf_type dpo/cpo/simpo/orpo/kto
CUDA_VISIBLE_DEVICES=0 \
swift rlhf \
    --rlhf_type dpo \
    --model_type qwen1half-7b-chat \
    --dataset shareai-llama3-dpo-zh-en-emoji \
    --num_train_epochs 5 \
    --sft_type lora \
    --output_dir output \

推理

原始模型:

CUDA_VISIBLE_DEVICES=0 swift infer --model_type qwen1half-7b-chat
# 使用VLLM加速
CUDA_VISIBLE_DEVICES=0 swift infer --model_type qwen1half-7b-chat \
    --infer_backend vllm --max_model_len 8192

LoRA微调后:

CUDA_VISIBLE_DEVICES=0 swift infer --ckpt_dir xxx/checkpoint-xxx --load_dataset_config true
# 使用VLLM加速
CUDA_VISIBLE_DEVICES=0 swift infer \
    --ckpt_dir xxx/checkpoint-xxx --load_dataset_config true \
    --merge_lora true --infer_backend vllm --max_model_len 8192

评测

原始模型:

CUDA_VISIBLE_DEVICES=0 swift eval --model_type qwen1half-7b-chat \
    --eval_dataset ARC_c --infer_backend vllm

LoRA微调后:

CUDA_VISIBLE_DEVICES=0 swift eval --ckpt_dir xxx/checkpoint-xxx \
    --eval_dataset ARC_c --infer_backend vllm \
    --merge_lora true \

量化

原始模型:

CUDA_VISIBLE_DEVICES=0 swift export --model_type qwen1half-7b-chat \
    --quant_bits 4 --quant_method awq

LoRA微调后:

CUDA_VISIBLE_DEVICES=0 swift export \
    --ckpt_dir xxx/checkpoint-xxx --load_dataset_config true \
    --quant_method awq --quant_bits 4 \
    --merge_lora true \

部署

客户端使用OpenAI API进行调用,具体可以查看LLM部署文档

原始模型:

CUDA_VISIBLE_DEVICES=0 swift deploy --model_type qwen1half-7b-chat
# 使用VLLM加速
CUDA_VISIBLE_DEVICES=0 swift deploy --model_type qwen1half-7b-chat \
    --infer_backend vllm --max_model_len 8192

LoRA微调后:

CUDA_VISIBLE_DEVICES=0 swift deploy --ckpt_dir xxx/checkpoint-xxx
# 使用VLLM加速
CUDA_VISIBLE_DEVICES=0 swift deploy \
    --ckpt_dir xxx/checkpoint-xxx --merge_lora true \
    --infer_backend vllm --max_model_len 8192

支持的模型

完整的支持模型和数据集可以查看支持的模型和数据集列表.

大语言模型

模型类型模型介绍语言模型大小模型类型
Qwen
Qwen1.5
Qwen2
通义千问1.0和1.5系列模型中文
英文
0.5B-110B
包含量化版本
base模型
chat模型
MoE模型
代码模型
ChatGLM2
ChatGLM3
Codegeex2
GLM4
Codegeex4
智谱ChatGLM系列模型中文
英文
6B-9Bbase模型
chat模型
代码模型
长文本模型
Baichuan
Baichuan2
百川1和百川2中文
英文
7B-13B
包含量化版本
base模型
chat模型
Yuan2浪潮源系列模型中文
英文
2B-102Binstruct模型
XVerse元象系列模型中文
英文
7B-65Bbase模型
chat模型
长文本模型
MoE模型
LLaMA2LLaMA2系列模型英文7B-70B
包含量化版本
base模型
chat模型
LLaMA3
LLaMA3.1
LLaMA3系列模型英文8B-70B
包含量化版本
Mistral
Mixtral
Mistral系列模型英文7B-8x22Bbase模型
instruct模型
MoE模型
Yi
Yi1.5
Yi-Coder
01AI的YI系列模型中文
英文
1.5B-34B
包含量化版本
base模型
chat模型
长文本模型
InternLM
InternLM2
InternLM2-Math
InternLM2.5
浦江实验室书生浦语系列模型中文
英文
1.8B-20Bbase模型
chat模型
数学模型
DeepSeek
DeepSeek-MoE
DeepSeek-Coder
DeepSeek-Math
DeepSeek-V2
DeepSeek-Coder-V2
幻方系列模型中文
英文
1.3B-236Bbase模型
chat模型
MoE模型
代码模型
数学模型
MAMBAMAMBA时序卷积模型英文130M-2.8Bbase模型
Gemma
Gemma2
Google Gemma系列模型英文2B-27Bbase模型
instruct模型
MiniCPM
MiniCPM3
OpenBmB MiniCPM系列模型中文
英文
2B-3Bchat模型
MoE模型
OpenBuddyOpenBuddy系列模型中文
英文
7B-70Bbase模型
chat模型
Orion猎户星空系列模型中文
英文
14Bbase模型
chat模型
BlueLMVIVO蓝心大模型中文
英文
7Bbase模型
chat模型
Ziya2封神榜系列模型中文
英文
13Bbase模型
chat模型
Skywork昆仑天工系列模型中文
英文
13Bbase模型
chat模型
Zephyr基于Mistral的zephyr系列模型英文7Bchat模型
PolyLM通义实验室自研的PolyLM系列模型多语种13Bbase模型
SeqGPT通义实验室自研的文本理解模型,用于信息抽取和文本分类中文560M语义理解模型
SUS南方科技大学基于YI Fine-Tune的模型中文
英文
34Bchat模型
Tongyi-Finance通义金融系列模型中文
英文
14Bbase模型
chat模型
金融模型
CodeFuse-CodeLLaMA
CodeFuse-Codegeex2
CodeFuse-Qwen
蚂蚁CodeFuse系列模型中文
英文
6B-34Bchat模型
代码模型
phi2/phi3微软PHI2模型英文3B/4Bbase模型
指令模型
代码模型
GrokX-ai英文300Bbase模型
TeleChatTele-AI中文
英文
7B-12Bchat模型
dbrxdatabricks英文132Bbase模型
chat模型
mengzi3Langboat中文
英文
13Bbase模型
c4ai-command-rc4ai多语种35B-104Bchat模型
WizardLM2WizardLM2系列模型多语种7B-8x22B
包含量化版本
chat模型
MoE模型
AtomAtom中文7Bbase模型
chat模型
Chinese-LLaMA-Alpaca-2Chinese-LLaMA-Alpaca-2中文1.3B-13Bbase模型
chat模型
长文本模型
Chinese-LLaMA-Alpaca-3Chinese-LLaMA-Alpaca-3中文8Bbase模型
chat模型
ModelScope-AgentModelScope Agent系列中文7B-14Bagent模型
NuminaAI-MO英文7B数学模型
多模态大模型

模型类型模型介绍语言模型大小模型类型
Qwen-VL
Qwen2-VL
通义千问视觉模型中文
英文
7B
包含量化版本
base模型
chat模型
Qwen-Audio
Qwen2-Audio
通义千问语音模型中文
英文
7Bbase模型
chat模型
YI-VL01AI的YI系列视觉模型中文
英文
6B-34Bchat模型
XComposer2
XComposer2.5
浦江实验室书生浦语视觉模型中文
英文
7Bchat模型
DeepSeek-VL幻方系列视觉模型中文
英文
1.3B-7Bchat模型
MiniCPM-V
MiniCPM-V-2
MiniCPM-V-2.5
MiniCPM-V-2.6
OpenBmB MiniCPM视觉模型中文
英文
3B-9Bchat模型
CogVLM
CogAgent
CogVLM2
CogVLM2-Video
GLM4V
智谱ChatGLM视觉问答和Agent模型中文
英文
9B-19Bchat模型
Llava-HFLlava-HF系列模型英文0.5B-110Bchat模型
Llava1.5
Llava1.6
Llava系列模型英文7B-34Bchat模型
Llava-Next
Llava-Next-Video
Llava-Next系列模型中文
英文
7B-110Bchat模型
mPLUG-Owl2
mPLUG-Owl2.1
mPLUG-Owl3
mPLUG-Owl系列模型英文11Bchat模型
InternVL
Mini-InternVL
InternVL2
InternVL中文
英文
1B-40B
包含量化版本
chat模型
Llava-llama3xtuner英文8Bchat模型
Phi3-Vision微软英文4Bchat模型
PaliGemmaGoogle英文3Bchat模型
Florence微软英文0.23B-0.77Bchat模型
Idefics3HuggingFaceM4英文8Bchat模型
扩散模型

模型类型模型介绍语言模型类型
AnimateDiffAnimateDiff动画模型英文文生视频
SD1.5/SD2.0/SDXLStabilityAI系列扩散模型英文文生图

支持的开源数据集

数据集类型训练任务文档
通用微调🔥ruozhiba, 🔥ms-bench, 🔥alpaca-en(gpt4), 🔥alpaca-zh(gpt4), multi-alpaca, instinwild, cot-en, cot-zh, firefly-zh, instruct-en, gpt4all-en, sharegpt, tulu-v2-sft-mixture, wikipedia-zh, open-orca, sharegpt-gpt4, deepctrl-sft, coig-cqia.
Agent微调🔥ms-agent, 🔥ms-agent-for-agentfabric, ms-agent-multirole, 🔥toolbench-for-alpha-umi, damo-agent-zh, damo-agent-zh-mini, agent-instruct-all-en.
通用人类对齐hh-rlhf, 🔥hh-rlhf-cn, stack-exchange-paired.
代码微调code-alpaca-en, 🔥leetcode-python-en, 🔥codefuse-python-en, 🔥codefuse-evol-instruction-zh.
医疗微调medical-en, medical-zh, 🔥disc-med-sft-zh.
法律微调lawyer-llama-zh, tigerbot-law-zh, 🔥disc-law-sft-zh.
数学微调🔥blossom-math-zh, school-math-zh, open-platypus-en.
SQL微调text2sql-en, 🔥sql-create-context-en.
文本生成微调🔥advertise-gen-zh, 🔥dureader-robust-zh.
分类微调cmnli-zh, 🔥jd-sentiment-zh, 🔥hc3-zh, 🔥hc3-en.
量化辅助量化pileval.
其他微调finance-en, poetry-zh, webnovel-zh, generated-chat-zh, cls-fudan-news-zh, ner-jave-zh.
视觉微调coco-en, 🔥coco-en-mini, coco-en-2, coco-en-2-mini, capcha-images.
音频微调aishell1-zh, 🔥aishell1-zh-mini.

支持的技术

技术名称
🔥LoRA: LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS
🔥LoRA+: LoRA+: Efficient Low Rank Adaptation of Large Models
🔥LLaMA PRO: LLAMA PRO: Progressive LLaMA with Block Expansion
🔥GaLore:GaLore: Memory-Efficient LLM Training by Gradient Low-Rank Projection
🔥LISA: LISA: Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning
🔥UnSloth: GitHub - unslothai/unsloth: Finetune Llama 3.1, Mistral, Phi & Gemma LLMs 2-5x faster with 80% less memory
🔥SCEdit: SCEdit: Efficient and Controllable Image Diffusion Generation via Skip Connection Editing < arXiv \
🔥NEFTune: Noisy Embeddings Improve Instruction Finetuning
LongLoRA: Efficient Fine-tuning of Long-Context Large Language Models
Adapter: Parameter-Efficient Transfer Learning for NLP
Vision Prompt Tuning: Visual Prompt Tuning
Side: Side-Tuning: A Baseline for Network Adaptation via Additive Side Networks
Res-Tuning: Res-Tuning: A Flexible and Efficient Tuning Paradigm via Unbinding Tuner from Backbone < arXiv \
PEFT提供的tuners, 如IA3, AdaLoRA等

支持的硬件

硬件环境备注
CPU
RTX20系列/30系列/40系列等30序列之后可使用BF16和FlashAttn
计算卡系列 T4/V100等不支持BF16和FlashAttn
计算卡系列 A10/A100等支持BF16和FlashAttn
华为昇腾NPU

环境变量

  • DATASET_ENABLE_CACHE:在预处理数据集时启用缓存,您可以使用1/True0/False,默认值为False
  • WEBUI_SHARE:共享web-ui,可以使用1/True0/False,默认值为False
  • SWIFT_UI_LANG:web-ui语言,您可以使用enzh,默认值为zh
  • WEBUI_SERVER:web-ui可访问的IP0.0.0.0表示所有路由,127.0.0.1仅用于本地网络。默认值为127.0.0.1
  • WEBUI_PORT:web-ui端口
  • USE_HF:使用huggingface endpoint或ModelScope endpoint下载模型和数据集。您可以使用1/True0/False,默认值为False
  • FORCE_REDOWNLOAD:强制重新下载数据集

其他变量如CUDA_VISIBLE_DEVICES也支持,但未在此列出。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/878891.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

面试官:讲一讲Spring MVC源码解析

好看的皮囊千篇一律、有趣的灵魂万里挑一 文章持续更新&#xff0c;可以微信搜索【小奇JAVA面试】第一时间阅读&#xff0c;回复【资料】获取福利&#xff0c;回复【项目】获取项目源码&#xff0c;回复【简历模板】获取简历模板&#xff0c;回复【学习路线图】获取学习路线图。…

【C++】——继承详解

目录 1、继承的概念与意义 2、继承的使用 2.1继承的定义及语法 2.2基类与派生类间的转换 2.3继承中的作用域 2.4派生类的默认成员函数 <1>构造函数 <2>拷贝构造函数 <3>赋值重载函数 <4析构函数 <5>总结 3、继承与友元 4、继承与静态变…

Linux(CentOS8)服务器安装RabbitMQ

我安装了很久都没有成功, 各种问题, 每次的异常都不一样, 现将成功安装过程做个总结 安装前工作 确保已经安装了一些基础工具和组件库 下载安装包 https://www.erlang.org/patches/otp-24.3.4.5 https://github.com/rabbitmq/rabbitmq-server/releases/download/v3.9.15/ra…

C/C++实现植物大战僵尸(PVZ)(打地鼠版)

&#x1f680;欢迎互三&#x1f449;&#xff1a;程序猿方梓燚 &#x1f48e;&#x1f48e; &#x1f680;关注博主&#xff0c;后期持续更新系列文章 &#x1f680;如果有错误感谢请大家批评指出&#xff0c;及时修改 &#x1f680;感谢大家点赞&#x1f44d;收藏⭐评论✍ 游戏…

Linux中的简单命令2

一.echo指令 echo的作用是显式文本内容 #echo ‘字符串’ #echo “字符串” echo会将后面的内容当作字符串直接打印在屏幕上&#xff0c;后面的内容需要用单引号或者双引号括起来 注意&#xff1a;echo会自动在字符串后面加上一个换行符。 可以与printf进行对比&#xff1a; …

常耀斌:AI赋能企业数字化转型(清华社发行)

新书地址&#xff1a; 清华出版社&#xff1a;清华大学出版社-图书详情-《AI赋能企业数字化转型》 京东&#xff1a;《AI赋能企业数字化转型 常耀斌 清华大学出版社 9787302669081》【摘要 书评 试读】- 京东图书 内容简介&#xff1a; 在数字经济时代&#xff0c;企业发…

【Linux:命名管道】

命名管道原理&#xff1a; 每一个进程都有独立的struct files_struct和struct file文件属性集合和操作集只存储一份&#xff0c;因为属性集合和操作集每个文件都差不多一样两个进程读写都在同一个内核缓冲区就可以实现进程间通信 数据写入缓冲区后还需要将数据刷新到磁盘中&…

springboot+mybatis+mysql仿百度网盘系统2.0

springbootmybatismysql仿百度网盘系统2.0 一、系统介绍二、功能展示1.用户登陆2.主页3.全部文件4.文件上传5.文件分享6.文件分类 三、其它1.其他系统实现 一、系统介绍 系统主要功能&#xff1a; 普通用户&#xff1a;用户登陆、主页、全部文件、上传文件、文件分类、文件分部…

什么是上拉,下拉?

上拉就是将引脚通过一个电阻连接到电源&#xff0c;作用&#xff1a;1.使IO口的不确定电平稳定在高点平&#xff0c;2、为了增加IO口拉电流的能力。 下拉就是将引脚通过一个电阻与GND相连&#xff0c;作用&#xff1a;1.从器件输出电流 2.当IO口为输入状态时&#xff0c;引脚的…

[git] MacBook 安装git

文章目录 1.Mac Git 安装2. 开发者工具安装 CommandLineTools安装完成&#xff0c;错误解决 3. git 账户配置账户设置生成秘钥git 或者 gitee 仓库添加公钥查看全局账户命令多账户设置config文件测试连接clone到本地 1.Mac Git 安装 Mac一般自带Git工具&#xff0c;也就是说已…

yolov5明厨亮灶检测系统,厨师帽-口罩检测,带pyqt界面-可检测图片和视频,支持中文标签,检测接口已封装好并优化,代码可读性强!

明厨亮灶检测系统是一个专门用于餐饮业厨房安全监管的智能系统。该系统结合了先进的计算机视觉技术&#xff0c;尤其是使用YOLOv5模型进行厨师帽和口罩的实时检测&#xff0c;并通过PyQt5构建了一个用户友好的图形界面。该系统不仅能够检测图片和视频中的目标&#xff0c;而且支…

仪表盘检测系统源码分享

仪表盘检测检测系统源码分享 [一条龙教学YOLOV8标注好的数据集一键训练_70全套改进创新点发刊_Web前端展示] 1.研究背景与意义 项目参考AAAI Association for the Advancement of Artificial Intelligence 项目来源AACV Association for the Advancement of Computer Visio…

C++初阶大全

目录 一.命名空间 1.命名空间定义 2.命名空间使用 二.C输入&输出 三.缺省参数 四. 函数重载 五.引用 1.常引用 2.传值、传引用效率比较 3.引用和指针的区别 4.引用和指针的不同点: 小知识点: 六.内联函数 七.auto关键字(C11) 1.auto的使用细则 八.基于范围…

Rust练手项目,写个有趣的小工具定时从一言网获取一段有趣的话并推送通知

Rust练手项目&#xff0c;写个有趣的小工具 代码 继续练习Rust, 写个小工具定时从一言网获取一段有趣的话并提示&#xff0c;如下 练习以下Rust点 并发编程 Mutex, Arc指针使用HTTP请求Windows Gui 代码 Cargo.toml [package] name "funny_word" edition "20…

vscode中如何配置c/c++环境

“批判他人总是想的太简单 剖析自己总是想的太困难” 文章目录 前言文章有误敬请斧正 不胜感恩&#xff01;一、准备工作二、安装 VSCode 插件三、配置 VSCode1. 配置编译任务&#xff08;tasks.json&#xff09;2. 配置调试器&#xff08;launch.json&#xff09; 四、运行和调…

数据结构(Day14)

一、学习内容 结构体 概念 引入&#xff1a;定义整数赋值为10 int a10; 定义小数赋值为3.14 float b3.14; 定义5个整数并赋值 int arr[5] {1 , 2 , 3 , 4 ,5}; 定义一个学生并赋值学号姓名成绩 定义一个雪糕并赋值名称产地单价 问题&#xff1a;没有学生、雪糕 数据类型 解决&…

【C/C++】程序的构建(编译)过程概述

&#x1f984;个人主页:小米里的大麦-CSDN博客 &#x1f38f;所属专栏:C_小米里的大麦的博客-CSDN博客 &#x1f381;代码托管:C: 探索C编程精髓&#xff0c;打造高效代码仓库 (gitee.com) ⚙️操作环境:Visual Studio 2022 目录 一、前言 二、预处理&#xff08;Preprocessi…

C# USB通信技术(通过LibUsbDotNet库)

文章目录 1.下载LibusbDotNet库2.引入命名空间3. 实例化USB设备4.发送数据5.关闭连接 1.下载LibusbDotNet库 右击项目选择管理NuGet程序包在弹出的界面中搜索LibusbDotNet&#xff0c;然后下载安装。 2.引入命名空间 using LibUsbDotNet; using LibUsbDotNet.Main;3. 实例化…

MoneyPrinterTurbo 安装使用流程

项目地址&#xff1a; https://github.com/harry0703/MoneyPrinterTurbo 开发环境&#xff1a;mac 1 git 下载 # 下载代码到本地 git clone https://github.com/harry0703/MoneyPrinterTurbo.git cd MoneyPrinterTurbo2 docker 配源 在 docker 安装目录执行以下命令显示隐藏…

《Nginx核心技术》第17章:使用自签CA配置HTTPS加密反向代理访问

作者&#xff1a;冰河 星球&#xff1a;http://m6z.cn/6aeFbs 博客&#xff1a;https://binghe.gitcode.host 文章汇总&#xff1a;https://binghe.gitcode.host/md/all/all.html 星球项目地址&#xff1a;https://binghe.gitcode.host/md/zsxq/introduce.html 沉淀&#xff0c…