本地部署大模型?看这篇就够了,Ollama 部署和实战

写在前面

前几篇,分享的都是如何白嫖国内外各大厂商的免费大模型服务~

有小伙伴问,如果我想在本地搞个大模型玩玩,有什么解决方案?

Ollama,它来了,专为在本地机器便捷部署和运行大模型而设计。

也许是目前最便捷的大模型部署和运行工具,配合Open WebUI,人人都可以拥有大模型自由。

今天,就带着大家实操一番,从 0 到 1 玩转 Ollama。

1. 部署

1.1 Mac & Windows

相对简单,根据你电脑的不同操作系统,下载对应的客户端软件,并安装:

  • macOS:https://ollama.com/download/Ollama-darwin.zip

  • Windows:https://ollama.com/download/OllamaSetup.exe

1.2 Linux

推荐大家使用 Linux 服务器进行部署,毕竟大模型的对机器配置还是有一定要求。

裸机部署

step 1: 下载 & 安装

命令行一键下载和安装:

curl -fsSL https://ollama.com/install.sh | sh   

如果没有报错,它会提示你 ollama 的默认配置文件地址:

Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.   

接下来,我们采用如下命令查看下服务状态, running 就没问题了:

systemctl status ollama   

查看是否安装成功,出现版本号说明安装成功:

ollama -v   

step 2: 服务启动

浏览器中打开:http://your_ip:11434/,如果出现 Ollama is running,说明服务已经成功运行。

**step 3: 修改配置(可选)**如果有个性化需求,需要修改默认配置:

配置文件在:/etc/systemd/system/ollama.service,采用任意编辑器打开,推荐 vim

  1. 默认只能本地访问,如果需要局域网内其他机器也能访问(比如嵌入式设别要访问本地电脑),需要对 HOST 进行配置,开启监听任何来源IP
[Service]   Environment="OLLAMA_HOST=0.0.0.0"   
  1. 如果需要更改模型存放位置,方便管理,需要对 OLLAMA_MODELS 进行配置:
[Service]   Environment="OLLAMA_MODELS=/data/ollama/models"   

不同操作系统,模型默认存放在:

macOS: ~/.ollama/models   Linux: /usr/share/ollama/.ollama/models   Windows: C:\Users\xxx\.ollama\models   
  1. 如果有多张 GPU,可以对 CUDA_VISIBLE_DEVICES 配置,指定运行的 GPU,默认使用多卡。
Environment="CUDA_VISIBLE_DEVICES=0,1"   

4.配置修改后,需要重启 ollama

systemctl daemon-reload   systemctl restart ollama   

注意:上面两条指令通常需要同时使用:只要你修改了任意服务的配置文件(如 .service 文件),都需要运行systemctl daemon-reload使更改生效。

Docker 部署

我们也介绍下 Docker 部署,无需配置各种环境,相对小白来说,更加友好。

step 1: 一键安装

如果是一台没有 GPU 的轻量级服务器:

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama --restart always ollama/ollama   

简单介绍下这个命令的参数:

  • docker run:用于创建并启动一个新的 Docker 容器。

  • -d:表示以分离模式(后台)运行容器。

  • -v ollama:/root/.ollama:将宿主机上的 ollama 目录挂载到容器内的 /root/.ollama 目录,便于数据持久化。

  • -p 11434:11434:将宿主机的 11434 端口映射到容器的 11434 端口,使外部可以访问容器服务。

  • –name ollama:为新创建的容器指定一个名称为 ollama,便于后续管理。

  • –restart always:容器在退出时自动重启,无论是因为错误还是手动停止。

  • ollama/ollama:指定要使用的 Docker 镜像,这里是 ollama 镜像。

宿主机上的数据卷 volume 通常在 /var/lib/docker/volumes/,可以采用如下命令进行查看:

[root@instance-20240702-1632 ~]# docker volume ls   DRIVER    VOLUME NAME   local     dockers_postgres-data   local     ollama   local     open-webui   [root@instance-20240702-1632 ~]# ls /var/lib/docker/volumes/   backingFsBlockDev  dockers_postgres-data  metadata.db  ollama  open-webui   

如果拥有 Nvidia-GPU:

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama   

安装成功后,注意要给服务器打开 11434 端口的防火墙,然后浏览器打开 http://your_ip:11434/,如果出现 Ollama is running,说明服务已经成功运行。

step 2: 进入容器

如何进入容器中执行指令呢?

docker exec -it ollama /bin/bash   

参数说明:

  • exec:在运行中的容器中执行命令。

  • -it:表示以交互模式运行,并分配一个伪终端。

  • ollama:容器的名称。

  • /bin/bash:要执行的命令,这里是打开一个 Bash shell。

执行后,你将进入容器的命令行,和你本地机器上使用没有任何区别。

如果不想进入容器,当然也可以参考如下指令,一键运行容器中的模型:

docker exec -it ollama ollama run qwen2:0.5b   

如果一段时间内没有请求,模型会自动下线。

2. 使用

2.1 Ollama 常用命令

Ollama 都有哪些指令?

终端输入 ollama

Usage:     ollama [flags]     ollama [command]      Available Commands:     serve       Start ollama     create      Create a model from a Modelfile     show        Show information for a model     run         Run a model     pull        Pull a model from a registry     push        Push a model to a registry     list        List models     ps          List running models     cp          Copy a model     rm          Remove a model     help        Help about any command      Flags:     -h, --help      help for ollama     -v, --version   Show version information      Use "ollama [command] --help" for more information about a command.   

我们翻译过来,和 docker 命令非常类似:

ollama serve # 启动ollama   ollama create # 从模型文件创建模型   ollama show  # 显示模型信息   ollama run  # 运行模型,会先自动下载模型   ollama pull  # 从注册仓库中拉取模型   ollama push  # 将模型推送到注册仓库   ollama list  # 列出已下载模型   ollama ps  # 列出正在运行的模型   ollama cp  # 复制模型   ollama rm  # 删除模型   

2.2 Ollama 模型库

类似 Docker 托管镜像的 Docker Hub,Ollama 也有个 Library 托管支持的大模型。

传送门:https://ollama.com/library

从0.5B 到 236B,各种模型应有尽有,大家可以根据自己的机器配置,选用合适的模型。

同时,官方也贴心地给出了不同 RAM 推荐的模型大小,以及命令:

注:至少确保,8GB的 RAM 用于运行 7B 模型,16GB 用于运行 13B 模型,32GB 用于运行 33B 模型。这些模型需经过量化。

因为我的是一台没有 GPU 的轻量级服务器,所以跑一个 0.5B 的 qwen 模型,给大家做下演示:

root@535ec4243693:/# ollama run qwen2:0.5b   pulling manifest    pulling 8de95da68dc4... 100% ▕████████████████████████████████████▏ 352 MB                            pulling 62fbfd9ed093... 100% ▕████████████████████████████████████▏  182 B                            pulling c156170b718e... 100% ▕████████████████████████████████████▏  11 KB                            pulling f02dd72bb242... 100% ▕████████████████████████████████████▏   59 B                            pulling 2184ab82477b... 100% ▕████████████████████████████████████▏  488 B                            verifying sha256 digest    writing manifest    removing any unused layers    success    >>> 你是谁   我是来自阿里云的超大规模语言模型——通义千问。我能够理解、生产、传播各种语言和文字,可以回答您在任   何语言或任何问题的问题。      >>> Send a message (/? for help)   

2.3 自定义模型

如果要使用的模型不在 Ollama 模型库怎么办?

GGUF (GPT-Generated Unified Format)模型

GGUF 是由 llama.cpp 定义的一种高效存储和交换大模型预训练结果的二进制格式。

Ollama 支持采用 Modelfile 文件中导入 GGUF 模型。

下面我们以本地的 llama3 举例,详细介绍下实操流程:

step 1: 新建一个文件名为 Modelfile 的文件,然后在其中指定 llama3 模型路径:

FROM /root/models/xxx/Llama3-FP16.gguf   

step 2: 创建模型

ollama create llama3 -f Modelfile   

step 3: 运行模型

ollama run llama3   

终端出现 >>,开启和 Ollama 的对话旅程吧~

下面是几个常用案例:

  • 多行输入:用"""包裹
>>> """Hello,   ... world!   ... """   I'm a basic program that prints the famous "Hello, world!" message to the console.   
  • 多模态模型:文本 + 图片地址
>>> What's in this image? /Users/jmorgan/Desktop/smile.png   The image features a yellow smiley face, which is likely the central focus of the picture.   
  • 将提示作为参数传递
`$ ollama run llama3 "Summarize this file: $(cat README.md)"    Ollama is a lightweight, extensible framework for building and running language models on the local machine.` 

PyTorch or Safetensors 模型

Ollama 本身不支持 PyTorch or Safetensors 类型,不过可以通过 llama.cpp 进行转换、量化处理成 GGUF 格式,然后再给 Ollama 使用。

关于 llama.cpp 的使用,小伙伴可以前往官方仓库:https://github.com/ggerganov/llama.cpp。下载后需要编译使用,成功后会在目录下生成三个可执行文件:

main:模型推理   quantize:模型量化,包括1.5位、2位、3位、4位、5位、6位和8位整数量化   server:提供模型API服务   

不过我们只能需要用到它的模型转换功能,还是以 llama3 举例:首先安装项目依赖,然后调用 convert.py 实现模型转换:

pip install -r requirements.txt   python convert.py  /root/xxx/Llama3-Chinese-8B-Instruct/ --outtype f16 --vocab-type bpe --outfile ./models/Llama3-FP16.gguf   

提示词实现模型定制

刚才我们介绍了 Modelfile,其中我们还可以自定义提示词,实现更个性化的智能体。

假设现在你从模型库下载了一个 llama3:

ollama pull llama3   

然后我们新建一个 Modelfile,其中输入:

FROM llama3      # 设置温度参数   PARAMETER temperature 0.7      # 设置SYSTEM 消息   SYSTEM """   你是猴哥的 AI 智能助手,将基于猴哥发表的所有文章内容回答问题,拒绝回答任何无关内容。   """   

Ollama 实现模型量化

Ollama 原生支持 FP16 or FP32 模型的进一步量化,支持的量化方法包括:

Q4_0 Q4_1 Q5_0 Q5_1 Q8_0      K-means Quantizations:   Q3_K_S Q3_K_M Q3_K_L Q4_K_S Q4_K_M Q5_K_S Q5_K_M Q6_K   

在编写好 Modelfile 文件后,创建模型时加入 -q 标志:

FROM /path/to/my/gemma/f16/model   
ollama create -q Q4_K_M mymodel -f Modelfile   

2.3 API 服务

除了本地运行模型以外,还可以把模型部署成 API 服务。

执行下述指令,可以一键启动 REST API 服务:

ollama serve   

下面介绍两个常用示例:

1、生成回复

curl http://129.150.63.xxx:11434/api/generate -d '{     "model": "qwen2:0.5b",     "prompt":"Why is the sky blue?",     "stream":false   }'   

2、模型对话

curl http://localhost:11434/api/chat -d '{     "model": "qwen2:0.5b",     "messages": [       { "role": "user", "content": "why is the sky blue?" }     ],     "stream":false   }'   

更多参数和使用,可参考 API 文档:https://github.com/ollama/ollama/blob/main/docs/api.md

2.4 OneAPI 集成

前段时间,我们已经完成了 OneAPI 的部署

OneAPI 也支持 Ollama 模型,我们只需在 OneAPI 中为 Ollama 添加一个渠道。

创建好之后,点击 测试 一下,右上角出现提示,说明已经配置成功,接下来就可以采用 OpenAI 的方式调用了。

2.5 Open WebUI 界面搭建

Open WebUI 是一个可扩展的自托管 WebUI,前身就是 Ollama WebUI,为 Ollama 提供一个可视化界面,可以完全离线运行,支持 Ollama 和兼容 OpenAI 的 API。

🚀 一键直达:https://github.com/open-webui/open-webui

Open WebUI 部署

我们直接采用 docker 部署 Open WebUI:

因为我们已经部署了 Ollama,故采用如下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main   

其中:--add-host=host.docker.internal:host-gateway 是为了添加一个主机名映射,将 host.docker.internal 指向宿主机的网关,方便容器访问宿主机服务

假设你之前没有安装过 Ollama,也可以采用如下镜像(打包安装Ollama + Open WebUI):

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama   

Open WebUI 使用

在打开主机 3000 端口的防火墙之后,浏览器中输入:http://your_ip:3000/,注册一个账号:

可以发现界面和 ChatGPT 一样简洁美观,首先需要选择一个模型,由于我们只部署了 qwen2:0.5b,于是先用它试试:

右上角这里可以设置系统提示词,以及模型参数等等:

在个人设置这里,可以看到内置的 TTS 服务:

管理员面板这里,有更多探索性功能,比如图像生成,如果你部署了 StableDiffusion,这里同样支持调用:

不得不说,Open WebUI 的功能真的非常强大,更多功能可参考官方文档:https://docs.openwebui.com/

感兴趣的小伙伴赶紧去试试吧~

3. 文末福利

相信看到这里的你,已经基本可以玩转 Ollama 了。

只不过觉得上述流程略显麻烦?

没问题,你的困惑早有人帮你搞定了,GitHub 上有开发者做了 docker-compose 一键整合安装包:

传送门:https://github.com/valiantlynx/ollama-docker

你只需要一行命令:

docker-compose up -d   

就能一键启动 Ollama + Open WebUI~

启动成功后,注意看一下不同容器的端口号:

docker ps   

接下来的操作,和前两部分一致,快去愉快玩耍吧~

写在最后

至此,我们一起走完了 Ollama 的部署和实战流程。

在我看来,Ollama 也许是目前最便捷的大模型部署和使用工具,对小白非常友好。

简单的命令行操作,用户即可快速启动和管理模型,极大降低了技术门槛,用户可以专注于模型的应用,而无需关注底层技术细节。此外,Ollama 的离线运行也为数据安全提供了保障。

期待大家在使用 Ollama 的过程中,发现更多有趣的 AI 应用场景。让我们一起推动大模型技术的应用落地,探索更广阔的可能性!

如何学习AI大模型 ?

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

👉1.大模型入门学习思维导图👈

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。

对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)
在这里插入图片描述

👉2.AGI大模型配套视频👈

很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。

在这里插入图片描述
在这里插入图片描述

👉3.大模型实际应用报告合集👈

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

在这里插入图片描述

👉4.大模型落地应用案例PPT👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。(全套教程文末领取哈)

在这里插入图片描述

👉5.大模型经典学习电子书👈

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)
img

在这里插入图片描述

👉6.大模型面试题&答案👈

截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)

在这里插入图片描述
👉学会后的收获:👈
基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/914644.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

前端学习八股资料CSS(二)

更多详情:爱米的前端小笔记,更多前端内容,等你来看!这些都是利用下班时间整理的,整理不易,大家多多👍💛➕🤔哦!你们的支持才是我不断更新的动力!找…

使用@react-three/fiber,@mkkellogg/gaussian-splats-3d加载.splat,.ply,.ksplat文件

前言 假设您正在现有项目中集成这些包,而该项目的构建工具为 Webpack 或 Vite。同时,您对 Three.js 和 React 有一定的了解。如果您发现有任何错误或有更好的方法,请随时留言。 安装 npm install three types/three react-three/fiber rea…

麻将室灯控计时计费软件下载 佳易王棋牌计时电脑收银管理系统操作教程

一、概述 【软件资源下载在文章最后】 麻将室灯控计时计费软件下载,棋牌计时电脑收银管理系统操作教程 核心功能‌: ‌计时计费‌:实时显示开台时间及使用时长,‌销售商品‌:商品可与桌子绑定最后结账,或…

【时间之外】IT人求职和创业应知【35】-RTE三进宫

目录 新闻一:京东工业发布11.11战报,多项倍增数据体现工业经济信心提升 新闻二:阿里云100万核算力支撑天猫双11,弹性计算规模刷新纪录 新闻三:声网CEO赵斌:RTE将成为生成式AI时代AI Infra的关键部分 认知…

基于BILSTM及其他RNN序列模型的人名分类器

数据集Kaggle链接 NameNationalLanguage | Kaggle 数据集分布: 第一列为人名,第二列为国家标签 代码开源地址 Kaggle代码链接 https://www.kaggle.com/code/houjijin/name-nationality-classification Gitee码云链接 人名国籍分类 Name Nation classification: using BI…

hive中windows子句的使用

概述 1,windows子句是对窗口的结果做更细粒度的划分 2、windows子句中有两种方式 rows :按照相邻的几行进行开窗 range:按照某个值的范围进行开窗 使用方式 (rows | range) between (UNBOUNDED | [num]) PRECEDING AND ([num] PRECEDING…

云渲染:服务器机房与物理机房两者有什么区别

云渲染选择服务器机房与物理机房两者主要区别在哪里呢? 服务器机房和物理机房作为云渲染的基础设施,各自扮演着不同的角色。 服务器机房的特点 服务器机房,通常指的是那些专门用于托管服务器的设施,它们可能位于云端&#xff0c…

零基础Java第十四期:继承与多态(二)

目录 一、继承 1.1. 继承的方式 1.2. final关键字 1.3. 继承与组合 1.4. protected关键字 二、多态 2.1. 多态的概念 2.2. 向上转型 2.3. 重写 2.4. 向下转型 2.5. 多态的优缺点 一、继承 1.1. 继承的方式 猫类可以继承动物类,中华田园猫类可以继承猫类…

电销系统:业绩翻倍的秘密武器

在当今竞争激烈的商业环境中,企业都在寻求各种方法来提升业绩。而电销系统正以其强大的功能和优势,成为众多企业实现业绩翻倍的有力工具。 一、高效的客户管理 电销系统能够对客户信息进行全面、系统的管理。从客户的基本资料、联系方式到历史沟通记录、…

CTFhub靶场RCE学习

靶场 eval执行 <?php if (isset($_REQUEST[cmd])) {eval($_REQUEST["cmd"]); } else {highlight_file(__FILE__); } ?> PHP代码显示&#xff0c;要求将命令赋值给cmd然后执行 先查看一下根目录文件 ?cmdsystem("ls");&#xff01;切记最后的分…

软件架构技术深入解析:AOP、系统安全架构、企业集成平台与微服务架构

目录 试题一 论面向方面的编程技术及其应用 解析 试题二 论系统安全架构设计及其应用 解析 试题三 论企业集成平台的理解与应用 解析 &#xff08;1&#xff09;通信服务 &#xff08;2&#xff09;信息集成服务 &#xff08;3&#xff09;应用集成服务 &#xff08;…

计算机网络基础:从IP地址到分层模型

计算机网络 1.计算机网络概述 概述 ​ 计算机网络是指两台或更多的计算机组成的网络&#xff0c;在同一个网络中&#xff0c;任意两台计算机都可以直接通信。互联网是网络的网络&#xff08;Internet&#xff09;&#xff0c;即把很多计算机网络连接起来&#xff0c;形成一个…

SpringCloud篇(服务提供者/消费者)(持续更新迭代)

在服务调用关系中&#xff0c;会有两个不同的角色&#xff1a; 服务提供者&#xff1a;一次业务中&#xff0c;被其它微服务调用的服务。&#xff08;提供接口给其它微服务&#xff09; 服务消费者&#xff1a;一次业务中&#xff0c;调用其它微服务的服务。&#xff08;调用…

【UML】类图及其六种关系,超详细介绍,细节满满

目录 一、概念 推荐一个画UML相关图的软件&#xff1a;ProcessOn 二、快速介绍类图 1、普通类的类图 2、抽象类的类图 3、接口的类图 三、类与类之间的关系 &#xff08;一&#xff09;、关联关系 1、单向关联 2、双向关联 3、自关联 &#xff08;二&#xff09;、聚…

HTML文件中引入jQuery的库文件

方法一&#xff1a; 1. 首先&#xff0c;在官方网站(https://jquery.com/)上下载最新版本的jQuery库文件&#xff0c;通常是一个名为jquery-x.x.x.min.js的文件。 2. 将下载的jquery-x.x.x.min.js文件保存到你的项目目录中的一个合适的文件夹中&#xff0c;比如将它保存在你的项…

使用Wireshark获取USB HID(Human Interface Device)报告描述符

使用Wireshark选择需要获取的USB进行抓取数据&#xff0c;找到设备&#xff08;host&#xff09;接收信息的数据 第二栏出现hid报告&#xff0c;右击选择复制流 将复制的内容粘贴到USB标准请求及描述符在线分析工具 - USB中文网 进行解析 以图中获取手写板的数据为例&#xff…

ReactPress与WordPress:一场内容管理系统的较量

ReactPress Github项目地址&#xff1a;https://github.com/fecommunity/reactpress WordPress官网&#xff1a;https://wordpress.org/ ReactPress与WordPress&#xff1a;一场内容管理系统的较量 在当今数字化时代&#xff0c;内容管理系统&#xff08;CMS&#xff09;已成为…

DevExpress WinForms中文教程:Data Grid - 如何绑定到实体框架数据源?

在本教程中&#xff0c;您将学习如何将DevExpress WinForms的网格控件绑定到实体框架数据源、如何使用数据注释属性来更改网格显示和管理数据的方式&#xff0c;以及如何将单元格值更改发送回数据源。 P.S&#xff1a;DevExpress WinForms拥有180组件和UI库&#xff0c;能为Wi…

使用多种机器学习调参模型进行二分类建模的全流程,代做分析辅导

使用多种机器学习调参模型进行二分类建模的全流程教程 机器学习全流程分析各个模块用到的总的参数文件 0. 分析参数文件 参数文件名称&#xff1a;total_analysis_params_demo.xlsx &#xff0c;很多分析模块都是这个总的参数文件&#xff0c;我的这个总的参数文件如果有更新…

材质(一)

描述&#xff1a; 材质蓝图&#xff0c;蓝图可以这么定义&#xff0c;是一种数据结构&#xff0c;是一种带有流水线的模糊的数据结构&#xff0c; 材质蓝图也是一种蓝图。 示例操作: