Ollama教程,本地部署大模型Ollama,docker安装方法,仅供学习使用

不可商用!!仅仅提供学习使用!

先上视频教学:

Ollama教程,本地部署大模型Ollama,docker安装方法,仅供学习使用!



资料获取   :

Ollama下载包和安装文档在这里:  阿里云地址

[打call]

[打call]

[星星眼]


https://www.alipan.com/s/ft9WkSX5zbH
点击链接保存,或者复制本段内容,打开「阿里云盘」APP ,无需下载极速在线查看,视频原画倍速播放。​​​​​​​

简易教学

Ollama教程:本地部署大模型Ollama

一、Ollama简介

Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行大模型。用户可以通过简单的安装指令,在本地运行开源大型语言模型,如Llama 2等。

二、本地部署Ollama

  1. 下载Ollama
    • 访问Ollama官网(https://ollama.ai/download),根据你使用的系统下载相应版本。
    • 截止到2024年2月16日,Ollama已经支持Windows系统。
  2. 安装Ollama
    • 在Linux系统中,可以通过执行以下命令进行安装:curl https://ollama.ai/install.sh | sh
    • 在Windows系统中,直接双击运行安装文件即可。
  3. 使用Ollama
    • 访问Ollama的模型库(https://ollama.ai/library),检索并运行你想使用的模型。例如,运行Llama 2的命令为:ollama run llama2
  4. 配置Ollama的模型路径
    • Ollama的模型默认会存储在用户文件夹下的.ollama/models文件夹中。你可以通过配置环境变量OLLAMA_MODELS来指定模型路径。
  5. 下载和运行模型
    • 以llama3模型为例,该模型有8B和70B两个版本,分别代表80亿和700亿个训练参数。你可以通过命令ollama run llama3来默认安装8B模型,或者使用ollama run llama3:8b来指定安装8B模型。

Docker安装Ollama方法

  1. 安装NVIDIA Container Toolkit(如果使用NVIDIA GPU)
    • 配置repository:curl -s -L <https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo> | sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
    • 安装NVIDIA Container Toolkit包:sudo yum install -y nvidia-container-toolkit
  2. 配置Docker以使用NVIDIA驱动
    • 执行命令:sudo nvidia-ctk runtime configure --runtime=docker
    • 重启Docker服务:sudo systemctl restart docker
  3. 拉取和运行Ollama镜像
    • 使用CUDA运行:docker run -d --restart=always --gpus=all -v /mydata/docker/local/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
    • 使用AMD显卡运行:docker run -d --restart=always --device /dev/kfd --device /dev/dri -v /mydata/docker/local/ollama/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm
  4. 运行模型
    • 首次运行会拉取镜像,之后可以直接运行。例如,运行Llama3 7B的命令为:docker exec -it ollama ollama run llama3

以上是关于Ollama本地部署和Docker安装方法的详细教程。

补充

配置Ollama的模型路径

配置Ollama的模型路径通常涉及到设置环境变量,这样Ollama就能知道在哪里查找和加载模型文件。以下是一般步骤来配置Ollama的模型路径:

  1. 确定模型存储位置
    首先,你需要确定你的模型文件存放在哪个目录下。这个目录可以是本地文件系统上的任何位置。

  2. 设置环境变量
    在Unix/Linux系统中,你可以使用export命令来设置环境变量。在Windows系统中,你可以通过“系统属性”->“高级”->“环境变量”来设置。

    对于Unix/Linux系统,你可以打开你的shell配置文件(比如~/.bashrc~/.bash_profile),并添加以下行来设置环境变量:

     

    bash复制代码

    export OLLAMA_MODELS=/path/to/your/models

    替换/path/to/your/models为你的模型实际存放的目录路径。

    然后,你需要使这个更改生效。如果你已经打开了shell,你可以运行source ~/.bashrc(或你的配置文件名)来加载新的环境变量。否则,你可以关闭并重新打开你的shell。

    对于Windows系统,你需要:

    • 右键点击“此电脑”或“计算机”,选择“属性”。
    • 点击“高级系统设置”。
    • 在“高级”选项卡中,点击“环境变量”。
    • 在“系统变量”部分,点击“新建”来创建一个新的环境变量。
    • 输入变量名OLLAMA_MODELS和变量值(即你的模型路径)。
    • 点击“确定”保存更改。
  3. 重启Ollama
    如果你已经运行了Ollama服务,你可能需要重启它以使新的环境变量设置生效。这通常可以通过停止服务并重新启动来完成。

  4. 验证配置
    在Ollama中运行一个命令来加载或列出模型,以确保Ollama能够正确找到并加载模型文件。

注意,Ollama的确切配置方法可能会根据其版本和文档有所不同。因此,建议参考Ollama的官方文档或GitHub存储库中的README文件以获取最准确的信息。此外,如果Ollama提供了一个配置文件或命令行选项来设置模型路径,那么你也可以使用那些方法。

找不到环境变量在哪里?

当您提到找不到环境变量在哪里时,我理解您可能是在询问如何在不同的操作系统中查看或设置环境变量。以下是在不同操作系统中查看和设置环境变量的清晰步骤:

Windows系统

  1. 查看环境变量
    • 右键点击“此电脑”或“计算机”,选择“属性”。
    • 点击“高级系统设置”。
    • 在“高级”选项卡中,点击“环境变量”。
    • 在这里,您可以看到“用户变量”和“系统变量”两个部分。用户变量仅对当前用户有效,而系统变量对所有用户都有效。
  2. 设置环境变量
    • 在“用户变量”或“系统变量”部分,点击“新建”来创建一个新的环境变量。
    • 输入变量名(如MY_ENV_VAR)和变量值(如C:\path\to\your\directory)。
    • 点击“确定”保存更改。

Linux系统

  1. 查看环境变量
    • 打开终端。
    • 输入printenv命令查看所有环境变量。
    • 或者,使用echo $VARIABLE_NAME(将VARIABLE_NAME替换为您要查看的变量名)来查看特定环境变量的值。
  2. 设置环境变量(临时,仅在当前终端会话中有效):
    • 在终端中,使用export VARIABLE_NAME=value命令(将VARIABLE_NAME替换为您要设置的变量名,value替换为值)。
  3. 设置环境变量(永久):
    • 对于所有用户,编辑/etc/profile/etc/environment/etc/bash.bashrc文件(取决于您的系统和需求)。
    • 对于当前用户,编辑~/.bashrc~/.bash_profile~/.profile~/.zshrc文件(取决于您使用的shell)。
    • 在文件的末尾添加export VARIABLE_NAME=value
    • 保存文件后,重新加载配置文件(如source ~/.bashrc)或重新登录以使更改生效。

Mac系统

  1. 查看环境变量
    • 打开终端。
    • 输入printenv命令查看所有环境变量。
    • 或者,使用echo $VARIABLE_NAME(将VARIABLE_NAME替换为您要查看的变量名)来查看特定环境变量的值。
  2. 设置环境变量(临时,仅在当前终端会话中有效):
    • 在终端中,使用export VARIABLE_NAME=value命令(将VARIABLE_NAME替换为您要设置的变量名,value替换为值)。
  3. 设置环境变量(永久):
    • 对于所有用户,编辑/etc/profile/etc/launchd.conf文件(但请注意,/etc/launchd.conf在较新版本的macOS中可能不再使用)。
    • 对于当前用户,编辑~/.bash_profile~/.zshrc~/.profile文件(取决于您使用的shell)。
    • 在文件的末尾添加export VARIABLE_NAME=value
    • 保存文件后,重新加载配置文件(如source ~/.bash_profilesource ~/.zshrc)或重新登录以使更改生效。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/668734.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

从零到一的程序猿-day2-yoloV4训练及免环境易语言调用

简介 本项目功能介绍&#xff1a;针对4位英文数字随机组合的验证码抽象图片进行分类识别&#xff0c;识别结果为验证码内容 训练 没有难度&#xff0c;手动标注&#xff0c;样本为150张&#xff0c;首先识别出图片中每个英数的位置&#xff0c;再由分类器进行标注识别&#x…

latex bib引参考文献

1.bib内容 2.sn-mathphys-num是官方的参考文献格式 3.不用导cite包&#xff0c;文中这么写 4.end document前ckwx是自己命名的bib的名字

C语言Linux进度条模拟

在Linux字符界面中&#xff0c;使用yum、apt下载东西时会有一个图形化的进度条&#xff0c;可以告诉我们任务的执行进度。 我们也可以通过C语言实现一个类似的进度条&#xff0c;并且可以做得更加美观。以后我们自己写的程序需要显示进度时就可以去调用我们自己实现的进度条。 …

【算法】贪心算法——柠檬水找零

题解&#xff1a;柠檬水找零(贪心算法) 目录 1.题目2.题解3.参考代码4.证明5.总结 1.题目 题目链接&#xff1a;LINK 2.题解 分情况讨论 贪心算法 当顾客为5元时&#xff0c;收下当顾客为10元时&#xff0c;收下10元并找回5元当顾客为20元时&#xff0c;收下20元并找回10…

图像交换部分区域或帧

生成一个boundingbox&#xff0c;或区间 给定矩形框占图像的面积比例&#xff0c;和图像的宽W高H&#xff0c;生成矩形框。根据给定的矩形框&#xff0c;交换两张图像的部分区域。 这里为了方便展示&#xff0c;简化问题&#xff0c;给定一个图像数组mels&#xff0c;对第 i …

基于SSM框架的垃圾分类系统的设计与实现(含源码+sql+开题报告+论文+论文答辩模板)

图1 前台首页截图 首页展示&#xff1a;首页展示法律法规、公示公告、用户交流论坛、分类指南、垃圾站点、以及个人中心&#xff1b; 法律法规&#xff1a;展示我国《城市生活垃圾分类及其评价标准》以及《生活垃圾分类标志》等最新法律法规&#xff1b; 公示公告&#xff1…

【第1章】SpringBoot实战篇之注册接口

文章目录 前言一、代码部分1. User2.UserMapper13. UserSerivce4. UserController15. Result 二、测试1.注册2.再次注册 总结 前言 下面介绍用户注册接口。 一、代码部分 1. User package org.example.springboot3.bigevent.entity;import com.baomidou.mybatisplus.annotat…

【Vulhub】Fastjson 1.2.24_rce复现

文章目录 一&#xff0c;Fastjson是什么&#xff1f;二&#xff0c;fastjson漏洞原理三&#xff0c;判断是否有fastjson反序列化四&#xff0c;复现Fastjson 1.2.24_rce(vulhub)环境配置1.判断是否存在Fastjson反序列化2.反弹shell3.启动RMI服务器4.构造恶意POST请求 一&#x…

FineBi导出Excel后台版实现

就是不通过浏览器,在后台运行的导出 参考文档在:仪表板查看接口- FineBI帮助文档 FineBI帮助文档 我这里是将这个帮助文档中导出的excel文件写到服务器某个地方后,对excel进行其他操作后再下载。由于原有接口耦合了HttpServletRequest req, HttpServletResponse res对象,…

【代码随想录】【算法训练营】【第24天】 [77]组合

前言 思路及算法思维&#xff0c;指路 代码随想录。 题目来自 LeetCode。 day 23&#xff0c;愉快的周五~ 题目详情 [77] 组合 题目描述 77 组合 解题思路 前提&#xff1a;组合求子集问题 思路&#xff1a;回溯算法三部曲&#xff1a;递归函数的返回值以及参数、回溯…

MySQL 自定义函数(实验报告)

一、实验名称&#xff1a; 自定义函数 二、实验日期&#xff1a; 2024年 6 月 1 日 三、实验目的&#xff1a; 掌握MySQL自定义函数的创建及调用&#xff1b; 四、实验用的仪器和材料&#xff1a; 硬件&#xff1a;PC电脑一台&#xff1b; 配置&#xff1a;内存&#…

数据结构——图论详细笔记

一 图论基本概念 Directed Acyclic Graph &#xff08;DAG&#xff09; 二 图的存储 ①邻接矩阵(适用于稠密图) ②邻接表(适用于稀疏图) 三、图的遍历 ①深度优先搜索 //(基于邻接表实现&#xff0c;以有向图为例) //DFS:Depth First Search 深度优先搜索 //1、访问起始顶点 …

STM32学习和实践笔记(33):待机唤醒实验

1.STM32待机模式介绍 很多单片机具有低功耗模式&#xff0c;比如MSP430、STM8L等&#xff0c;我们的STM32也不例外。默认情况下&#xff0c;系统复位或上电复位后&#xff0c;微控制器进入运行模式。在运行模式下&#xff0c;HCLK 为CPU提供时钟&#xff0c;并执行程序代码。这…

【GPU原理】1.线程和缓存的关系

一、GPU如何做并行计算 1.简单的串行计算 对于如上的运算AXY&#xff0c;每次运算我们需要从内存读取两个数据&#xff0c;一个是x[i]&#xff0c;一个是y[i]&#xff0c;最后存回y[i]。这里面有一个FMA的操作&#xff08;融合乘加&#xff08;FMA&#xff09;指令是RISC处理器…

基于Qt GraphicView 解析 CIM/G 电力接线图文件

本文讲述了如何使用Qt的框架来渲染展示标准的CIM/G格式的图形文件&#xff0c;也就是公用信息模型&#xff08;common information model&#xff0c;CIM&#xff09;中的G文件部分的内容。这是一种电力系统图形的交换规则&#xff0c;用于电网图形交换。 [by amjieker] CIM/G …

Ai晚班车531

1.中央网信办等三部门&#xff1a;加快推进大模型、生成式人工智能标准研制。 2.中国石油与中国移动、华为、科大讯飞签署合作协议。 3.Opera浏览器与谷歌云合作&#xff0c;接入 Gemini 大模型。 4.谷歌 Gemini 加持Chromebook Plus。 5.英飞凌&#xff1a;开发 8kW和12kW…

《技术人求职之道》:从入职到离职,全方位解析求职艺术

一、引言二、内容&#xff1a;该求职专栏包含什么三、结果&#xff1a;通过该专栏你将收获什么四、说明&#xff1a;关于该专栏的一些问题解答五、后记 一、引言 求职&#xff0c;这是每个人职业生涯中必经的阶段&#xff0c;技术人亦不例外。上一个冬天的寒风已过&#xff0c…

获取 Bean 对象更加简单的方式

获取 bean 对象也叫做对象装配&#xff0c;是把对象取出来放到某个类中&#xff0c;有时候也叫对象注⼊。 对象装配&#xff08;对象注⼊&#xff09;即DI 实现依赖注入的方式有 3 种&#xff1a; 1. 属性注⼊ 2. 构造⽅法注⼊ 3. Setter 注⼊ 属性注入 属性注⼊是使⽤ Auto…

MySQL性能分析工具——EXPLAIN

性能分析工具——EXPLAIN 1、概述 定位了查询慢的SQL之后&#xff0c;我们就可以使用EXPLAIN或DESCRIBE工具做针对性的分析查询语句 。 DESCRIBE语句的使用方法与EXPLAIN语句是一样的&#xff0c;并且分析结果也是一样的。 MySQL中有专门负责优化SELECT语句的优化器模块&…

报表工具DataEase技术方案(二)

一、DataEase报表功能开发流程 1. 创建数据源 2. 创建数据集 可以创建多种来源的数据集&#xff0c;这里以SQL数据集为例。 数据集SQL中可以添加参数&#xff0c;仪表板展示数据时可以根据参数来筛选数据。 数据集添加计算字段 3. 创建仪表板 &#xff08;1&#xff09;组合…