【DeepSeek】在本地计算机上部署DeepSeek-R1大模型实战(完整版)

在这里插入图片描述

【作者主页】Francek Chen
【专栏介绍】 ⌈ ⌈ 人工智能与大模型应用 ⌋ ⌋ 人工智能(AI)通过算法模拟人类智能,利用机器学习、深度学习等技术驱动医疗、金融等领域的智能化。大模型是千亿参数的深度神经网络(如ChatGPT),经海量数据训练后能完成文本生成、图像创作等复杂任务,显著提升效率,但面临算力消耗、数据偏见等挑战。当前正加速与教育、科研融合,未来需平衡技术创新与伦理风险,推动可持续发展。

文章目录

    • 前言
    • 一、为什么需要本地部署大模型
    • 二、DeepSeek R1简介
      • DeepSeek-R1 Models
      • DeepSeek-R1-Distill Models
    • 三、在本地计算机部署DeepSeek R1
      • (一)安装Ollama
      • (二)下载DeepSeek R1
      • (三)运行DeepSeek R1
      • (四)安装Python
      • (五)安装Microsoft Visual C++ Build Tools
      • (六)使用Open WebUI增强交互体验
      • (七)每次使用大模型的步骤
      • (八)取消Ollama的开机自动启动
    • 小结


前言

Homepage

2025年1月,中国春节期间,DeepSeek爆火,称为全球最炙手可热的大模型。DeepSeek一路 “狂飙”,在美国科技界和美股市场掀起惊涛骇浪,1月27日,美国三大股指开盘即暴跌,英伟达、微软、谷歌母公司Alphabet、Meta等美国主要科技股均遭遇股市地震,其中英伟达跌近17%,单日市值蒸发约6000亿美元,创美股最高纪录。

这里以DeepSeek为例介绍在自己本地计算机上部署大模型的方法。操作过程中,遇到很多错误,借助于豆包大模型,把每个错误都解决了,顺利完成了安装过程。我的笔记本电脑是Windows10操作系统。实际上,只要电脑具有8GB内存和30GB可用磁盘空间即可安装最小版本的DeepSeek R1大模型。

特别强调,在自己本地计算机上部署DeepSeek R1大模型,不需要读者具备任何计算机基础知识,也不需要掌握任何编程知识,只要会使用Windows操作系统就可以,按照本文给出的步骤,一步步执行,就可以顺利完成所有操作。

一、为什么需要本地部署大模型

一般而言,DeepSeek、文心一言、豆包、Kimi等在线的大模型,功能非常强大,完全可以很好满足我们的需求。所以,大多数情况下,我们不需要在本地部署大模型。但是,当我们需要保护个人数据隐私时,也可以考虑在本地部署大模型。

和直接使用在线大模型(豆包、Kimi等)相比,在本地部署大模型具有以下优势:

  1. 数据隐私与安全性。第一,数据本地存储:所有数据运算和存储均在本地完成,不会上传至云端,有效避免了数据在传输和云端存储过程中可能带来的隐私泄露风险。第二,完全掌控数据:用户可以完全掌控数据的使用和存储,确保数据不被未经授权的访问或用于其他目的。第三,隐私保护机制:支持访问权限控制,进一步增强数据安全性。
  2. 定制化与灵活性。第一,自定义知识库训练:用户可以根据自己的需求对模型进行自定义知识库训练,进一步提升模型在特定领域的性能。第二,灵活调整模型参数:根据业务需求灵活调整模型参数和功能,满足不同场景下的个性化需求。第三,开源灵活性:开源模型一般都允许用户无限制地进行微调或将其集成到自己的项目中。
  3. 离线与高效使用。第一,离线访问:本地部署后,无需依赖网络连接,适合旅行或网络不稳定的场景,随时随地可用。第二,避免服务器繁忙:再也不用担心“服务器繁忙”的问题,提升使用体验。
  4. 成本与资源优化。第一,成本可控:长期使用比云服务更经济,尤其适合高频调用场景。第二,硬件友好:对硬件资源要求较低,可在较少GPU或高级CPU集群上运行,资源效率显著。
  5. 避免使用限制。本地部署避免了可能出现的使用限制,不受未来商业化影响,可永久免费使用。通过本地部署开源大模型,用户不仅能够享受强大的AI功能,还能在数据隐私、定制化需求和使用成本等方面获得显著优势。

二、DeepSeek R1简介

首先需要说明的是,大模型的训练过程需要耗费大量的计算资源(比如投入上亿元构建计算机集群去训练大模型),训练成本比较昂贵,个人是无法承担的。但是,训练得到的大模型,部署到计算机上,就不需要那么高的计算资源要求。但是,即使如此,在DeepSeek出现之前,很多市场上的大模型产品都是“贵族”模型,“段位”很高,通常需要依赖高端的硬件,配置大量的GPU,普通个人计算机一般很难运行大模型。2025年1月20日,我国杭州深度求索公司的DeepSeek R1大模型正式发布,它是一个基于深度学习的推荐系统模型,通常用于处理推荐任务,如商品推荐、内容推荐等。

Deepseek R1的发布,标志着大模型产品的“平民”时代已经到来,它大大降低了对计算机硬件的要求,可以部署在普通的个人计算机上,甚至部署在手机等便携式设备中。Deepseek采用了较为简洁高效的模型架构,去除了一些不必要的复杂结构和计算,在保证模型性能的基础上,降低了对计算资源的需求,使模型在本地计算机上运行更加轻松。通过先进的量化压缩技术,Deepseek将模型的参数进行压缩存储和计算,大大减少了模型所需的存储空间和计算量。2025年1月30日,微软公司宣布支持在Win11电脑本地运行DeepSeek R1大模型。

DeepSeek R1对硬件资源比较友好,对不同硬件配置有良好的适应性,能根据用户计算机硬件配置选择合适的模型版本。入门级设备拥有4GB 存和核显就能运行1.5B(Billion,十亿,大模型参数的数量)版本;进阶设备8GB内存搭配4GB显存就能驾驭7B版本;高性能设备则可选择32B版本。而且,DeepSeek R1支持低配置电脑,即使是没有独立显卡的低配置电脑,只要有足够的空余硬盘空间,如部署最大的6710亿参数的大模型需要至少1TB的空余空间,也能完成部署。

DeepSeek R1可以满足用户的数据隐私需求,本地部署能将所有数据运算都限制在本地,数据不会上传至云端,可有效避免数据传输和存储在云端可能带来的隐私泄露风险,满足用户对数据安全和隐私保护的要求。DeepSeek R1还可以满足定制需求,用户可以根据自己的需求对模型进行自定义知识库训练,进一步提升模型在特定领域的性能。

我们介绍了我们的第一代推理模型DeepSeek-R1-zero和DeepSeek-R1。DeepSeek-R1-Zero是一个通过大规模强化学习(RL)训练的模型,没有监督微调(SFT)作为初步步骤,在推理方面表现出卓越的性能。有了强化学习,DeepSeek-R1-Zero自然就出现了许多强大而有趣的推理行为。然而,DeepSeek-R1-Zero遇到了诸如无休止的重复、可读性差和语言混合等挑战。为了解决这些问题并进一步提高推理性能,引入了DeepSeek-R1,它在强化学习之前包含了冷启动数据。DeepSeek-R1在数学、代码和推理任务方面的性能可与OpenAI-o1媲美。为了支持研究社区,目前开源了DeepSeek-R1-Zero,DeepSeek-R1,以及基于Llama和Qwen的DeepSeek-R1提炼的六个密集模型。DeepSeek-R1-Distill-Qwen-32B在各种基准测试中优于OpenAI-o1-mini,为密集模型实现了新的最先进的结果。

在这里插入图片描述

图1 AI模型在多项任务中的表现对比

DeepSeek以开源的特性和极低的成本,在数学、编程、自然语言推理等任务上表现出色,性能不亚于美国顶级AI模型。特别是DeepSeek-R1,通过创新性运用强化学习技术,以极少量标注数据实现了推理能力的跨越式提升。在数学、编程、语言理解等核心能力上,完美比肩OpenAI-o1。这一系列创新成果不仅得到了行业的广泛认可,也让世界看到了中国AI技术的崛起之势。

DeepSeek-R1 Models

Model#Total Params#Activated ParamsContext LengthDownload
DeepSeek-R1-Zero671B37B128K🤗 HuggingFace
DeepSeek-R1671B37B128K🤗 HuggingFace

DeepSeek-R1- zero和DeepSeek-R1是基于DeepSeek-V3-Base训练的。关于模型架构的更多细节,请参考DeepSeek-V3存储库。

DeepSeek-R1-Distill Models

ModelBase ModelDownload
DeepSeek-R1-Distill-Qwen-1.5BQwen2.5-Math-1.5B🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-7BQwen2.5-Math-7B🤗 HuggingFace
DeepSeek-R1-Distill-Llama-8BLlama-3.1-8B🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-14BQwen2.5-14B🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-32BQwen2.5-32B🤗 HuggingFace
DeepSeek-R1-Distill-Llama-70BLlama-3.3-70B-Instruct🤗 HuggingFace

DeepSeek-R1-Distill模型基于开源模型进行微调,使用DeepSeek-R1生成的样本。稍微改变了它们的配置和标记器。

三、在本地计算机部署DeepSeek R1

本节将详细介绍如何通过Ollama和Open WebUI在本地计算机环境中部署DeepSeek R1大模型。本地计算机至少需要8GB内存和30GB剩余磁盘空间。

(一)安装Ollama

Ollama是一个开源的本地化大模型部署工具,旨在简化大型语言模型(LLM)的安装、运行和管理。它支持多种模型架构,并提供与OpenAI兼容的API接口,适合开发者和企业快速搭建私有化AI服务。

访问Ollama官网(https://ollama.com/), 点击“Download”(如图2所示),根据操作系统(Windows、macOS或Linux)下载自己操作系统对应的安装包(如图3所示),比如,Windows用户可以点击“Windows”图标,然后,点击“Download for Windows”下载安装包。需要注意的是,对于Windows系统,这里仅支持Windows10及其以上版本。

在这里插入图片描述

图2 Ollama官网下载

在这里插入图片描述

图3 下载Windows版本Ollama

下载完成以后,双击安装包文件“OllamaSetup.exe”完成安装。安装完成后,在Windows系统中,输入快捷键Win + R,再在弹出的对话框中输入“cmd”并回车,打开cmd命令行工具窗口,输入以下命令验证是否安装成功:

ollama --version

如果显示Ollama版本号,说明安装成功(如图4所示)。

在这里插入图片描述

图4 Ollama安装成功

(二)下载DeepSeek R1

Ollama已经在第一时间支持DeepSeek R1,模型下载地址是https://ollama.com/library/deepseek-r1。 请根据自己的显存选择对应的模型,建议选择参数较少、体积最小的1.5B版本(如果计算机的配置较高,也可以选择参数较大的版本),这里的B是英文Billion(十亿),表示参数模型的参数规模,1.5B表示大模型的参数量是15亿。

在这里插入图片描述

图5 下载DeepSeek R1

当然,我们可以不用到这个下载地址手动下载,只需要在cmd命令行窗口中执行如下命令就可以自动下载DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

该命令会自动下载并加载模型,下载时间取决于网络速度和模型大小。注意,如果在下载过程中,出现长时间停滞不动,可以敲击几次回车键。下载完成后,可以使用以下命令查看模型信息:

ollama list

该命令会列出本地已下载的模型及其状态。

(三)运行DeepSeek R1

可以在cmd命令行窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

启动后,模型会进入交互模式,用户可以直接输入问题并获取回答。在交互模式下,可以测试DeepSeek R1的多种功能(如图6所示),例如:

  • 智能客服:输入常见问题,如“如何学习人工智能?”。
  • 内容创作:输入“请为我撰写一篇介绍沙县小吃的宣传文案”。
  • 编程辅助:输入“用Python绘制一个柱状图”。
  • 教育辅助:输入“解释牛顿第二定律”。

在这里插入图片描述

图6 测试DeepSeek R1的功能

cmd窗口关闭以后,DeepSeek R1大模型就停止运行了。下次再次使用时,需要再次在cmd窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

这种以命令行的方式与大模型进行对话,显然不太友好,因此,下面介绍如何通过浏览器来与大模型进行对话,这里就需要安装Open WebUI,由于Open WebUI依赖于Python环境,因此,在安装Open WebUI之前,需要首先安装Python环境(注意,只是需要安装Python环境,并不需要学习Python语言,读者可以完全不会Python语言,大模型的安装和使用过程完全不会用到Python语言)。如果读者没有使用浏览器与大模型对话的需求,可以不用学习下面的安装步骤。

(四)安装Python

Python(发音[ˈpaɪθən])是1989年由荷兰人吉多·范罗苏姆(Guido van Rossum)发明的一种面向对象的解释型高级编程语言。Python的第一个公开发行版于1991年发行,在2004年以后,Python的使用率呈线性增长,并获得“2021年TIOBE最佳年度语言”称号,这是Python第5次被评为“TIOBE最佳年度语言”,它也是获奖次数最多的编程语言。发展到今天,Python已经成为最受欢迎的程序设计语言之一。

Python可以用于多种平台,包括Windows、Linux和MacOS等。这里使用的Python版本是3.12.2(该版本于2024年2月6日发布),不要安装最新的3.13版本。请到Python官方网站下载(官网下载地址)与自己计算机操作系统匹配的安装包,比如,64位Windows操作系统可以下载python-3.12.2-amd64.exe。运行安装包开始安装,在安装过程中,要注意选中“Add python.exe to PATH”复选框,如图7所示,这样可以在安装过程中自动配置PATH环境变量,避免了手动配置的烦琐过程。

在这里插入图片描述

图7 下载Python安装包

然后,点击“Customize installation”继续安装,在选择安装路径时,可以自定义安装路径,比如设置为“C:\python312”,并在“Advanced Options”下方选中“Install Python 3.12 for all users”(如图8所示)。

在这里插入图片描述

图8 安装Python 3.12

安装完成以后,需要检测是否安装成功。可以打开Windows操作系统的cmd命令界面,然后执行如下命令打开Python解释器:

cd C:\python312
python

如果出现图9所示信息,则说明Python已经安装成功。

在这里插入图片描述

图9 Python 3.12安装成功

(五)安装Microsoft Visual C++ Build Tools

备注:对于不同的计算机环境,本步骤可能不是必须的,读者可以先跳到第6步继续操作,如果在下面的第6步遇到报错信息说“缺少Microsoft Visual C++ Build Tools”,可以再回到本步骤安装Microsoft Visual C++ Build Tools,然后再执行第6步的安装。

在安装Open WebUI之前,在有些计算机上可能还需要安装Microsoft Visual C++ Build Tools,否则,安装Open WebUI过程会报错。可以到如下网址下载该工具安装包vs_BuildTools.exe:https://visualstudio.microsoft.com/zh-hans/visual-cpp-build-tools/

下载完成以后,双击安装包文件vs_BuildTools.exe进行安装,在弹出的安装界面中(如图10所示),在界面左上角的“桌面应用和移动应用”下方,选中“使用C++的桌面开发”,然后,点击界面右下角的“安装”按钮,完成安装。

在这里插入图片描述

图10 安装Microsoft Visual C++ Build Tools

(六)使用Open WebUI增强交互体验

只要是支持Ollama的WebUI都可以,如Dify、AnythingLLM等。这里使用比较简单而且也是与Ollama结合比较紧密的Open WebUI。

可以在cmd命令行窗口中执行如下命令安装Open WebUI(这里使用国内清华大学的安装源镜像,这样可以加快安装速度):

pip install open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple

注意,如果在下载和安装过程中,出现长时间停滞不动,可以敲击几次回车键。

可以执行如下命令启动Open WebUI服务:

open-webui serve

注意,如果启动以后,看到下面界面(如图11所示),说明还没有启动成功,需要继续等待。可以敲击几次回车。

在这里插入图片描述

图11 启动Open WebUI

在继续等待过程中,可能屏幕上会出现一些错误信息,里面会包含如下内容:

requests.exceptions.ConnectTimeout: (MaxRetryError("HTTPSConnectionPool(host='huggingface.co', port=443)

这个错误信息说明,启动过程连接Hugging Face Hub失败。Hugging Face Hub网站在国外,所以,经常会连接失败,所以,导致open-webui启动过程始终停止不动。

直到出现下面屏幕信息以后(如图12所示),才说明启动成功了。

在这里插入图片描述

图12 Open WebUI启动成功

启动后,在浏览器中访问http://localhost:8080/即可进入Open WebUI界面。如果网页显示“拒绝连接”,无法访问Open WebUI界面,一般是由于你的计算机开启了Windows防火墙,可以点击“开始”菜单按钮,在弹出的界面中,在顶部的搜索框中输入“安全中心”(如图13所示),打开“Windows安全中心”,点击左侧的“防火墙和网络保护”,在右侧的“域网络”中,关闭防火墙。

在这里插入图片描述

图13 关闭防火墙

Open WebUI支持中文界面,可以在设置中调整语言,默认是你的Windows系统当前正在使用的语言。首先,需要注册一个管理员账号(如图14所示),然后,就可以开始使用了。

在这里插入图片描述

图14 注册管理员账号

在Open WebUI界面中,选择已下载的DeepSeek R1模型,即可开始对话测试。如图15所示,可以在对话框中输入“请介绍如何学习人工智能”然后回车,页面就会给出DeepSeek R1的回答结果(如图16所示)。

在这里插入图片描述

图15 开启对话

在这里插入图片描述

图16 对话结果

(七)每次使用大模型的步骤

当我们本次使用完大模型时,只需要关闭各个cmd命令行窗口,大模型就停止运行了。下次要再次使用时,还是按照一样的步骤进行操作:

1. 启动大模型
新建一个cmd命令行窗口,在cmd命令行窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

2. 启动Open WebUI

再新建一个cmd命令行窗口,在cmd命令行窗口中执行如下命令启动Open WebUI服务:

open-webui serve

3. 在浏览器中访问大模型

在浏览器中访问http://localhost:8080/即可进入Open WebUI界面,开始使用大模型。

(八)取消Ollama的开机自动启动

前面步骤已经完成了DeepSeek R1大模型的部署,但是,你会发现,每次计算机关机以后,再次启动计算机时,Ollama会开机自动启动,导致占用计算机系统资源。当我们平时不使用DeepSeek R1时,为了让Ollama不占用计算机系统资源,我们需要禁止Ollama开机自动启动。

在Windows10系统中,输入快捷键Win + R,再在弹出的对话框中输入“msconfig”并回车,进入如图17所示系统设置界面,点击“启动”选项卡,在这个选项卡中点击“打开任务管理器”,进入如图18所示的任务管理器界面,在界面中,找到“ollama.exe”,把鼠标指针放到“已启动”上面,单击鼠标右键,在弹出的菜单中点击“禁用”,然后关闭任务管理器界面。经过这样设置以后,Ollama以后就不会开机自动启动了。

在这里插入图片描述

图17 进入系统配置界面

在这里插入图片描述

图18 禁用ollama.exe

下次在使用DeepSeek时,仍然采用之前介绍的方法,在cmd命令行窗口中执行如下命令启动DeepSeek R1大模型:

ollama run deepseek-r1:1.5b

小结

本文详细介绍了如何在本地计算机上部署DeepSeek R1大模型,主要针对普通用户和开发者,提供了一个简便的安装流程,并强调了本地部署大模型的优势。首先,介绍了为什么需要本地部署大模型,包括数据隐私与安全、定制化与灵活性、离线使用、高效性、成本可控等多方面的优势。相比于在线大模型,本地部署能够有效保护用户的隐私数据,避免信息泄露,并允许用户根据实际需求对模型进行定制和调整,提升使用体验。

接着,介绍了DeepSeek R1大模型的基本概念及其发布背景。DeepSeek R1是一个具有高效、低资源消耗特性的推荐系统模型,其优化了对计算资源的要求,使得普通的个人计算机也能承载其运行。特别是DeepSeek R1支持不同硬件配置的设备,适配不同规模的用户需求。这一创新使得大规模AI模型的使用不再局限于高端硬件环境,普通用户也能在本地计算机上运行。

本文核心部分详细讲解了通过Ollama和Open WebUI等工具进行DeepSeek R1部署的步骤。从安装Ollama开始,用户只需按照简单的命令行操作,便能轻松完成模型的下载与运行。而对于更复杂的需求,如通过浏览器与模型进行互动,用户可以安装Python环境并结合Open WebUI实现更友好的操作界面。这一部分的讲解深入浅出,即便没有编程经验的用户也能轻松上手,按照步骤完成安装与配置。

此外,还提到一些可能遇到的问题及其解决方案,确保用户在遇到问题时能够找到对应的解决方法。例如,针对下载过程中可能的停滞,提供了按回车键的操作提示;对于启动失败的情况,也给出了详细的排查步骤。通过这些细致的提示,有效降低了用户操作的复杂度和失败率。

总结来说,本文为普通用户提供了一个清晰、易懂的指南,帮助他们在本地计算机上部署并运行DeepSeek R1大模型。它不仅展示了如何通过简单的工具和命令实现AI技术的本地化使用,也进一步说明了大模型应用的普及和便利性。通过这篇文章,用户可以充分理解并享受到本地部署大模型带来的数据安全、定制化、离线使用等多方面的优势,促进了AI技术的民主化。

欢迎 点赞👍 | 收藏⭐ | 评论✍ | 关注🤗

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/967817.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【Elasticsearch】Elasticsearch检索方式全解析:从基础到实战(二)

接着上一篇文章;我们继续来研究es的复杂检索 文章目录 (1) bool用来做复合查询(2)Filter【结果过滤】(3)term(4)Aggregation(执行聚合) (1) bool用来做复合查询 复合语…

如何使用DiskGenius做备份并且恢复?

如何使用DiskGenius做备份并且恢复? 前言 前言 此操作适用于将1台旧电脑的数据迁移到新电脑上 一、进入PE使用DG分区进行备份镜像 二、分区备份 1选择要操作的硬盘——2选择操作分区——3备份分区 1选择文件路径(保存pmf文件的位置选择存到U盘中&…

ZZNUOJ(C/C++)基础练习1091——1100(详解版)⭐

目录 1091 : 童年生活二三事(多实例测试) C C 1092 : 素数表(函数专题) C C 1093 : 验证哥德巴赫猜想(函数专题) C C 1094 : 统计元音(函数专题) C C 1095 : 时间间隔(多…

【Spring AI】基于SpringAI+Vue3+ElementPlus的QA系统实现一

整理不易,请不要吝啬你的赞和收藏。 1. 前言 这是 SpringAI 系列的第二篇文章,这篇文章将介绍如何基于 RAG 技术,使用 SpringAI Vue3 ElementPlus 实现一个 Q&A 系统。本文使用 deepseek 的 DeepSeek-V3 作为聊天模型,使用…

【Vue】在Vue3中使用Echarts的示例 两种方法

文章目录 方法一template渲染部分js部分方法一实现效果 方法二template部分js or ts部分方法二实现效果 贴个地址~ Apache ECharts官网地址 Apache ECharts示例地址 官网有的时候示例显示不出来,属于正常现象,多进几次就行 开始使用前,记得先…

1.【线性代数】——方程组的几何解释

1.方程组的几何解释 概述举例举例一1. matrix2.row picture3.column picture 概述 三种表示方法 matrixrow picturecolumn picture 举例 举例一 { 2 x − y 0 − x 2 y 3 \begin{cases} 2x - y 0 \\ -x 2y 3 \end{cases} {2x−y0−x2y3​ 1. matrix [ 2 − 1 − 1 2…

KITE提示词框架:引导大语言模型的高效新工具

大语言模型的应用日益广泛。然而,如何确保这些模型生成的内容在AI原生应用中符合预期,仍是一个需要不断探索的问题。以下内容来自于《AI 原生应用开发:提示工程原理与实战》一书(京东图书:https://item.jd.com/1013604…

【论文阅读】Revisiting the Assumption of Latent Separability for Backdoor Defenses

https://github.com/Unispac/Circumventing-Backdoor-Defenses 摘要和介绍 在各种后门毒化攻击中,来自目标类别的毒化样本和干净样本通常在潜在空间中形成两个分离的簇。 这种潜在的分离性非常普遍,甚至在防御研究中成为了一种默认假设,我…

基于Springmvc+MyBatis+Spring+Bootstrap+EasyUI+Mysql的个人博客系统

基于SpringmvcMyBatisSpringBootstrapEasyUIMysql的个人博客系统 1.项目介绍 使用Maven3Spring4SpringmvcMybatis3架构;数据库使用Mysql,数据库连接池使用阿里巴巴的Druid;使用Bootstrap3 UI框架实现博客的分页显示,博客分类&am…

香港中文大学 Adobe 推出 MotionCanvas:开启用户掌控的电影级图像视频创意之旅。

简介: 亮点直击 将电影镜头设计引入图像到视频的合成过程中。 推出了MotionCanvas,这是一种简化的视频合成系统,用于电影镜头设计,提供整体运动控制,以场景感知的方式联合操控相机和对象的运动。 设计了专门的运动条…

数据结构 单链表的模拟实现

一、链表的定义 线性表的链式存储就是链表。 它是将元素存储在物理上任意的存储单元中,由于⽆法像顺序表⼀样通过下标保证数据元素之间的逻辑关系,链式存储除了要保存数据元素外,还需额外维护数据元素之间的逻辑关系,这两部分信息…

Avalonia-wpf介绍

文章目录 工程简述窗体样式暗色模式亚克力模糊效果ExperimentalAcrylicBorder” 和 “ExperimentalAcrylicMaterial” 的介绍ExperimentalAcrylicBorderExperimentalAcrylicMaterial按钮排版按钮图标按钮命令响应式命令添加一个新对话框对话框窗口样式对话框的输入与输出显示对…

Node.js开发属于自己的npm包(发布到npm官网)

在 Node.js 中开发并发布自己的 npm 包是一个非常好的练习,可以帮助我们更好地理解模块化编程和包管理工具,本篇文章主要阐述如何使用nodejs开发一个属于自己的npm包,并且将其发布在npm官网。在开始之前确保已经安装了 Node.js 和 npm。可以在…

操作系统常见调度算法的详细介绍

目录 1. 先进先出算法(FIFO) 2. 前后台调度算法 3. 最短处理机运行期优先调度算法(短进程优先算法) 4. 最高响应比优先调度算法(HRRN) 5. 优先级调度算法 6. 时间片轮转调度算法 7. 多级反馈队列轮转…

ADB详细教程

目录 一、ADB简介 二、配置 配置环境变量 验证是否安装成功 三、简单使用 基本命令 设备连接管理 USB连接 WIFI连接(需要USB线) 开启手机USB调试模式 开启USB调试 四、其他 更换ADB默认启动端口 一、ADB简介 ADB(Android Debug…

WEB攻防-第60天:PHP反序列化POP链构造魔术方法流程漏洞触发条件属性修改

目录 一、序列化与反序列化基础 1.1 什么是序列化与反序列化 二、魔术方法的生命周期 2.1 常见的魔术方法 2.2 模式方法的生命周期触发调用 2.2.1 __construct() 2.2.2 __destruct() 2.2.3 __sleep() 2.2.4 __wakeup() 2.2.5 __invoke() 2.2.6 __toS…

SQLMesh系列教程-2:SQLMesh入门项目实战(下篇)

上篇我介绍了环境搭建、duckdb数据准备、sqlmesh数据模型、plan命令运行。本文继续介绍审计、测试、生成血缘关系以及python模型等。 有两种方法可以在SQLMesh中创建宏。一种方法是使用Python,另一种方法是使用Jinja。这里我们创建Python宏。让我们构建简单的Python…

自主项目面试点总结

1、许苑–OJ判题系统 技术栈:Spring BootSpring Cloud AlibabaRedisMybatisMQDocker 项目地址: https://github.com/xuyuan-upward/xyoj-backend-microservice 1.1、项目介绍: 一个基于微服务的OJ系统,具备能够根据管理员预设的题目用例对用户提交的代…

Macbook Pro快速搭建Easysearch学习环境

在学习过程中,我们有时身边没有可用的服务器,这时就需要借助自己的 Mac 来安装和学习 Easysearch。然而,Easysearch 官网并未提供 Mac 版本的安装教程,下面我将详细整理我在 Mac 上安装和使用 Easysearch 的折腾经历。 Easysearc…

Arduino 第十三章:红外接收

Arduino 第十三章:红外接收 一、红外接收概述 红外接收在日常生活和电子制作中十分常见,像电视、空调等家电的遥控器就是利用红外信号来实现远程控制的。在 Arduino 项目里,借助红外接收模块能够让设备接收红外信号,进而实现诸如…