linux必学基础命令大全

一切皆文件,每个文件都有具体的用途

命令快捷查看目录

    • 常用命令 - 目录类
      • 1、ls 查看当前目录下的文件
      • 2、man查看命令详细信息
      • 3、pwd 查看当前目录 -
      • 4、cd 进入目录
      • 5、清屏命令
      • 6、mkdir创建目录
      • 7、du查看文件或者文件夹大小
    • 常用命令 - 文件类
      • 1、vim/vi使用
      • 2、cat 查看文件内容
      • 3、less / more 查看文件内容
      • 3、cp 复制文件
      • 4、mv 改名/剪切
      • 5、rm 删除
      • 6、head/tail 查看文件前几行或者后几行
      • 7、tailf 监听文件尾部的变化
      • 8、wc(word count) 查看文件行数
      • 9、| 管道命令
      • 10、sort 对文件进行统计和排序
      • 11、sed linux三剑客之一
      • 试题
      • 12、grep linux三剑客之二
      • 13、awk linux三剑客之三
      • 14、date
    • 硬件操作
      • cpu/内存/硬盘/网卡
      • 打包和压缩

常用命令 - 目录类

1、ls 查看当前目录下的文件

  • -a 显示所有文件及目录,能看到包括隐藏文件(以.开头的文件)及所有文件
  • -l 详细信息(简写形式ll)
  • -r 将文件以相反次序显示
  • -t 将文件依建立的时间先后次序进行列出
  • -A 同-a,但不列出 “.”,当前目录,“…”父目录
  • -F 在列出文件后增加符合,例如目录后加“/”,可执行文件加“*”
  • -R 若文件目录下有文件,则以下文件都依次列出(递归式列出全部文件)
[hadoop@node100 home]$ ls -a
.   1      2     3      abc.tar.gz  emp文本.txt  hxx     qingtest  test
..  1.txt  2024  6.txt  emp.txt     hadoop       oracle  task.sh   zhangsan
[hadoop@node100 home]$ ls -A
1      2     3      abc.tar.gz  emp文本.txt  hxx     qingtest  test
1.txt  2024  6.txt  emp.txt     hadoop       oracle  task.sh   zhangsan
[hadoop@node100 home]$ ll
总用量 32
-rw-rw-r--   1 hadoop hadoop    8 1021 2021 1
-rw-rw-r--   1 hadoop hadoop   29 64 16:25 1.txt
-rw-rw-r--   1 hadoop hadoop    0 1021 2021 2
drwxrwxr-x   2 hadoop hadoop    6 63 18:39 2024
drwxrwxr-x   2 hadoop hadoop    6 1021 2021 3
-rw-rw-r--   1 hadoop hadoop   97 64 15:56 6.txt
-rw-rw-r--   1 hadoop hadoop  238 1021 2021 abc.tar.gz
-rw-r--r--   1 root   root    679 64 15:44 emp.txt
-rw-r--r--   1 root   root    679 64 15:44 emp文本.txt
drwx------. 16 hadoop hadoop 4096 64 16:25 hadoop
drwxrwxr-x   3 hadoop hadoop   74 64 15:30 hxx
drwx------   2 oracle oracle   62 1021 2021 oracle
drwxrwxr-x   3 hadoop hadoop   34 63 18:47 qingtest
-rwxrw-r--   1 hadoop hadoop   20 1021 2021 task.sh
drwxr--r--.  3 hadoop hadoop  165 63 17:36 test
drwx------   4   1002   1002  112 1021 2021 zhangsan
[hadoop@node100 home]$ 

2、man查看命令详细信息

man ls
man cd

3、pwd 查看当前目录 -

返回绝对路径下的位置

[hadoop@node100 home]$ pwd
/home

4、cd 进入目录

~ 家目录,当前登录用户的用户目录
. 当前目录
… 上一级目录
…/… 上上层目录
- 回退到上一个操作

[root@node100 home]# pwd
/home
[root@node100 home]# cd .
[root@node100 home]# cd ..
[root@node100 /]# cd /home/hxx
[root@node100 hxx]# cd ../..
[root@node100 /]# cd -
/home/hxx
[root@node100 hxx]# 

5、清屏命令

ctrl + l 或者 输入clear

6、mkdir创建目录

-p 可以递归创建文件夹,确保目录名称存在,不存在就创建

[hadoop@node100 hxx]$ ls
12.txt  2.txt  3.txt  hxx_2023  test
[hadoop@node100 hxx]$ mkdir 2024
[hadoop@node100 hxx]$ ls
12.txt  2024  2.txt  3.txt  hxx_2023  test
[hadoop@node100 hxx]$ mkdir -p 2024/2023/2022
[hadoop@node100 hxx]$ ls
12.txt  2024  2.txt  3.txt  hxx_2023  test
[hadoop@node100 hxx]$ cd 2024
[hadoop@node100 2024]$ ls
2023
[hadoop@node100 2024]$ 

7、du查看文件或者文件夹大小

-h 以K,M,G为单位,提高信息的可读性
-k 以1024bytes为单位
-m 以1M为单位

[hadoop@node100 home]$ ls
1      2     3      abc.tar.gz  emp文本.txt  hxx     qingtest  test
1.txt  2024  6.txt  emp.txt     hadoop       oracle  task.sh   zhangsan
[hadoop@node100 home]$ du -h abc.tar.gz
4.0K	abc.tar.gz
[hadoop@node100 home]$ du -k task.sh
4	task.sh
[hadoop@node100 home]$ du -m abc.tar.gz
1	abc.tar.gz

常用命令 - 文件类

1、vim/vi使用

vim/vi finename 进入文件查看模式,vim是vi的增强版。使用vim/vi如果没有该文件时会自动创建一个临时文件,保存退出后会生成文件,不用是touch创建也可以

从查看模式进入插入/输入模式:i/o/a

查看模式下
:q 退出
:w 保存文件
:q! 强制退出
:wq 保存并退出
:ZZ 保存并退出

光标移动:

  • gg 光标移动到文件头部
  • G 光标移动到文件尾部
  • H 光标移动到屏幕最顶端的一行
  • M 光标移动到屏幕中间的一行
  • L 光标移动到屏幕最底端的一行

yy 复制
p粘贴
5yy 当前行开始向下复制5行,p粘贴至下一行
dd 删除当前行,5dd删除当前行开始向下的5行内容
u 取消上一步操作

关键字查找内容
/匹配内容 然后回车; /开 匹配内容开字
n 查看下一个
:noh 取消查找
:set nu显示行号
:set nonu取消显示行号

以上都是在查看模式下进行的操作。
在这里插入图片描述菜鸟教程详细解答
在这里插入图片描述在这里插入图片描述点击Esc键退出插入模式进入查看模式,然后:wq可以保存退出

2、cat 查看文件内容

在这里插入图片描述

3、less / more 查看文件内容

less filename 查看文件内容,可以分页查看
上下箭头:上一行下一行

  • G:最后一页
  • g:第一页
  • 空格:下一页
  • b:上一页
  • /:关键词 搜索关键词
  • q:退出
    按到最后一页不会自动退出

more filename 查看文件内容 分页查看,按到最后一页会退出查看模式
more -5 3.txt 限定每页展示5行,页数会按照指定的5行进行分页
回车后 按enter键 按行展示,按空格键,按页展示。

3、cp 复制文件

  • -r 若给出的源文件是一个目录,此时将复制该目录下所有的子目录和文件
  • -i 在覆盖目标文件之前,提示是否覆盖(-f不提示);如果本来没有这个文件就不会提示,会直接添加到指定的目录。
[hadoop@node100 hxx]$ ls
12.txt    2014  2024年06月04日  3.txt     nofile.txt  tar1
1.tar.gz  2024  2.txt           hxx_2023  qq.txt      test
[hadoop@node100 hxx]$ cp -i 12.txt 13.txt
[hadoop@node100 hxx]$ ls
12.txt  1.tar.gz  2024            2.txt  hxx_2023    qq.txt  test
13.txt  2014      2024年06月04日  3.txt  nofile.txt  tar1
[hadoop@node100 hxx]$ cp -i 12.txt 13.txt
cp:是否覆盖"13.txt"? y

4、mv 改名/剪切

  • 改名:mv source_finame destination_filename
  • 剪切:mv source_filename 目标目录
  • 剪切目录:mv souce_directory 目标目录

如果不是当前目录的文件或者目录进行改名或者剪切要用绝对路径

在这里插入图片描述

5、rm 删除

  • -r 将目录及以下文档逐一删除
  • -i 删除前逐一询问确认
  • -f 直接删除 无需进行确认
  • rmdir 专门删除空目录
    在这里插入图片描述

6、head/tail 查看文件前几行或者后几行

head 文件名 默认是头部10行
head -n 行数 文件名
head -n 5 a.txt
head -5 a.txt 可以省略n

查看文件末尾几行
tail 文件名 默认是尾部10行
tail -n 行数 文件名
tail -n 5 a.txt
tail -5 a.txt
在这里插入图片描述

7、tailf 监听文件尾部的变化

在这里插入图片描述ctrl+c退出监听

8、wc(word count) 查看文件行数

  • wc -l 文件名称 查看文件行数
  • wc -w 文件名称 查看文件有多少个单词(以空格或换行划分一个单词)
  • wc -c 文件名称 查看文件有多少个字节;
    -gbk中文字符占据两个,utf-8中文占据3个字节。在脚本中中文占据三个,注意空格会占据一个字节,换行会占据一个字节,光标结束符会占据一个字节
    在这里插入图片描述

9、| 管道命令

把管道前面的命令当做管道后面命令的输入(a | b, 就是a命令最终结果是b的初始值)
在这里插入图片描述

10、sort 对文件进行统计和排序

以行位单位,从首字符,逐位比较ASCII值

  • sort filename | uniq -c 统计每行出现的次数
  • sort filename | uniq -c | sort -n 按出现的次数进行升序排序
  • sort filename | uniq -c | sort -n -r 按出现的次数进行降序排序

结合使用
sort -n 升序排序(按照数字列进行升序排序)
sort -n -r 降序排序
sort -nr 降序排序(按照数字列进行降序排序 )
在这里插入图片描述

11、sed linux三剑客之一

对文件以行为单位进行增删改查
sed 命令操作 文件名字 (将操作结果显示在命令行里面,但是不会操作文件本身)
sed -i 命令操作 文件名字 (将操作结果写入到文件里面,但是不会显示在命令行中)

1、新增数据 将数据写入到某一行
sed ‘行号i\写入的内容’ 文件名字 (写入到指定的行)
sed ‘行号a\写入的内容’ 文件名字 (写入到指定行的下一行)
$:表示最后一行

如果没有特殊字符可以不用打引号
在这里插入图片描述

2、删除行数据
sed ‘行号d’ 文件名
sed 2d a.txt

删除多行数据
sed ‘开始行号,结束行号d’ 文件名

sed ‘d’ a.txt 删除所有行

sed ‘1,$d’ a.txt 删除所有行

sed -i ‘1,$d’ a.txt 会修改到文件本事

结合正则进行删除
sed ‘/正则/d’ 文件名

sed ‘/hello/d’ 8.txt

sed ‘/^[0-9].*[a-z]$/d’ 8.txt

–若要删除文件中的空行
sed ‘/^$/d’ 文件名
在这里插入图片描述

3、修改行数据
sed ‘行号s/要被修改的内容/修改成的内容/g’ 文件名
sed ‘1,$s/apple/苹果/g’ a.txt
s:表示查找 g:表示全部替换
若只替换个别 用数字1,2,3(匹配的全部行的第几个,然后替换指定的第几个)
在这里插入图片描述
4、查询行数据
sed -n ‘行号p’ 文件名
sed -n ‘5p’ a.txt
sed -n ‘开始行号,结束行号p’ 文件名
sed -n ‘3,5p’ a.txt
在这里插入图片描述

试题

创建文件 /home/test1.txt
只查看每一行第一个点前面的数据:
www.baidu.com
image.baidu.com
tieba.baidu.com
v.baidu.com
map.baidu.com
map.baiduccom.com

在这里插入图片描述
方法一:sed ‘s/.baidu.*//g’ /home/test1.txt

方法二:sed ‘1,$s/.baidu.*//g’ /home/test1.txt

方法三:sed ‘s/[.].*//g’ /home/test1.txt

方法四:awk -F ‘.’ ‘{print $1}’ test1.txt

12、grep linux三剑客之二

筛选和查找行数据(结合正则)
grep 正则 文件名

  1. 查询文件里所有数字开头的行的信息
grep  '^[0-9]'  a.txt
  1. 123或789开头的
grep '[1-37-9]' a.txt
  1. 查询文件里面,以大写字母结尾的数据
    $ 进行结尾数据的判断
grep '[A-Z]$' e.txt
  1. 查找不是用H结尾的数据
grep '[^H]$' e.txt
  1. 查找所有大写结尾的数据但是不要大写H
	grep '[A-Z]$' e.txt | grep '[^H]$'

	grep '[A-GI-Z]\$' e.txt

  1. 查找以数字结尾的第二行信息
grep '[0-9]$' e.txt | sed -n '2p'  
  1. 查找数字开头,并且是小写结尾的行
grep '^[0-9].*[a-z]$' e.txt

grep '[a-z]\{5\}\.*[0-9]$' 3.txt 

带{5}次数的需要转义符号,否则无效

需要注意的是,grep不像sed正则需要加两个斜杠匹配

13、awk linux三剑客之三

以行为单位,进行读入,根据分隔符对每行数据进行切割,进行数据列的查看;

注意:如果需要下载和上传的操作可以先看第14

1、使用分隔符来对某个列进行数据的查看
awk ‘{列的操作}’ 文件名
awk ‘{print $1,$2}’ 文件名 ($0 表示全部列,$1表示第一个列)

如果文件分割符是除空格之外的其他符合需要指明分隔符

awk -F ‘文件的分隔符合’ ‘{列的操作}’ 文件名

[hadoop@node100 hxx]$ cat emp.txt
EMPNO;ENAME;JOB;MGR;HIREDATE;SAL;COMM;DEPTNO
7369;SMITH;CLERK;7902;1980/12/17;800;;20
7499;ALLEN;SALESMAN;7698;1981/02/20;1600;300;30
7521;WARD;SALESMAN;7698;1981/02/22;1250;500;30
7566;JONES;MANAGER;7839;1981/04/02;2975;;20
7654;MARTIN;SALESMAN;7698;1981/09/28;1250;1400;30
7698;BLAKE;MANAGER;7839;1981/05/01;2850;;30
7782;CLARK;MANAGER;7839;1981/06/09;2450;;10
7788;SCOTT;ANALYST;7566;1987/04/19;3000;;20
7839;KING;PRESIDENT;;1981/11/17;5000;;10
7844;TURNER;SALESMAN;7698;1981/09/08;1500;0;30
7876;ADAMS;CLERK;7788;1987/05/23;1100;;20
7900;JAMES;CLERK;7698;1981/12/03;950;;30
7902;FORD;ANALYST;7566;1981/12/03;3000;;20
7934;MILLER;CLERK;7782;1982/01/23;1300;;10

[hadoop@node100 hxx]$ awk -F ';' '{print $1,$2}' emp.txt
EMPNO ENAME
7369 SMITH
7499 ALLEN
7521 WARD
7566 JONES
7654 MARTIN
7698 BLAKE
7782 CLARK
7788 SCOTT
7839 KING
7844 TURNER
7876 ADAMS
7900 JAMES
7902 FORD
7934 MILLER

2、使用变量,对读取的列的数据进行计算
awk -F ‘分隔符’ -v变量名1=值 -v变量名2=值 ‘数据的展示’ filename

查询员工的年薪和月薪

awk -F ';' -vy=12 -vm=22 '{print $2,$6*y,$6/22}' emp.txt

3、使用逻辑对数据进行判断(相应操作不要带花括号)
找出比两千工资大的信息:

awk  -F  ';'  '$6>2000'  emp.txt

找出工资小于2000并且有奖金的用户信息

awk -F ';' '$6<2000 && $7>0' emp.txt         

找出工资等于3000或者等于5000的数据

awk -F ';' '$6==5000 || $6==3000' emp.txt   

----awk不支持 !(非) 判断 相当于not

练习
查询出emp表每一年分别有多少人入职?

[hadoop@node100 hxx]$ awk -F ';' '{print $5}' emp.txt
HIREDATE
1980/12/17
1981/02/20
1981/02/22
1981/04/02
1981/09/28
1981/05/01
1981/06/09
1987/04/19
1981/11/17
1981/09/08
1987/05/23
1981/12/03
1981/12/03
1982/01/23
[hadoop@node100 hxx]$ awk -F ';' '{print $5}' emp.txt | sed 1d 
1980/12/17
1981/02/20
1981/02/22
1981/04/02
1981/09/28
1981/05/01
1981/06/09
1987/04/19
1981/11/17
1981/09/08
1987/05/23
1981/12/03
1981/12/03
1982/01/23
[hadoop@node100 hxx]$ awk -F ';' '{print $5}' emp.txt | sed 1d | awk -F '/' '{print $1}'
1980
1981
1981
1981
1981
1981
1981
1987
1981
1981
1987
1981
1981
1982
[hadoop@node100 hxx]$ awk -F ';' '{print $5}' emp.txt | sed 1d | awk -F '/' '{print $1}' | sort | uniq -c
      1 1980
     10 1981
      1 1982
      2 1987
[hadoop@node100 hxx]$ 

##方法一
awk -F ';' '{print $5}' emp.txt|sed -n '2,$p'|awk -F '/' '{print $1}'|sort|uniq 

-c|sort -nr
##方法二
awk -F ';' '{print $5}' emp.txt|sed -n '2,$p'|sed '1,$s/\/.*//g'|sort|uniq -c|

sort -nr

14、rz/sz文件的上传与下载

yum -y install lrzsz

如果无法执行,则使用su命令切换到root
su 用户名 (临时切换)
su - 用户名 (完全切换)

sz 文件名 --下载文件

rz 上传文件到当前目录 (会直接弹框,可以选择指定文件) 也可以直接从拖拽到会话框

14、date

创建一个今天年月日命名的文件

date 会返回当前系统时间

date “+%Y-%m-%d %H:%M:%S”
也可以用单引号

`` 反引号表示要引用一个命令的结果,将这个结果放到另一个命令中当成条件去使用。
$() 与 `` 功能一样

touch `date | awk '{print $1$2$3}'`.txt
touch $(date | awk '{print $1$2$3}').txt

touch `date +%Y-%m-%d`.txt
touch $(date +%Y-%m-%d).txt

--date -d "2 days ago" "+%Y-%m-%d"  --2天前
--date -d "-2 days" "+%Y-%m-%d"  --2天前

--date -d "2 moths ago" "+%Y-%m-%d"--2个月前
--date -d "2 years ago" "+%Y-%m-%d"--2年前
[hadoop@node100 hxx]$ 
[hadoop@node100 hxx]$ date
2024年 06月 04日 星期二 21:48:10 CST
[hadoop@node100 hxx]$ date '+%Y-%m-%d %H:%M:%S'
2024-06-04 21:48:55
[hadoop@node100 hxx]$ touch `date | awk '{print $4$5$6}'`.txt
[hadoop@node100 hxx]$ ls
13.txt    2024年06月04日  emp.txt     qq.txt      test
1.tar.gz  2.txt           hxx_2023    rename.txt  test.txt
2014      a.txt           nofile.txt  tar1        星期二21:49:40CST.txt
[hadoop@node100 hxx]$ date -d '-2 days' '+%Y-%m-%d'
2024-06-02
[hadoop@node100 hxx]$ date -d '-2 days ago' '+%Y-%m-%d'
2024-06-06

如果当前系统时间不正确需要改正

设置系统定时调度的方法:

  1. 确认时间是否正确: date

  2. 安装时间服务器: yum -y install ntp

  3. 启动时间服务器:service ntpd start

  4. 选择时区的内容:tzselect --timezone

  5. 更改系统的时区的文件:cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

硬件操作

cpu/内存/硬盘/网卡

查看cpu的基本信息
cat /proc/cpuinfo

内存
查看内存的基本信息
cat /proc/meminfo

free -h
-b 以bytes为单位显示内存使用情况 free -b
-k 以KB为单位显示内存使用情况 free -k
-m 以MB为单位显示内存使用情况 free -m
-h 以合适的单位显示内存使用情况,最大为三位数,自动计算

对应的单位 free -h

		-t 显示内存总和 free -t

硬盘
查看硬盘的基本使用情况
df -h

网卡
查看网卡的基本情况
ip add 查看IP
ip add 查看IP
ifconfig 查看IP

查看自己的网络和其他另一个地址之间的网络是否通畅:
ping 另一个ip地址或者域名
ping www.baidu.com
ping www.souhu.com

打包和压缩

tar包仅仅是打包,但是不会进行压缩的方法

  • tar -cf 包名 要被打包的文件名 (c–create)
tar -cf 1.tar  *.txt
  • 查看包有什么内容( t–list)
    tar -tf 包的名字
tar -tf 1.tar
  • 解包,拿出里面的文件( x–extract )
tar -xf  1.tar

如果当前有相同的文件名,会对文件内容进行替换

  • 解开包到指定目录 tar -xf 包名 -C 指定目录
  • 追加一个或者多个文件到包里面:tar -rf 包的名字 要追加的文件名
tar  -rf  1.tar  world.txt 
tar  -rf  1.tar  apple.txt pear.txt

压缩

tar.gz包:在打包的同时,进行数据的压缩
v:显示一个过程

打包并且压缩:tar -zvcf 包名 要被打包的文件名

tar -zvcf 1.tar.gz *.txt

查看压缩包:tar -ztf 包的名字

tar -ztf 1.tar.gz 

解压缩这个包:tar -zvxf 包的名字

tar -zxf 1.tar.gz 

zip的压缩包的方法:

yum  -y install  zip
yum  -y install  unzip

打包并且压缩:zip 包名 要打包的文件名
zip 1.zip *.txt

查看压缩包的内容:unzip -l 包名

unzip  -l  1.zip

解压缩包:unzip 包名

unzip  1.zip

----待续更新中…

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/679208.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【论文复现|智能算法改进】基于改进麻雀算法的无线传感器网络覆盖优化研究

目录 1.算法原理2.改进点3.结果展示4.参考文献5.代码获取 1.算法原理 【智能算法】麻雀搜索算法&#xff08;SSA&#xff09;原理及实现 WSN数学模型 2.改进点 基于Sobol序列和ICMIC混沌映射的种群初始化 ICMIC是一种无线映射折叠次数的映射模型: { z n 1 sin ⁡ ( α π…

思维导图——幕布

一、前言 幕布是一款专注于简化和组织信息的大纲笔记应用&#xff0c;它旨在帮助用户高效地整理知识点、优化工作流程以及规划个人生活。 二、软件特点 幕布工具的核心优势在于其能够快速将用户的输入转换成清晰的思维导图&#xff0c;便于视觉化地理解和记忆信息。 幕布还具…

K8S==ingress简单搭建和使用

基础环境 D:\DOCKER_REPO\K8S>kubectl version Client Version: v1.29.2 Kustomize Version: v5.0.4-0.20230601165947-6ce0bf390ce3 Server Version: v1.29.2 D:\DOCKER_REPO\K8S>kubectl get nodes NAME STATUS ROLES AGE VERSION docker-…

域内路由选择协议——RIP

例题 RIP&#xff08;Routing Information Protocol&#xff09;是一种基于距离向量的路由协议&#xff0c;使用跳数作为度量标准来决定最优路径。下面我们详细分析为什么RIP协议要这样设计。 RIP协议的基本工作原理 距离向量算法&#xff1a; 每个路由器维护一张路由表&…

2023CCPC哈尔滨站

2023CCPC哈尔滨站https://contest.ucup.ac/contest/1412 B. Memory int main() {int n;std::cin >> n;std::vector<int> a(n);for (int i 0; i < n; i) {std::cin >> a[i];}std::string res;int x 0, Dec 0;// 整数位 x 和 小数位符号 Decfor (int i …

Druid监控页面无法打开(404)

网上教程 我得到的结果 解决 如果localhost:7080/druid/login.html 无法打开Druid监控页面&#xff0c;那么说明Druid数据库连接池根本就没有配置成功&#xff0c;所以才会出现404. 上面配置不成功&#xff0c;要么是配置问题&#xff0c;要么就是版本不兼容问题&#xff08;大…

如何利用51建模网,实现3D模型线上展示和应用?

在数字化日益成为主流体验经济的今天&#xff0c;3D创意内容和场景正以其独特的实时性、立体感和交互性&#xff0c;逐渐融入人们的日常生活&#xff0c;并日益频繁地出现在我们眼前。3D模型作为一种直观且富有表现力的工具&#xff0c;为我们提供了细致观察产品的窗口&#xf…

无码高清?Stable DIffusion教程 | 如何利用 Stable Diffusion webui 将图片变得更清晰?全方位对比4种放大方法!

大家好&#xff0c;我是大师兄 1、引言 “高分放大”&#xff08;有时候也叫“超分放大”或“高清修复”&#xff09;描述了在确保图像清晰度的前提下提升图片分辨率的过程。例如&#xff0c;将一张512 x 512的图片放大四倍&#xff0c;得到的就是2048 x 2048分辨率的图片&am…

二进制安装Prometheus

从 https://prometheus.io/download/ 下载相应版本&#xff0c;安装到服务器上官网提供的是二进制版&#xff0c;解压就 能用&#xff0c;不需要编译 1、下载软件 [rootlocalhost ~]# wget -c https://github.com/prometheus/prometheus/releases/download/v2.45.5/prometheus…

容器中运行ping提示bash: ping: command not found【笔记】

容器中运行ping提示bash: ping: command not found 原因是容器中没有安装ping命令 在容器中安装ping命令&#xff0c;可以使用以下命令&#xff1a; 对于基于Debian/Ubuntu的容器&#xff0c;使用以下命令&#xff1a; apt-get update apt-get install -y iputils-ping对于基…

Latex中标注通讯作者

** 直接使用脚注&#xff0c;不用添加宏包 多个同地址的并列&#xff0c;建议加点空格&#xff0c;好看一些 ** \title{xxxxxxxxxxxxxxxxxxx}\author{xxxxxxxxxxxxxxxxxxx\footnote{Corresponding author} ,bbbbbbbbbbbbbbbbbbb}\address{xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx…

2022 hnust 湖科大 javaweb课设 数据库课设 报告+源代码+流程图文件+课设指导书+附赠数据库课堂实验指导书

2022 hnust 湖科大 javaweb课设 数据库课设 报告源代码流程图文件课设指导书附赠数据库课堂实验指导书 描述 湖南科技大学大二下学期先后开展java web和数据库课程设计&#xff0c;两个课设项目可以通用&#xff0c;老师一般会允许自拟选题&#xff0c;所以在此统一打包&…

今日增长工具精选 | 三款你不知道但很实用的运营工具

PartnerShare作为一款分销裂变系统&#xff0c;受到国内多数工具类saas企业的青睐&#xff0c;旗下还有产品分享社区&#xff0c;介绍多种实用的工具&#xff0c;林叔从它那里获得灵感&#xff0c;新开了增长工具集合分享&#xff01;希望能帮助更多saas企业增长。 一、Charac…

lua vm 一: attempt to yield across a C-call boundary 的原因分析

使用 lua 的时候有时候会遇到这样的报错&#xff1a;“attempt to yield across a C-call boundary”。 1. 网络上的解释 可以在网上找到一些关于这个问题的解释。 1.1 解释一 这个 issue&#xff1a;一个关于 yield across a C-call boundary 的问题&#xff0c;云风的解释是…

ctfshow解题,知识点学习

1.easy_zip&#xff08;misc&#xff09; 1&#xff09;打开环境后是一个压缩包&#xff0c;解压里面有个flag.txt文件需要密码&#xff0c; 2&#xff09;直接用工具爆破&#xff0c;即可找到密码 2.easy_eval 1&#xff09;进入题目环境&#xff0c;先进行代码审计 首先说是…

【前端技术】 ES6 介绍及常用语法说明

&#x1f604; 19年之后由于某些原因断更了三年&#xff0c;23年重新扬帆起航&#xff0c;推出更多优质博文&#xff0c;希望大家多多支持&#xff5e; &#x1f337; 古之立大事者&#xff0c;不惟有超世之才&#xff0c;亦必有坚忍不拔之志 &#x1f390; 个人CSND主页——Mi…

个人网站建设方案书

个人网站建设方案书 一、项目背景 随着互联网的迅猛发展&#xff0c;个人网站已经成为展示个人能力、情感表达的重要平台。无论是个人品牌推广&#xff0c;还是个人作品展示&#xff0c;个人网站都能够为个人提供一个独特的展示空间。因此&#xff0c;建设一个个人网站已经成为…

【AIGC】PULID:对比对齐的ID定制化技术

论文链接&#xff1a;https://arxiv.org/pdf/2404.16022 github&#xff1a;https://github.com/ToTheBeginning/PuLID comfyui节点&#xff1a;GitHub - cubiq/PuLID_ComfyUI: PuLID native implementation for ComfyUI 论文亮点 增加了对比对齐loss和ID loss,最大限度减少…

MoE 大模型的前世今生

节前&#xff0c;我们星球组织了一场算法岗技术&面试讨论会&#xff0c;邀请了一些互联网大厂朋友、参加社招和校招面试的同学。 针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。 合集&#x…

【TB作品】MSP430G2553单片机读取DS18B20温度传感器,OLED显示

功能 MSP430G2553单片机读取DS18B20 0.96寸 IIC 四针OLED 部分程序 uint temp_value 0; /* 温度 */ int main(void) {unsigned char xianshi[10];WDTCTL WDTPW WDTHOLD; /* Stop WDT */OLED_Init(); /* OLED初始化 *///显示汉字 温度&#xff1a;摄氏度OLED_ShowCHinese(…