Sora的前世今生:从文生图到文生视频

在2月16日凌晨,OpenAI首款文本生成视频模型Sora正式亮相,迅速在网络上引发广泛关注。对于Sora背后的技术原理,网络上已经充斥着各种分析和猜测,其中大多数分析都是从技术报告入手,对于普通读者来说难度相对较高。为了使技术原理更加通俗易懂,本文将从文本生成图像到文本生成视频的技术演进角度进行剖析,解读从AE、VAE、DDPM、LDM到DiT和Sora的技术发展路线,旨在为读者提供一条清晰简明的技术进化路径。

1. 背景

最近AI圈内乃至整个科技圈最爆的新闻莫过于OpenAI的Sora了,感觉热度甚至远超之前ChatGPT发布时的热度。OpenAI也是放出了Sora的技术报告(有一定的信息量,也留下了大量的想象空间)。

技术报告传送门: https://openai.com/research/video-generation-models-as-world-simulators

今天就来尝试聊一下Sora的前世今生,欢迎交流讨论批评指正!

无论是文生图还是文生视频,很多这方面的工作其实都可以看成是自编码器的进阶版本,让我们从自编码器开始入手。

自编码器(Autoencoder):压缩大于生成

自编码器由编码器和解码器两个部分构成

编码器负责学习输入到编码的映射 ,将高维输入(例如图片)转化为低维编码

解码器则学习编码到输出的映射 ,将这些低维编码还原为高维输出(例如重构的图片)

^x=d(z)

^x=d(z)

我们希望压缩前和还原后的向量尽可能相似(比如让它们的平均平方误差MSE尽可能小)

loss=||x−^x||2=||x−d(z)||2=||x−d(e(x))||2

这样就能让神经网络学会使用低维编码表征原始的高维向量(例如图片)。

那有了自编码器能够做生成吗,答案是可以的,只要留下解码器,我随便喂入一个低维编码,不就能够得到一个生成的高维向量了(例如图片)。(当然,这里可能生成一起奇奇怪怪的东西,因为这里对低维向量没有做出约束,自编码器通过将图片转化为数值编码再还原回图片的过程,可能导致对训练数据过拟合。结果就是,对于未见过的低维编码,解码器重构的图片质量通常不佳。因此自编码器更多用于数据压缩。)

变分自编码器(Variational Autoencoders):迈向更鲁棒地生成

自编码器不擅长图片生成是因为过拟合,那如果能够解决过拟合问题,不就能拿来生成图片了!

变分自编码器做的就是这么一件事:既然自编码器将图片编码为确定性的数值编码会导致过拟合,变分自编码器就将图片编码为一个具有随机性的概率分布,比如标准正态分布。 这样当模型训练好后,我们只要给解码器喂入采样自标准正态分布的低维向量,就能够生成较为“真实”的图片了。

因此,变分自编码器除了希望编码前和解码后的样本尽可能相似(MSE尽可能小),还希望用于解码的数据服从标准正态分布,也就是低维编码的分布和标准正态分布的KL散度尽可能小,损失函数加上这么一项约束。

loss=∥x−^x∥2+KL[N(μx,σx),N(0,1)]=∥x−d(z)∥2+KL[N(μx,σx),N(0,1)]

变分自编码器中涉及到了从标准正态分布中进行采样,因此作者引入了一种参数化的技巧(也是为了误差能够反向传播),感兴趣的可以进一步了解。 此外,VQ-VAE、VQ-GAN 也是一些值得学习的工作。由于不影响对后续的理解,这里不再进行赘述。

变分自编码器减轻了自编码器过拟合的问题,也确实能够用来做图片的生成了,但是大家会发现用它生成图片通常会比较模糊。可以这样想一下,变分自编码器的编码器和解码器都是一个神经网络,编码过程和解码过程都是一步就到位了,一步到位可能带来的问题就是建模概率分布的能力有限/或者说能够对图片生成过程施加的约束是有限的/或者说“可控性”是比较低的。

去噪扩散概率模型(DDPM):慢工出细活

既然变分自编码器一步到位的编解码方式可能导致生成图片的效果不太理想,DDPM就考虑拆成多步来做,它将编码过程和解码过程分解为多步:

编码过程

x=x0→x1→x2→⋯→xT−1→xT=z

解码过程

z=xT→xT−1→xT−2→⋯→x1→x0=x

因此,所谓的扩散模型由两个阶段构成

  • 前向扩散过程,比如给定一张照片,不断(也就是多步)往图片上添加噪声,直到最后这样图片看上去什么都不是(就是个纯噪声)
  • 反向去噪过程,给定噪声,不断执行去噪的这一操作,最终得到一张“真实好看”的照片

下图中从右往左就是前向扩散的过程,从左往右就是反向去噪的过程

可以看到每一步的下标有一个,的范围从到,代表从数据集中采样出一张图片,前向过程在每一步从高斯分布中采样出噪声叠加到时刻的图像上,当足够大时,最终会得到一个各向同性的高斯分布(球形高斯分布,也就是各个方向方差都一样的多维高斯分布)。

引用一个苏剑林大佬的比喻帮助大家理解:我们可以将扩散过程想象为建楼,其中随机噪声是砖瓦水泥等原材料,样本数据是高楼大厦,所以生成模型就是一支用原材料建设高楼大厦的施工队。这个过程肯定很难的,但俗话说“破坏容易建设难”,建楼你不会,拆楼你总会了吧?我们考虑将高楼大厦一步步地拆为砖瓦水泥的过程,当我们有了“拆楼”的中间过程后,我们知道拆楼的每一步是如何完成的,那反过来不就是建楼的一步?如果我们能学会两者之间的变换关系,那么从出发,反复地执行一步建楼的过程,最终不就能造出高楼大厦出来?

DDPM通过多步迭代生成得到图片缓解了变分自编码器生成图片模糊的问题,但是由于多步去噪过程需要对同一尺寸的图片数据进行操作,也就导致了越大的图片需要的计算资源越多(原来只要处理一次,现在有几步就要处理几次)。

DDPM细节推导(选读)

下面从数学一点的角度对DDPM进行介绍,不感兴趣的同学可以直接跳过

假设原始数据的分布为,从数据集中拿出一张图片就类似于从原始数据分布中进行采样,进一步可以定义第步的前向扩散过程为

q(xt|xt−1)=N(xt;√1−βtxt−1,βtI)

其中是第步的方差,且服从一个指定的变化规律(schedule),比如可以是线性变化、二次变换、或者按照正余弦的方式进行变化(有点类似于学习率变化的那种意思)。

有了后,根据前向扩散过程的条件分布,我们可以通过从高斯分布中采样得到

xt=√1−βtxt−1+√βtϵ

其中.

PS:为什么均值前面有个系数?其实是为了保证条件概率具有单位方差。

根据前向扩散这个条件分布,我们还可以将其一步一步展开来看和的关系,比如将

xt−1=√1−βt−1xt−2+√βt−1ϵ

代入

xt=√1−βtxt−1+√βtϵ

可以得到和的关系。进一步如果将每一步的扩散过程不过代入消元,最终可以得到

q(xt|x0)=N(xt;√¯αtx0,(1−¯αt)I)

其中,这一性质也被称为“nice property”。

有了上述前向扩散过程的定义和性质,给定数据,就可以一步步叠加噪声得到,其中为纯噪声(也可以直接根据nice property得到任意时刻的);而反向去噪的过程则是从噪声中采样一个出来,然后根据某个一步步去噪,最终得到。回顾一下前面叠加噪声(或者说拆楼)的过程,我们可以得到许多的样本对,那么“建楼”自然就是从这些数据对中学习一个从到的模型,也可以表示为概率分布,又因为这个模型是未知的,所以可以考虑采用神经网络来近似它!

神经网络可以被看作一个函数近似器,也就是输入为的函数,记作,建楼的过程就是希望和尽可能接近,比如说他们的欧式距离尽可能小

||xt−1−μ(xt)||2

不过直接让神经网络直接从来预测难度也还是比较大的,是不是可以考虑简化一下?回顾之前在“拆楼”的过程中其实已经具备从到的一个关系表示

xt=√1−βtxt−1+√βtϵt

那也就可以通过移项然后做个除法得到

xt−1=g1xt−g2ϵt

这里就是个系数,是什么先不管,但是可以认为这是从到的一个表达式,也能够启发算法的设计,如果把右边看作,由于是确定的,那么可以表示为

μ(xt)=ϵθ(xt,t)+C

其中类似于一个确定项,是不是也意味着我们只需要去预测时刻的噪声就可以了! 接着把神经网络的预测代入希望最小化的损失函数中,化简可以得到

||xt−1−μ(xt)||2=||ϵ−ϵθ(√¯αtx0+√(1−¯αt)ϵ,t)||2

综上,算法的训练流程可以表示为

算法流程

  • 随机从数据集中采样图片
  • 随机采样一个步数
  • 从高斯分布中采样一个噪声并通过nice property得到步后含噪的图片
  • 神经网络根据预测噪声,计算误差,反向传播

PS:在原论文中作者把方差给固定住了,仅学习均值部分来实现去噪的效果(当然,后续也有改进论文提出把方差也一起拿来学习)。

知道这个网络怎么训练了,我们再来思考一下网络的结构该如何设计。由于网络的输入是叠加噪声后的图片(以及时间步长),输出为噪声的预测,也就是输入和输出的维度其实是一样的,那么只要满足输入输出维度一样的神经网络结构都可以拿来一试(比如自编码器、U-net等),作者这边采用的则是U-net

U-net提出的初衷是为了解决医学图像分割的问题,其实整体来看,这个也是一个Encoder-Decoder的结构。这个结构先对图片进行卷积和池化,在U-net论文中是池化4次,比方说一开始的图片是224x224的,那么就会变成112x112,56x56,28x28,14x14四个不同尺寸的特征。然后我们对14x14的特征图做上采样或者反卷积,得到28x28的特征图,这个28x28的特征图与之前的28x28的特征图进行通道上的拼接,然后再对拼接之后的特征图做卷积和上采样,得到56x56的特征图,再与之前的56x56的特征拼接,卷积,再上采样,经过四次上采样可以得到一个与输入图像尺寸相同的224x224的预测结果。

对于时间步长,可以将其转化为time embedding(比如类似position embedding的做法),然后叠加到(U-net的各层)图片上。

模型结构也确定了,怎么训练也知道了,那么训练完后该如何生成图片呢?图片的生成过程也称为采样的过程,流程如下

反向去噪过程:从高斯分布中采样一个噪声,从时刻开始,每次通过训练好的神经网络预测噪声,然后得到略微去噪后的图片,再代入神经网络预测噪声,不断迭代,最终得到第0步的图片。

潜在扩散模型(LDM):借助VAE来降本增效

既然DDPM在原始空间(像素级别的图片)进行扩散模型的训练(hundreds of GPU days)和采样比较费资源的,那我们就可以考虑把它降维后在latent space进行操作。因此Latent Diffusion Models的做法就是安排上一个自编码器来对原始图片进行降维,比如原来的图片是的,降成后再来进行DDPM这一套流程,生成图片时则是通过扩散模型拿到大小的图片,再通过自编码器的解码器还原为的图片。

LDM文生图(选读)

下面关于LDM的一些细节介绍,不感兴趣的同学可以直接跳过。

理解了latent的含义后,接下来再考虑下如何根据文本来生成图片呢? 既然要接收文本,那就需要给模型安排上文本编码器(text encoder),把文本转化为模型能够理解的东西。Stable Diffusion采用了CLIP的文本编码器,它的输入是一段文本,输出是77个token的embeddings向量,每个向量的维度为768(可以理解为一段话最多保留77个字(或词),每个字(或词)用768维的向量表示)。

CLIP是在400million的图片和标题构成的数据集(通过搜索的方式,查询了50w个queries,且每个query保留最多2w条(image,text)数据)上进行训练得到的,作者采用了对比学习的方式,只需要预测文本的整体和图像的成对关系,而不需要预测出具体文本的每一个字。 假设一个批次有对(图像,文本)对,可以有 种组合方式,对比学习把原始数据集中的个组合作为正样本(下图对角线),把其他的 种组合作为负样本(下图非对角线)有了正负样本后,就可以按照分类的思路来训练,比如每一行就是个N分类问题,其中label就是真实组合所在位置,比如第一行的label是0,第二行的label是1,以此类推。

得到文本的表示后,就需要考虑如何在原来的U-net里叠加上文本的信息呢? 原来的U-net的输入由两部分组成

  • 加噪后的图片
  • 时间步长()

现在则是由三部分组成

  • 加噪后的图片
  • 时间步长()
  • 文本的token embedding

为了能够充分利用文本的信息,让模型按照文本的意思来绘画,Stable Diffusion提出了一种文本和图片之间的交叉注意力机制,具体的

Attention(Q,K,V)=softmax(QKT/√d)⋅V

其中,来自于图像侧,和来自于文本侧;可以理解为计算图像和文本的相似度,然后根据这个相似度作为系数对文本进行加权。 在前面U-net的基础上,每个resnet之后接上这样一个注意力机制就得到了注入文本信息的U-net的结构了。

然后就可以愉快地像之前的DDPM一样,预测噪声,最小化MSE,学习模型了!

最后再来一张整体的结构图总结一下

Diffusion Transformers(DiT):当扩散模型遇到Transformer

LDM的扩散模型使用了U-net这一网络结构,但这个结构会是最佳的吗?

参考其他领域或者任务的经验,比如去年火了一整年的大语言模型、多模态大模型绝大部分用的都是Transformer结构,相比于U-net,Transformer结构的Scaling能力(模型参数量越大,性能越强)更受大家认可。因此,DiT其实就是把LDM中的U-net替换成了Transformer,并在Vision Transformer模块的基础上做了略微的修改使得在图片生成过程能够接受一些额外的信息,比如时间步,标签。

Vision Transformer 基础(选读)

既然要用Transformer来替换U-net,我们需要了解一下Transformer如何处理图片数据的呢?经典之作当然是Vision Transformer (ViT)了,它的主要思想就是将图片分割为固定大小的图像块(image patch/token),对于每个图像块进行线性变换并添加位置信息,然后将得到的向量序列送入一个标准的Transformer编码器。

至于图片的切割分块可以参考DiT中的这张图,假如patch的大小为,那么一张的图片会切成一个的图片块序列,然后当作文本序列来看待就好了。

Sora:视频生成的新纪元

先抛出我的观点:Sora就是改进的DiT

而DiT本质上是 VAE编码器 + ViT + DDPM + VAE解码器;从OpenAI的技术报告体现出来的创新点我认为主要有两个方面:

  • 改进VAE -> 时空编码器
  • 改进DiT -> 不限制分辨率和时长

至于图像分块、Scaling transformers、视频re-captioning、视频编辑(SDEdit)这些其实都是已知的一些做法了。

实现一个最low的视频生成模型

假如我们具备前面的知识了,或者说给你一个DiT(能够进行图片生成),如何能够实现视频的生成呢?

视频的每一帧(frame)本质上就是一张图片。在视频播放时,这些连续的图片以一定的速率(帧率,通常以每秒帧数FPS表示)快速播放,由于人眼的视觉暂留效应,这些连续的静态图片在观众眼中形成了动态效果,从而产生了视频的流畅运动感。

那要实现视频生成是不是可以看作是多帧图片的生成,因此最low的做法就是把视频生成看作独立的图片生成,使用DiT生成多帧图片然后串起来就是视频了。

当然,这样做的问题显然很大,因为没有考虑视频不同帧图片之间的关联,可能会导致生成的多帧图像很不连贯,串起来看就不像是视频了。

改进VAE:融入时间关联

为了使得视频的生成连贯,那在VAE编解码的过程自然需要去考虑视频不同帧的关系,原来对图片进行处理相当于考虑的是图片空间上的关系,现在换到视频就是多了时间上的关系,也就是经典的时空联合建模问题。

时空联合建模的方法其实非常多了,比如使用3D CNN、比如时间空间单独处理再融合、比如设计fancy的注意力机制等等。

对应的就是Sora技术报告中的Video compression network

We train a network that reduces the dimensionality of visual data.20 This network takes raw video as input and outputs a latent representation that is compressed both temporally and spatially.

技术报告中没有提及具体的做法,但是可以看出这里显然是在VAE编码器上考虑了时空建模,对于解码器的设计没有相关介绍(可能也考虑了时空建模,也可能不做改动)。

这里再分享另外一个工作VideoLDM,他们的做法是在解码器上插入额外的temporal layers来考虑视频帧之间的关系,而编码器是保持不变的。

这里额外推荐几篇视频生成的相关论文,Make-A-Video、Emu Video、VideoLDM、AnimateDiff、VideoPoet、Lumiere,感兴趣的同学可以进一步了解,这里不再赘述。

改进DiT:适配任意分辨率和时长

网上的很多分享都在传Sora能适配任意分辨率和时长是参考了NaViT这篇文章的做法,其实并非如此,Vision Transformer (ViT)本身就能够处理任意分辨率(不同分辨率就是相当于不同长度的图片块序列,不就类似你给大语言模型提供不同长度的输入一个意思)!NaViT只是提供了一种高效训练的方法。

接下来我们来思考下DiT如何处理不同分辨率和时长的视频数据呢?假如我们有一个的视频会切成一个的图片块序列(当然这里图片块的排序也可以有一些讲究,比如按空间维度排序,或者按时间维度排序)。

因为、、都是可变的,所以关键的问题应该是改进DiT使它能够更好地识别不同图片块是属于原始视频中的哪个区域。

一种可行的做法就是从位置编码的角度入手,比如对于输入Transformer的图片块,我们可以在patch embedding上叠加上时间、空间上的位置信息。

类似的,其实在ViT的工作中考虑过使用2D-aware position embeddings来表示不同图片块的位置信息,只是没有什么明显的效果。

数据仍然还是王道

在数据层面上,OpenAI也给出了两点很有参考价值的方法

  • ‍不对视频/图片进行裁剪等预处理,使用native size
  • 数据的质量很重要,比如(文本、视频)这样的成对数据,原始的文本可能并不能很好的描述视频,可以通过re-captioning的方式来优化文本描述,这一点在DALL·E 3的报告中也已经强调了,这里只是进一步从图片re-captioning扩展到视频re-captioning。

那么DALL·E 3是如何做re-captioning的呢?(选读)

既然是生成文本,自然就是类GPT的语言模型,做的就是下一个词预测;考虑到生成的文本是图像的描述,因此需要基于图像这个条件,也就是条件生成,要把 image 放进去

L(t)=∑jlogP(tj|tj−k,…,tj−1;image;Θ)

那么图像以什么形式放进去呢?简单点,就用 CLIP 来编码图像,然后把图像embedding放进去就ok了。那这样一个图像打标模型怎么训练呢?用的就是 CoCa 的方法,也就是同时考虑对比损失和LM损失

模型推理策略

官方展示Sora的应用有很多,比如文生视频、图生视频、视频反推、视频编辑、视频融合等。 这里就会涉及一些有意思的做法,比如可以这么做(以下做法并不唯一)

1.文生视频:喂入DiT的就是文本embedding+全噪声patch

2.视频编辑:类似SDEdit的做法,在视频上加点噪声(不要搞成全是噪声),然后拿去逐步去噪

3.图生视频、视频反推、视频融合:喂入DiT的就是文本embedding(可选)+特定帧用给定图片的embedding+其他帧用全噪声patch

未来会是什么?

不知道大家有没有注意到,Sora还提到了它除了文生视频,也支持文生图,这里其实透露出了一种统一的味道。我相信未来的发展肯定会出现更加强大的多模态统一,这里引用一张去年我在一场内部分享中的slides来结束本次的文章,万物皆可“分词”,选择合适的编码器 + Transformer结构或其他 + 合适的解码器,就可能实现各种不同模态之前的互相转换、互相生成!

比如可以参考NExT-GPT的一个结构图

相信2024年同样会是AI领域突飞猛进的一年,期待更多精彩的工作。

【参考资料】

Autoencoders, https://arxiv.org/abs/2003.05991

Auto-Encoding Variational Bayes, https://arxiv.org/abs/1312.6114

Denoising Diffusion Probabilistic Models, https://arxiv.org/abs/2006.11239

High-Resolution Image Synthesis with Latent Diffusion Models, https://arxiv.org/pdf/2112.10752.pdf

Scalable Diffusion Models with Transformers, https://arxiv.org/pdf/2212.09748.pdf

An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale, https://arxiv.org/abs/2010.11929

Sora, https://openai.com/research/video-generation-models-as-world-simulators

Video LDM, https://arxiv.org/pdf/2304.08818.pdf

NaViT, https://arxiv.org/abs/2307.06304

CoCa, https://arxiv.org/pdf/2205.01917.pdf

NExT-GPT, https://next-gpt.github.io/

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/475385.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

第 6 章 ROS-URDF练习(自学二刷笔记)

重要参考: 课程链接:https://www.bilibili.com/video/BV1Ci4y1L7ZZ 讲义链接:Introduction Autolabor-ROS机器人入门课程《ROS理论与实践》零基础教程 6.3.4 URDF练习 需求描述: 创建一个四轮圆柱状机器人模型,机器人参数如下,底盘为圆柱…

HarmonyOS NEXT应用开发之跨文件样式复用和组件复用

介绍 本示例主要介绍了跨文件样式复用和组件复用的场景。在应用开发中,我们通常需要使用相同功能和样式的ArkUI组件,例如购物页面中会使用相同样式的Button按钮、Text显示文字,我们常用的方法是抽取公共样式或者封装成一个自定义组件到公共组…

SpringBoot+Vue前后端分离项目在Linux系统中基于Docker打包发布

文章目录 SpringBootVue前后端分离项目在Linux系统中基于Docker打包发布一、Java项目基于Docker打包发布1.打包应用,将打好的jar包放到我们的linux系统中2.新建dockerfile3.打包镜像4.测试运行5.上传镜像到阿里云免费私仓 二、Vue项目打包到docker镜像1.编译打包前端…

龙智亮相2024国际集成电路展览会暨研讨会(IIC Shanghai),分享芯片研发及管理解决方案与技术实践

2024年3月28-29日(周四-周五),上海张江科学会堂,2024国际集成电路展览会暨研讨会(IIC Shanghai 2024)即将盛大开幕。龙智携芯片研发及管理解决方案、最佳实践与案例,以及惊喜大奖在#1A14展位等着…

Docker容器化技术(docker-compose示例:部署discuz论坛和wordpress博客,使用adminer管理数据库)

安装docker-compose [rootservice ~]# systemctl stop firewalld [rootservice ~]# setenforce 0 [rootservice ~]# systemctl start docker[rootservice ~]# wget https://github.com/docker/compose/releases/download/v2.5.0/docker-compose-linux-x86_64创建目录 [rootse…

模方软件匀色功能是灰色的不能点是什么原因?

问题如图 模方软件试用版没有匀色权限,正式版才可以用 。 下方链接有1个月的授权,有需要可以点开,软件正式版的可以使用匀色这个功能。https://item.jd.com/10037263088236.html

项目技术问题记录-IDEA设置类和方法注释模板

原创作者:田超凡(程序员田宝宝) 版权所有,引用请注明原作者,严禁复制转载 一、设置类注释模板 1.选择File–>Settings–>Editor–>File and Code Templates–>Includes–>File Header. 注释模板&am…

对七层代理、四层代理、正向代理、反向代理的认识

一、理解nginx服务代理 Nginx代理有正向和反向代理两种类型,可以基于osi七层模型中的第四层(传输层)和第七层(应用层)进行代理 注: nginx 一般支持的是7层代理,支持四层代理一般使用 lvs 或者ha…

Linux——进程信号(二)

目录 1、阻塞信号 1.1、信号其他相关常见概念 1.2、在内核中的表示 1.3、sigset_t 1.4、信号集操作函数 2、捕捉信号 2.1、内核如何捕捉信号 5.2、sigaction 1、阻塞信号 1.1、信号其他相关常见概念 实际执行信号的处理动作被称为信号递达(Delivery&#x…

每日必学Linux命令:chmod命令

** 每日一个Linux命令之chmod命令 ** chmod命令简介利用chmod命令变更文件权限 1. chmod命令简介 查询chmod命令的man page,如下所示: 根据chmod命令的man page可知,chmod命令用于修改文件的mode,那么文件的mode是什么呢&am…

软件游戏缺失unityplayer.dll怎么办,教程5种解决方法

unityplayer.dll是Unity游戏引擎的重要动态链接库文件,它的缺失将直接导致基于该引擎开发的游戏无法正常启动或运行。玩家可能会在尝试打开游戏会提示诸如“找不到unityplayer.dll”或“dll文件丢失”的错误提示,从而无法体验游戏内容。这个问题通常是由…

jscpd检测代码的重复率

官方文档:jscpd jscpd 是一个开源的代码重复检测工具,它用于查找代码中的重复部分并生成相应的报告 1、比较两个目录之间的差异 yarn jscpd --skipLocal sre/test1/** sre/test2 --reporters html生成报告文档在 ./report/html 下面,可以打开…

Java毕业设计-基于springboot开发的书籍学习平台-毕业论文+答辩PPT(附源代码+演示视频)

文章目录 前言一、毕设成果演示(源代码在文末)二、毕设摘要展示1、开发说明2、需求分析3、系统功能结构 三、系统实现展示1、平台功能模块2、后台功能模块2.1管理员功能模块2.2用户功能模块2.3作者功能模块 四、毕设内容和源代码获取总结 Java毕业设计-基…

政务服务中心怎么用AI交互数字人打造政务服务新名片?

西海岸新区政务服务中心推出AI交互数字人“灵灵”,以一体机终端形式提供便捷、智能的服务体验,并担任政务数字人主播宣传政策信息。 *图片源于网络 并且AI交互数字人灵灵还承担了政务数字人主播的工作,以数字人短视频的形式,向市…

运维人少,如何批量管理上百个微服务、上千条流水线?

作者:周静 随着微服务和云原生技术的发展,一个业务系统往往由多个微服务应用组成,多个业务方向涉及几十上百应用。每个应用研发过程又划分为测试、预发、生产多条流水线,也即成百上千条流水线。而一个企业下通常只有 1&#xff5…

C++的内存管理

目录 1. C/C内存分布 2. C语言中动态内存管理方式 3. C内存管理方式 3.1 new/delete操作内置类型 4. operator new与operator delete函数 4.1 连续开辟空间(尽力了解) 5. new和delete的实现原理 5.1 内置类型 5.2 自定义类型 6. 深入理解 6.1malloc/free和new/delete的区…

Git的原理与使用(二)

目录 修改文件 版本回退 小测试 第一次修改提交 第二次修改提交 第三次修改 查看历史提交记录 版本回退快的原因 撤销修改 位于工作区未add 已add未commit 已add且commit 删除文件 分支管理 理解分支 创建分支 切换分支 修改文件 版本库是指maser 查看当前…

Docusaurus和HelpLook:谁更适合做知识库管理

在当今信息化时代,企业建立和维护一个好用、高效、能持续更新的知识库,对内部沟通、团队合作和客户服务都很重要。Docusaurus和HelpLook都是很好的知识库管理工具,但它们的功能和优势各有不同。跟着我一起深入了解两个工具之间的优劣&#xf…

云轴科技ZStack受邀参加鲲鹏原生开发合作启动仪式

3月14日-15日,华为中国合作伙伴大会2024在深圳隆重开幕。作为鲲鹏生态重要合作伙伴,云轴科技ZStack创始人&CEO张鑫受上海鲲鹏生态创新中心之邀参加此次大会,并参加鲲鹏原生开发合作启动仪式。 鲲鹏原生应用开发旨在为伙伴提供鲲鹏硬件底…

Yolo系列各代网络结构分析(一)

Yolo系列 Yolo系列算是目标检测领域的常青树了,从v1到最近的v9,一直都在不断迭代,不断改进,但是细看其各代网络的发展,其实还是有很多一脉相承之处以及算法设计偏好的,总结主要为以下几个方面:…