终极指南:RNNS、Transformers 和 Diffusion 模型

一、说明

        作为广泛使用这些工具和模型的人,我的目标是解开 RNN、Transformer 和 Diffusion 模型的复杂性和细微差别,为您提供详细的比较,为您的特定需求提供正确的选择。

        无论您是在构建语言翻译系统、生成高保真图像,还是处理时间序列预测,了解每个模型的功能和局限性都至关重要。我们将剖析每个架构的内部工作原理,比较它们在各种任务中的性能,并讨论它们的计算要求。

二、了解基础知识

        好了,让我们深入了解机器学习模型的迷人世界,在这里,算法变成了艺术家,数据变成了决策。我说的是递归神经网络、变形金刚和扩散模型——人工智能界的摇滚明星。每个人都有自己的怪癖、优势和看待世界的独特方式。了解它们是释放人工智能潜力的关键,相信我,它并不像看起来那么令人生畏。

2.1 顺序数据:信息的无名英雄

首先,让我们谈谈顺序数据。它无处不在,隐藏在众目睽睽之下。想想看:语言,有序的词语流动;金融市场,其趋势瞬息万变;甚至是你的日常生活,你执行的一系列动作。所有这些例子都有一个共同点——信息的顺序很重要。与排列通常无关紧要的图像或单个数据点不同,顺序数据在很大程度上依赖于其元素的上下文和顺序。

现在,传统的神经网络,许多机器学习任务的主力,都在与这种秩序概念作斗争。它们擅长处理固定大小的输入,如图像,但向它们抛出一个序列,它们会有点迷失。他们缺乏“记忆”来理解过去的信息如何影响现在和未来。

2.2 RNN 救援:记住过去

这就是 RNN 介入的地方,就像穿着代码制成的斗篷的超级英雄一样。它们拥有一种独特的能力——一种充当记忆的隐藏状态,存储来自先前输入的信息。把它想象成一个小笔记本,RNN在处理序列时记下重要的细节。这使得网络能够理解元素之间的上下文和关系,使其非常适合解决顺序数据挑战。

2.2 RNN 架构:序列母版系列

RNN 有多种口味,每种都有自己的优势和怪癖。让我们来认识一下这个家庭:

简单的 RNN:开国元勋

  • 简单 RNN 是 RNN 家族的 OG 成员。它们有一个简单的结构:一个输入层、一个隐藏层(我们讨论的内存)和一个输出层。信息在网络中流动,隐藏状态根据当前输入及其先前的值不断更新。这就像一场电话游戏,信息随着传递而演变。
  • 然而,简单的RNN有一点短期记忆问题。随着序列变长,它们很难保留来自遥远过去的信息,这种现象被称为梯度消失问题。这限制了它们对需要长期依赖的任务的有效性。

LSTM:记忆冠军

  • 长短期记忆网络(LSTM)是RNN家族的大脑。它们通过复杂的细胞结构正面解决了梯度消失的问题。每个 LSTM 单元都有三个门(输入、忘记和输出),用于控制信息流。这些门就像小小的保镖,决定让哪些信息进入,记住什么,忘记什么。这种选择性内存使 LSTM 能够轻松处理长期依赖关系,使其成为语言翻译和语音识别等任务的理想选择。

GRUs:高效的表兄弟

  • 门控循环单元 (GRU) 就像 LSTM 更年轻、更冷的表亲。它们有着相似的目标——解决消失的梯度问题——但结构更简单。GRU 有两个门而不是三个门,这使得它们在计算上比 LSTM 更有效。虽然它们可能并不总是与 LSTM 的性能相匹配,但它们的速度和易于训练使它们成为许多应用的热门选择。

2.3 优势:擅长序列数据、自然语言处理

RNN 已在广泛的应用中证明了其实力,彻底改变了我们与技术交互的方式。让我们来探讨一下他们最有影响力的贡献:

自然语言处理 (NLP):语言耳语者

  • RNN 已成为许多 NLP 任务的支柱。他们擅长机器翻译,可以捕捉不同语言的细微差别并生成准确的翻译。情感分析,理解文本背后的情感,是RNN大放异彩的另一个领域。他们可以分析评论、社交媒体帖子和其他文本数据,以衡量公众舆论和品牌情绪。

时间序列分析:预测未来

  • RNN 非常适合时间序列分析,其中数据点按时间排序。它们可用于预测,根据历史趋势预测未来值。这在金融、天气预报甚至预测工业环境中的设备故障方面都很有价值。此外,RNN 可以检测时间序列数据中的异常,识别可能表明问题或机会的异常模式。

语音识别和生成:赋予机器声音

  • RNN 在语音识别中起着至关重要的作用,将口语转换为文本。他们可以分析语音信号的声学特征,并将它们映射到相应的单词或音素。另一方面,RNN也可以用于语音生成,创建听起来非常像人类的合成语音。该技术为有语言障碍的人提供虚拟助手、文本转语音应用程序和辅助工具。

2.4 弱点:梯度消失,长期记忆有限

  • RNN 在语音识别中起着至关重要的作用,将口语转换为文本。他们可以分析语音信号的声学特征,并将它们映射到相应的单词或音素。另一方面,RNN也可以用于语音生成,创建听起来非常像人类的合成语音。该技术为有语言障碍的人提供虚拟助手、文本转语音应用程序和辅助工具。弱点:梯度消失,长期记忆有限

但即使它们的能力令人印象深刻,RNN 也有局限性。如前所述,原版RNN在消失的梯度中挣扎,这意味着它们无法记住过去太久的事情。LSTM 和 GRU 在一定程度上缓解了这种情况,但长期依赖关系仍然是一个挑战。

另一个问题是 RNN 按顺序处理信息,一次一个步骤。这可能很慢,尤其是对于长序列。在当今大数据和即时满足的世界中,速度至关重要。

2.5 使它具体化

想象一下:RNN 就像一条传送带,输入层、隐藏层和输出层都是工人。权重矩阵是连接它们的秘密武器。这是矩阵乘法和非线性变换的美丽舞蹈。

现在,训练这些坏男孩不是在公园里散步。我们使用一种叫做时间反向传播(BPTT)的小魔法来让它们学习。但要注意,消失和爆炸的梯度问题可能是真正的派对屎!这就像玩一个数字电话游戏——信息可能会丢失或在你的脸上爆炸。

为了让你体验一下这个动作,这里有一个小代码片段,告诉你如何在 PyTorch 中创建一个简单的 RNN:

<span style="background-color:#f9f9f9"><span style="color:#242424"><span style="color:#aa0d91">导入</span>火炬 <span style="color:#aa0d91">导入</span>火炬
。nn <span style="color:#aa0d91">作为</span> nn</span></span>
<span style="background-color:#f2f2f2"><span style="color:#242424">class SimpleRNN(nn.Module):
    def __init__(self, input_size, hidden_size, output_size):
        super(SimpleRNN, self).__init__()
        self.hidden_size = hidden_size
        self.rnn = nn.RNN(input_size, hidden_size, batch_first=True)
        self.fc = nn.Linear(hidden_size, output_size)    def forward(self, x):
        _, hidden = self.rnn(x)
        output = self.fc(hidden.squeeze(0))
        return output</span></span>

三、变形金刚:注意力革命

好了,伙计们,系好安全带,因为我们即将潜入变形金刚的世界,变形金刚是机器学习领域的摇滚明星,他们以其令人难以置信的能力吸引了人们的目光和下巴。还记得我们之前谈到的那些 RNN 吗?是的,好吧,变形金刚来了,说,“拿着我的啤酒”,然后开始彻底改变我们处理顺序数据的方式。

3.1 变形金刚的崛起:注意力就是你所需要的一切

那么,是什么导致了这次 Transformer 收购?好吧,尽管 RNN 令人惊叹,但它们也有其局限性。还记得他们是如何一步一步地处理信息的,比如逐字阅读一本书吗?这种顺序方法使他们很难处理长程依赖关系,其中单词或数据点之间的关系在序列中相距甚远。这就像当你读到结尾时,试图记住一本长篇小说开头发生的事情——事情变得有点模糊。

另一个问题是RNN可能很慢,计算成本高,尤其是在处理海量数据集时。训练他们感觉就像看着油漆干了一样,没有人有时间这样做。

进入注意力机制,这是使变形金刚如此强大的秘诀。注意力不是按顺序处理信息,而是允许模型专注于输入序列中最相关的部分,而不管它们的位置如何。这就像拥有一种超能力,可以让您放大重要的细节并忽略干扰。

因此,变形金刚诞生了——一种完全建立在这种注意力机制上的新颖架构。它就像一股新鲜空气,提供了一种更高效、更有效的方法来处理顺序数据。不再需要为远程依赖关系而苦苦挣扎,也不必永远等待模型进行训练。变形金刚将继续存在,他们已经准备好改变现状。

3.2 Transformer 架构:注意力的交响乐

让我们仔细看看是什么让这些变形金刚滴答作响。将变压器想象成一台复杂的机器,有两个主要组件:编码器和解码器。编码器的工作是处理输入序列,而解码器则使用该信息生成输出序列。把它想象成一个翻译,他听一种语言的句子(编码器),然后用另一种语言(解码器)说出等效的句子。

现在,神奇的事情发生在这些编码器和解码器块中,其中自我注意力占据了中心位置。自注意力使模型能够理解同一序列中不同元素之间的关系。这就像一个句子中的每个单词都在查看其他单词并弄清楚它们是如何连接的。这有助于模型掌握序列的上下文和含义,这对于翻译或文本摘要等任务至关重要。

但是等等,还有更多!变形金刚不仅有一个磁头,而且有多个磁头——准确地说,是多磁头。每个头都专注于元素之间关系的不同方面,从而提供对序列的更全面理解。这就像有一个专家团队,每个人都有自己的观点,共同分析数据。

3.3 优势:并行处理,处理远程依赖关系

变压器具有一些重要的优点:

  • 并行处理:它们可以一次处理整个序列,使其比RNN快得多,特别是对于长序列。时间就是金钱,在人工智能世界中,这转化为效率和可扩展性。
  • 长期依赖关系:自我注意力机制允许 Transformer 捕获序列中相距很远的单词之间的关系,从而解决了困扰 RNN 的长期记忆问题。

3.4 弱点:计算成本、位置编码挑战

当然,没有一个模型是完美的,变形金刚也有自己的怪癖:

  • 计算成本:所有这些并行处理和关注都是有代价的。训练 Transformer 可能需要大量的计算资源,这对于那些硬件有限的人来说可能是一个障碍。
  • 位置编码:由于 transformer 同时处理序列,因此它们会丢失固有的顺序信息。为了补偿,他们使用“位置编码”技术来注入有关单词顺序的信息。但是,这可能很棘手,并且可能并不总是完美的。

3.5 变形金刚的应用:一次征服一个序列的世界

        凭借其令人印象深刻的功能,Transformers 已迅速成为各种任务的首选模型,尤其是在自然语言处理 (NLP) 领域。让我们来看看变形金刚家族中涌现出的一些超级巨星:

  • BERT(来自 Transformer 的双向编码器表示):这种蒙面语言模型就像一个伪装大师,学习预测句子中缺失的单词。它已成为许多 NLP 任务的基本构建块,包括情感分析、问答和文本分类。
  • GPT-3(生成式预训练转换器 3):这个语言一代的庞然大物就像一本行走的百科全书,能够以各种风格和格式生成人类品质的文本。它可以写故事、诗歌、文章,甚至代码,突破人工智能的界限。
  • 视觉转换器 (ViT):变形金刚不仅限于文本,它们还在计算机视觉领域留下了自己的印记。ViT 将 Transformer 架构应用于图像处理,在图像分类任务上取得了最先进的结果。

而这只是冰山一角!Transformer 也在其他领域掀起波澜,例如音频处理和时间序列分析。它们就像瑞士陆军的机器学习刀,在各种情况下都具有适应性和有效性。

四、使它具体化

变形金刚:注意,注意,注意!

  • 好吧,要记住的关键是自我注意力机制,这是变形金刚的秘诀。

4.1 围绕自我关注建立直觉

这就像一场“谁是最重要的词”的游戏。查询、键和值向量是参与者,它们计算注意力权重以找出哪些单词是 MVP。

变形金刚有多个头,就像注意力的九头蛇。每个头都专注于输入的不同方面,使模型具有多维理解。这就像有一个专家团队一起工作来破解密码。

别忘了位置编码!它们就像单词的 GPS 坐标,确保模型不会迷失在序列中。

下面是一个简短的代码片段,向您展示了如何使用预训练的 BERT 模型进行情绪分析:

from transformers import BertTokenizer, BertForSequenceClassification
import torch
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = BertForSequenceClassification.from_pretrained('bert-base-uncased')
inputs = tokenizer("I love this movie!", return_tensors="pt")
labels = torch.tensor([1]).unsqueeze(0)  # Positive sentiment
outputs = model(**inputs, labels=labels)
loss = outputs.loss
logits = outputs.logits
print(f"Sentiment: {torch.argmax(logits, dim=1).item()}")

所以,你有它 - 一瞥变形金刚的世界及其引人注目的能力。它们彻底改变了我们处理顺序数据的方式,它们对人工智能领域的影响是不可否认的。随着研究和开发的继续,我们可以期待这些注意力驱动的模型带来更多突破性的应用和进步。人工智能的未来一片光明,变形金刚正在引领潮流。

4.2 扩散模型 — 用噪声绘画:生成式 AI 的新时代

现在,让我们从文字转向图像,进入创造力和艺术性的领域。

扩散模型,这个新生代,正在改变图像生成的游戏规则。他们的方法很独特,就像一个艺术家从一张空白的画布开始,逐渐添加细节,直到杰作出现。
忘掉你认为你知道的关于创建图像的一切,因为扩散模型正在翻转脚本,向我们展示了一种全新的噪音绘画方式。

五、新范式:扩散模型

在我们深入了解这些模型如何工作的细节之前,让我们退后一步,了解为什么它们如此重要。

5.1 生成模型:从现有模式创建新数据

生成模型是扩散模型所属的总称,它就是要创建与训练数据相似的新数据。可以这样想:你给一个生成模型看一堆猫的图片,它学习了“猫性”的本质。然后,它可以召唤出全新的、从未见过的猫图片,看起来像是真正的猫科动物。很酷,对吧?

5.2 扩散过程:逐渐添加噪声和反转

现在,这就是扩散模型变得有趣的地方。他们对这个生成过程采取了独特的方法。想象一下,拍摄一张非常清晰的图像,然后慢慢地向它添加噪点,就像电视屏幕上的静电一样,直到它变成纯粹的、无法识别的噪点。这就是前向扩散过程。

当我们逆转这个过程时,奇迹就会发生。扩散模型学习拍摄噪声图像并逐步逐渐消除噪声,直到恢复原始图像。这就像看着一位技艺精湛的艺术家一丝不苟地去除油漆层,露出下面的杰作。

5.3 学习降噪:训练扩散模型

那么,模型是如何学习这种去噪魔术的呢?我们在海量图像数据集上对其进行训练。该模型看到嘈杂的图像,并尝试预测嘈杂较小的版本。随着时间的流逝,它在这个去噪任务中变得越来越好,本质上是学习逆转扩散过程。

训练完成后,模型可以从纯噪声开始,然后逐步对其进行降噪,直到生成与训练数据相似的全新图像。这就像看着雕塑家在一块大理石上劈开,慢慢地露出里面的美丽形状。

六、扩散模型架构:噪声和有序

扩散模型有几种不同风格,每种模型都有自己独特的去噪和图像生成方法。让我们来探讨一些关键参与者:

6.1 去噪扩散概率模型 (DDPM):开拓者

DDPM是最早获得广泛关注的扩散模型之一。他们使用马尔可夫链来模拟扩散过程,这意味着噪声添加或去除的每个步骤都仅取决于前一步。这使得它们的实施和训练相对简单。

6.2 级联扩散模型:分而治之

级联扩散模型将去噪过程分解为多个阶段,每个阶段由单独的模型处理。这允许对生成过程进行更精细的控制,并可以产生更高质量的图像。这就像让一个专家团队共同努力创造杰作一样。

6.3 基于分数的生成模型:驾驭概率波

基于分数的模型采用的方法略有不同。他们不是直接预测去噪图像,而是估计扩散过程每个步骤的数据分布梯度。该梯度(也称为分数)告诉模型向哪个方向移动以消除噪声并更接近实际数据分布。这就像用指南针导航一样,总是指向想要的目的地。

6.4 优势:生成高质量图像,灵活和创造性的应用程序

扩散模型在创意界掀起波澜是有充分理由的:

  • 高质量图像:它们可以生成令人难以置信的逼真和高质量的图像,通常与真实照片无法区分。这就像有一个触手可及的人工智能艺术家,能够创造任何你能想象到的东西。
  • 灵活和创造性的应用:扩散模型不仅限于从头开始生成图像。它们还可用于图像绘画(填充图像的缺失部分)、图像到图像的转换(更改图像的样式或内容),甚至生成 3D 模型等任务。

6.5 弱点:训练复杂性、潜在的偏差和伪影

然而,扩散模型也有其挑战:

  • 训练复杂度:训练这些模型需要对扩散过程有深入的了解,并仔细优化各种参数。它不适合胆小的人。
  • 潜在的偏差和伪影:与任何在数据上训练的模型一样,扩散模型可以反映和放大训练数据中存在的偏差。重要的是要意识到这些偏见并采取措施减轻它们。此外,它们有时会在生成的图像中生成伪影或不切实际的细节。

6.6 使它具体化

扩散模型:噪音,噪音,宝贝!

  • 这就像看一个画家创作一幅杰作,一次一笔。前向扩散过程就像在原始图像中添加噪点,直到无法识别为止。反向扩散过程就像艺术家小心翼翼地去除噪音,揭示隐藏在下面的美。

在引擎盖下,这一切都与目标函数有关。对模型进行训练以最小化变分下限或噪声条件得分。这就像在玩一个有噪音的“猜猜是谁”的游戏。

下面是一个代码片段,演示如何使用预训练的扩散模型生成图像:

from diffusers import DDPMPipeline, DDIMScheduler
model_id = "google/ddpm-cifar10-32"
scheduler = DDIMScheduler(beta_start=0.0001, beta_end=0.02, beta_schedule="linear", num_train_timesteps=1000)
pipeline = DDPMPipeline.from_pretrained(model_id)
image = pipeline(num_inference_steps=1000, output_type="numpy").images[0]

七、总结:找到合适的 - 不过度拟合 😜

好了,伙计们,让我们切入正题。我们在RNN、变形金刚和扩散模型的理论宴会厅里跳华尔兹,欣赏它们独特的动作和能力。现在,是时候进入正题并回答这个紧迫的问题了:您为下一个项目选择哪一个?

如果你期待一个简单的答案,一个神奇的公式,每次都能吐出完美的模型,那么,准备好失望吧。这不是自动售货机,您可以在其中打入您的欲望并弹出一个完美包装的解决方案。选择合适的模型是一门艺术,而不是一门科学,它需要敏锐的眼光、一点经验和亲自动手的意愿。

模型军械库里没有银弹

        首先要做的是:摒弃一刀切模式的概念。这些架构中的每一个都有自己的包袱、自己的怪癖和偏好。RNN 具有循环机制,擅长处理序列,但它们可能会被长期依赖关系和消失的梯度所绊倒。变形金刚是这个街区的酷孩子,它拥有并行处理和注意力机制,可以征服长序列,但它们的计算要求很高,需要仔细的位置编码。然后是扩散模型,这群艺术家从噪声中召唤出高质量的图像,但它们伴随着训练的复杂性以及潜在的偏差和伪影。

        这就像为工作选择合适的工具一样。你不会用大锤来挂相框,也不会试图用螺丝刀盖房子。每种工具都有其用途、优势和局限性。我们的模型动物园也是如此。

八、比较:摊牌

  • 好吧,让我们把这些模型放在擂台上,看看它们是如何相互叠加的。这里有一个小比较表,可以清楚地说明问题:

如您所见,每个模型都有自己的优点和缺点。RNN 是 OG,非常适合短期记忆。变形金刚是这个街区的新孩子,拥有花哨的自我注意力机制。和扩散模型?它们是外卡,撼动了图像生成游戏。

但事情是这样的:能力越大,计算责任就越大。转换器和扩散模型可能是真正的资源消耗者,尤其是在训练期间。这就像试图把一头大象塞进迷你冰箱一样——它不会很漂亮。

问题与资源:指路明灯

那么,我们如何驾驭这个模型迷宫呢?首先要清楚地了解两个关键因素:你要解决的问题和你可以使用的资源。

手头的任务:

是序列建模吗?预测句子中的下一个单词、预测股票价格或分析时间序列数据?RNN,尤其是 LSTM 和 GRU,可能是您的首选。

处理自然语言处理?机器翻译、文本摘要还是情感分析?变形金刚凭借其自我关注的超能力,很可能会夺冠。

构思令人惊叹的图像或生成创意内容?扩散模型是人工智能世界的毕加索,随时准备将噪音变成杰作。

资源现实检查: 数据是这些模型的命脉。如果你使用的数据有限,RNN 可能难以有效学习,变形金刚可能会屈服于过度拟合的恶魔。然而,在大数据领域,Transformers和扩散模型都可以真正发挥作用,学习复杂的模式和关系。

但数据并不是唯一的难题。计算资源同样重要。训练这些模型,尤其是较大的 Transformer 和 diffusion 模型,可能需要大量的计算能力和时间。对您可以使用的硬件以及您可以负担得起的培训投资时间要现实。请记住,一个需要很长时间来训练的模型可能不切实际,无论其结果多么令人印象深刻。

技能和生态系统:配角
除了问题和资源的核心因素外,还有其他因素需要考虑。

框架熟悉度:您是 PyTorch 爱好者还是 TensorFlow 爱好者?值得庆幸的是,这三种模型类型在主要的深度学习框架中都有强大的支持,但你对特定框架的熟悉程度可能会影响你的选择。

学习曲线:让我们面对现实吧,这些模型都不是在公园里散步。每个都有自己的一套复杂性和理论基础。了解潜在机制对于有效应用和故障排除至关重要。考虑您自己的舒适度和投入时间学习每种架构的复杂性的意愿。

社区和支持:没有人是一座孤岛,在不断发展的人工智能世界中尤其如此。当您遇到障碍或需要灵感时,强大的社区和现成的资源可能是无价的。寻找具有活跃社区、全面文档以及大量在线教程和示例的模型。

人工智能
的不断变化的沙子 请记住,这种景观远非一成不变。新的架构正在出现,现有模型正在完善,人工智能的功能正在以惊人的速度扩展。今天最前沿的东西明天可能就是旧新闻。及时了解最新进展对于做出明智的决策和充分利用人工智能的潜力至关重要。

杰森·罗尔

·

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/765791.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

kettle从入门到精通 第七十四课 ETL之kettle kettle调用https接口教程,忽略SSL校验

场景&#xff1a;kettle调用https接口&#xff0c;跳过校验SSL。&#xff08;有些公司内部系统之间的https的接口是没有SSL校验这一说&#xff0c;无需使用用证书的&#xff09; 解决方案&#xff1a;自定义插件或者自定义jar包通过javascript调用https接口。 1、http post 步…

为什么是视频传输用YUV格式,而放弃RGB格式?

&#x1f60e; 作者介绍&#xff1a;我是程序员行者孙&#xff0c;一个热爱分享技术的制能工人。计算机本硕&#xff0c;人工制能研究生。公众号&#xff1a;AI Sun&#xff0c;视频号&#xff1a;AI-行者Sun &#x1f388; 本文专栏&#xff1a;本文收录于《音视频》系列专栏&…

Linux系统之 — 线程

Linux系统之 — 线程 线程介绍线程使用死锁&#xff08;Deadlock&#xff09;竞态条件&#xff08;Race Condition&#xff09; 线程使用示例服务器端代码示例服务器端示例拆解1. 引入头文件和宏定义2. 定义全局变量3. 定义线程函数4. 主函数5. 错误处理和资源释放 客户端代码示…

Keil5 ST-LINK setting闪退问题解决

1. 官网下载新版驱动文件 MDK uVision crashes when using ST-Link debugger 2. 解压替换 STLinkUSBDriver6.1.2.0Signed 我的库文件目录&#xff1a; D:\Tool\Keil5\ARM\STLink

一文搞懂 java 线程池:ThreadPoolExecutor 和 FixedThreadPool 原理

你好&#xff0c;我是 shengjk1&#xff0c;多年大厂经验&#xff0c;努力构建 通俗易懂的、好玩的编程语言教程。 欢迎关注&#xff01;你会有如下收益&#xff1a; 了解大厂经验拥有和大厂相匹配的技术等 希望看什么&#xff0c;评论或者私信告诉我&#xff01; 文章目录 一…

Linux——shell原理和文件权限

1.shell原理 在我们使用云服务器时&#xff0c;需要通过shell进行使用&#xff0c;而shell则是一种外壳程序。 我们提到过&#xff0c;大部分的指令实际上就是文件&#xff0c;当用户需要执行某种功能时&#xff0c;由于用户不擅长和操作系统直接交互&#xff08;操作复杂&…

k8s部署单机版mysql8

一、创建命名空间 # cat mysql8-namespace.yaml apiVersion: v1 kind: Namespace metadata:name: mysql8labels:name: mysql8# kubectl apply -f mysql8-namespace.yaml namespace/mysql8 created# kubectl get ns|grep mysql8 mysql8 Active 8s二、创建mysql配…

论文学习——使用基于多项式拟合的预测算法求解动态多目标问题

论文题目&#xff1a;Solving dynamic multi-objective problems using polynomial fitting-based prediction algorithm 使用基于多项式拟合的预测算法求解动态多目标问题&#xff08;Qingyang Zhang , Xiangyu He,Shengxiang Yang , Yongquan Dong , Hui Song , Shouyong Ji…

配置WLAN 示例

规格 仅AR129CVW、AR129CGVW-L、AR109W、AR109GW-L、AR161W、AR161EW、AR161FGW-L、AR161FW、AR169FVW、AR169JFVW-4B4S、AR169JFVW-2S、AR169EGW-L、AR169EW、AR169FGW-L、AR169W-P-M9、AR1220EVW和AR301W支持WLAN-FAT AP功能。 组网需求 如图1所示&#xff0c;企业使用WLAN…

JDeveloper 12C 官网下载教程

首先、我们要登录Oracle官网 Oracle 甲骨文中国 | 云应用和云平台 登录进去如果不是中文可以点击右上角带有国旗的图标就行更改&#xff0c;选择一个你能看懂的文字。 然后&#xff0c;点击“资源”—点击“开发人员下载” 然后&#xff0c;点击“开发工具” 这里有很多工具可…

【设计模式】【行为型模式】【责任链模式】

系列文章目录 可跳转到下面链接查看下表所有内容https://blog.csdn.net/handsomethefirst/article/details/138226266?spm1001.2014.3001.5501文章浏览阅读2次。系列文章大全https://blog.csdn.net/handsomethefirst/article/details/138226266?spm1001.2014.3001.5501 目录…

Python协作运动机器人刚体力学解耦模型

&#x1f3af;要点 &#x1f3af;腿式或固定式机器人模型 | &#x1f3af;网格、点云和体素网格碰撞检测 | &#x1f3af;正反向运动学和动力学 | &#x1f3af;机器人刚体力学计算 | &#x1f3af;编辑参考系姿势和路径 | &#x1f3af;软件接口实体机器人模拟 | &#x1f3a…

奇葩公司又发微博了,网友表示“乐”

多益网络 近日&#xff0c;多益网络官方微博发帖&#xff0c;公然表示对法院仲裁结果不服&#xff0c;认为劳动法有极多问题。 大家不要看微博内容似乎振振有词&#xff0c;极有可能只是多益网络单方面的选择性表达&#xff0c;毕竟多益网络的臭名早就家喻户晓。 况且对前员工直…

车载资料分享中:硬件在环、canoe、UDS诊断、OTA升级、TBOX测试

每日直播时间&#xff1a; 周一到周五&#xff1a;20&#xff1a;00-23&#xff1a;00 周六与周日&#xff1a;9&#xff1a;00-17&#xff1a;00 直播内容&#xff1a;&#xff08;车厂一比一测试&#xff09; HIL&#xff08;硬件在环&#xff09;测试、UDS功能诊断、UDS自动…

一首歌的时间 写成永远

大家好&#xff0c;我是秋意零。 就在&#xff0c;2024年6月20日。我本科毕业了&#xff0c;之前专科毕业挺有感触&#xff0c;也写了一篇文章进行记录。如今又毕业了&#xff0c;还是写一篇文章记录吧&#xff01;&#xff01; 专科毕业总结&#xff1a;大学三年总结&#xf…

使用ElementUI组件库

引入ElementUI组件库 1.安装插件 npm i element-ui -S 2.引入组件库 import ElementUI from element-ui; 3.引入全部样式 import element-ui/lib/theme-chalk/index.css; 4.使用 Vue.use(ElementUI); 5.在官网寻找所需样式 饿了么组件官网 我这里以button为例 6.在组件中使用…

利用深度学习模型进行语音障碍自动评估

语音的产生涉及器官的复杂协调&#xff0c;因此&#xff0c;语音包含了有关身体各个方面的信息&#xff0c;从认知状态和心理状态到呼吸条件。近十年来&#xff0c;研究者致力于发现和利用语音生物标志物——即与特定疾病相关的语音特征&#xff0c;用于诊断。随着人工智能&…

电信NR零流量小区处理

【摘要】随着目前网络建设逐步完善&#xff0c;5G用户的不断发展&#xff0c;针对零流量小区的分析及处理存在着必要性&#xff0c;零流量小区的出现既是用户分布及行为的直观体现&#xff0c;也是发展用户的一个指引&#xff0c;同时也能发现设备的一些故障。一个站点的能够带…

飞书API 2-3:如何使用 API 创建数据表,解放人工?

一、引入 作为飞书多维表的深度使用者&#xff0c;经常需要将一些数据库的数据同步到多维表上&#xff0c;在数据写入之前&#xff0c;一般需要新建数据表和字段。当通过网页端界面新建字段时&#xff0c;如果字段少&#xff0c;还能接受手动一个个创建&#xff0c;不过一旦字…

C++字体库开发

建议根据字体需求&#xff0c;多个组合使用。高度定制可基于freeTypeharfbuzz基础库完成。 GitHub - GNOME/pango: Read-only mirror of https://gitlab.gnome.org/GNOME/pango GitHub - googlefonts/fontview: Demo app that displays fonts with a free/libre/open-source …