用 Python 从零开始创建神经网络(二)

用 Python 从零开始创建神经网络(二)

  • 引言
  • 1. Tensors, Arrays and Vectors:
  • 2. Dot Product and Vector Addition
    • a. Dot Product (点积)
    • b. Vector Addition (向量加法)
  • 3. A Single Neuron with NumPy
  • 4. A Layer of Neurons with NumPy
  • 5. A Batch of Data
  • 6. Matrix Product
  • 7. Transposition for the Matrix Product
  • 8. A Layer of Neurons & Batch of Data w/ NumPy

引言

本教程专为那些对神经网络已有基础了解、但尚未动手实践过的读者而设计。尽管网上充斥着各种教程,但很多内容要么过于简略,要么直接进入高级主题,让初学者难以跟上。本指南将带领你从零开始,用 Python 构建一个简单的神经网络模型,逐步拆解每一步,帮助你真正理解神经网络的工作原理,为今后的深入学习打下坚实基础。

1. Tensors, Arrays and Vectors:

张量、数组和向量


简单的列表:

l = [1,5,6,2]

列表中的列表:

lol = [[1,5,6,2],
	   [3,2,1,3]]

列表中的列表中的列表:

lolol = [[[1,5,6,2],
		  [3,2,1,3]],
		 [[5,2,1,2],
		  [6,4,8,4]],
		 [[2,8,5,3],
		  [1,1,9,4]]]

另一种列表中的列表:

another_list_of_lists = [[4,2,3],
						 [5,1]]

列表,矩阵,数组(这个数组的“形状”是3x2,或者更正式地描述为形状为(3, 2),因为它有3行和2列。):

list_matrix_array = [[4,2],
					 [5,1],
					 [8,2]]

对于三维数组,如下面的lolol,我们将有第三层括号:

lolol = [[[1,5,6,2],
	      [3,2,1,3]],
		 [[5,2,1,2],
		  [6,4,8,4]],
		 [[2,8,5,3],
		  [1,1,9,4]]]

该数组的第一层包含 3 个矩阵:

		 [[1,5,6,2],
		  [3,2,1,3]]
		  
		 [[5,2,1,2],
		  [6,4,8,4]]
		  
		 [[2,8,5,3],
          [1,1,9,4]]
Shape: (3, 2, 4)
Type: 3D Array, List, Matrix

当然,如果直接复制粘贴再使用type()函数得到的肯定是<class 'list'>,我这里只是描述了数据可能的各种形式,重点在3D

2. Dot Product and Vector Addition

点积与向量加法


a. Dot Product (点积)

在这里插入图片描述

a = [1,2,3]
b = [2,3,4]

dot_product = a[0]*b[0] + a[1]*b[1] + a[2]*b[2]

print("dot_product:", dot_product)
>>>
dot_product: 20

代码的可视化:https://nnfs.io/xpo/

现在,如果我们将 a a a 称为“输入”(inputs),将 b b b 称为“权重”(weights)呢?突然间,这个点积看起来就像一种简洁的方式来执行我们需要的操作,而且已经在纯Python中执行过了。我们需要将相同索引值的权重和输入相乘,并将结果值加在一起。点积恰好执行这种类型的操作;因此,在这里使用它非常有意义。回到神经网络代码中,让我们利用这个点积。纯Python不包含执行此类操作的方法或函数,因此我们将使用NumPy包,它能够执行这个操作,以及未来我们将使用的许多更多操作。

b. Vector Addition (向量加法)

我们不久的将来也需要执行一个向量加法操作。幸运的是,NumPy允许我们以一种自然的方式进行这个操作——使用加号和包含数据向量的变量。两个向量的加法是逐元素执行的操作,这意味着两个向量必须具有相同的大小,结果也将成为这种大小的向量。结果是一个向量,作为连续向量元素的和计算得出:

a ⃗ + b ⃗ = [ a 1 + b 1 , a 2 + b 2 , … , a n + b n ] \vec{a} + \vec{b} = [a_1 + b_1, a_2 + b_2, \ldots, a_n + b_n] a +b =[a1+b1,a2+b2,,an+bn]

3. A Single Neuron with NumPy

使用 NumPy 的单个神经元


import numpy as np

inputs = [1.0, 2.0, 3.0, 2.5]
weights = [0.2, 0.8, -0.5, 1.0]
bias = 2.0

outputs = np.dot(weights, inputs) + bias

print("outputs:", outputs)
>>>
outputs: 4.8

在这里插入图片描述

代码的可视化:https://nnfs.io/blq

4. A Layer of Neurons with NumPy

使用 NumPy 创建神经元层


import numpy as np

inputs = [1.0, 2.0, 3.0, 2.5]
weights = [[0.2, 0.8, -0.5, 1],
           [0.5, -0.91, 0.26, -0.5],
           [-0.26, -0.27, 0.17, 0.87]]
biases = [2.0, 3.0, 0.5]

layer_outputs = np.dot(weights, inputs) + biases # (3X4).(1X4)

print("layer_outputs:", layer_outputs)
print("Type of layer_outputs:", type(layer_outputs))
>>>
layer_outputs: [4.8   1.21  2.385] # array([4.8 1.21 2.385])
Type of layer_outputs: <class 'numpy.ndarray'>

在这里插入图片描述

代码的可视化:https://nnfs.io/cyx

5. A Batch of Data

一批数据


为了训练,神经网络往往会成批接收数据。到目前为止,示例输入数据只是各种特征的一个样本(或观测值),称为特征集:

inputs = [1, 2, 3, 2.5]

在这里,[1, 2, 3, 2.5] 数据对我们想要的输出具有一定的意义和描述性。想象一下,每个数字都是同时来自不同传感器的值。每个值都是一个特征观测数据,它们共同构成一个特征集实例,也称为观测值,或最常见的样本。

通常,神经网络期望一次处理多个样本,原因有两个。一个原因是在并行处理中分批训练速度更快,另一个原因是分批可以在训练过程中帮助泛化。如果你一次只对一个样本进行拟合(执行训练过程的一个步骤),你很可能会一直只针对那个单一样本进行拟合,而不是逐渐对权重和偏差进行普遍的微调,以适应整个数据集。分批训练或拟合使你有更高的机会对权重和偏差进行更有意义的改变。关于分批拟合而不是一次一个样本的概念,以下动画可以帮助理解:https://nnfs.io/vyu

一批数据的示例如下:

Input data:
	batch = [[1,5,6,2],
			 [3,2,1,3],
			 [5,2,1,2],
			 [6,4,8,4],
			 [2,8,5,3],
			 [1,1,9,4],
			 [6,6,0,4],
			 [8,7,6,4]]
Shape: (8, 4)
Type: 2D Array, Matrix

回想一下,在 Python 中,以及在我们的案例中,列表是非常有用的容器,用于存放单个样本以及组成一批观测数据的多个样本。这样一个观测批次的例子,每个样本都有自己的数据,看起来像这样:

inputs = [[1, 2, 3, 2.5], [2, 5, -1, 2], [-1.5, 2.7, 3.3, -0.8]]

这个列表中的列表可以转换成一个数组,因为它们是同构的。注意,这个更大列表中的每个“列表”都是一个样本,代表一组特征。[1, 2, 3, 2.5], [2, 5, -1, 2], [-1.5, 2.7, 3.3, -0.8] 都是样本,也被称为特征集实例观测值

现在我们有了一个输入矩阵和一个权重矩阵,我们需要以某种方式对它们进行点积运算,但是如何进行,结果又会是什么呢?类似于我们之前对矩阵和向量进行的点积运算,我们将矩阵视为向量列表,结果得到了一个点积列表。在这个例子中,我们需要将两个矩阵都管理为向量列表,并对所有的组合进行点积运算,结果是一个输出列表的列表,或者说是一个矩阵;这个操作称为矩阵乘积

6. Matrix Product

矩阵乘积


矩阵乘积是一种操作,在这个操作中我们有两个矩阵,并且我们正在执行第一个矩阵的行与第二个矩阵的列的所有组合的点积,结果是这些原子点积组成的一个矩阵:

在这里插入图片描述

代码的可视化:https://nnfs.io/jei/

要执行矩阵乘积,左侧矩阵的第二维度的大小必须与右侧矩阵的第一维度的大小相匹配。例如,如果左侧矩阵的形状为 ( 5 , 4 ) (5, 4) (5,4),那么右侧矩阵的第一个形状值必须匹配这个 4(如 ( 4 , 7 ) (4, 7) (4,7))。结果数组的形状始终是左侧数组的第一维度和右侧数组的第二维度,即 ( 5 , 7 ) (5, 7) (5,7)。在上述示例中,左侧矩阵的形状为 ( 5 , 4 ) (5, 4) (5,4),右上方矩阵的形状为 ( 4 , 5 ) (4, 5) (4,5)。左侧数组的第二维度和第二个数组的第一维度都是 4,它们匹配,结果数组的形状为 ( 5 , 5 ) (5, 5) (5,5)

进一步阐述,我们也可以展示我们可以对向量执行矩阵乘积。在数学中,我们可以有所谓的列向量和行向量,这些将很快更好地解释。它们是向量,但表示为矩阵,其中一个维度的大小为 1:

在这里插入图片描述
a a a 是一个行向量。它看起来与我们之前描述的向量 a ⃗ \vec{a} a 非常相似,后者是与向量积一起描述的。行向量和向量的符号之间的区别在于数值之间有逗号,而行向量上的符号 a a a 上没有箭头。它被称为行向量,因为它是矩阵的一行。另一方面, b b b 被称为列向量,因为它是矩阵的一列。由于行向量和列向量从技术上讲是矩阵,我们不再用向量箭头来表示它们。

当我们对它们进行矩阵乘积时,结果也变成了一个矩阵,就像前面的例子一样,但只包含一个值,这个值与我们之前讨论过的点积示例中的值相同:

在这里插入图片描述

代码的可视化:https://nnfs.io/bkw/

换句话说,行向量和列向量是其中一个维度大小为 1 的矩阵;并且,我们对它们执行矩阵乘积,而不是点积,这会得到一个只包含单个值的矩阵。在这个例子中,我们进行了形状为 ( 1 , 3 ) (1, 3) (1,3) ( 3 , 1 ) (3, 1) (3,1) 的矩阵的矩阵乘法,然后得到的数组形状为 ( 1 , 1 ) (1, 1) (1,1) 或大小为 1 × 1 1 \times 1 1×1

7. Transposition for the Matrix Product

矩阵积的移位


我们是如何突然从两个向量转变到行向量和列向量的?我们使用了点积和矩阵乘积之间的关系,表明两个向量的点积等于一个行向量和一个列向量的矩阵乘积(字母上方的箭头表示它们是向量):

在这里插入图片描述

我们还临时使用了一些简化,没有显示列向量 b b b 实际上是向量 b b b 的转置。正确的方程,将向量 a a a b b b 的点积写作矩阵乘积的形式,应该看起来像:

在这里插入图片描述

这里我们介绍了另一种新操作——转置。转置简单地修改矩阵,使其行变成列,列变成行:

在这里插入图片描述

代码的可视化:https://nnfs.io/qut,https://nnfs.io/pnq


行向量是一个矩阵,其第一维的大小(行数)等于 1,第二维的大小(列数)等于 n n n —— 向量的大小。换句话说,它是一个 1 × n 1 \times n 1×n 的数组或形状为 ( 1 , n ) (1, n) (1,n) 的数组:

在这里插入图片描述

如果使用 NumPy 并使用 3 个值,我们可以将其定义为:

np.array([[1, 2, 3]])

请注意这里使用了双括号。为了将一个列表转换为包含单行的矩阵(执行将向量转换为行向量的等效操作),我们可以将其放入一个列表中,并创建 numpy 数组:

import numpy as np

a = [1, 2, 3]
b = np.array([a])

print("B:", b)
print("Type of B:", type(b))
>>>
B: [[1 2 3]] # array([[1, 2, 3]])
Type of B: <class 'numpy.ndarray'>

再次注意,在这种情况下,在转换为数组之前,我们将 a a a 放在括号内封装起来。或者我们可以将其转换为一维数组,并利用 NumPy 的功能之一扩展维度:

a = [1, 2, 3]
b = np.expand_dims(np.array(a), axis=0)

print("B:", b)
print("Type of B:", type(b))
>>>
B: [[1 2 3]] # array([[1, 2, 3]])
Type of B: <class 'numpy.ndarray'>

其中 np.expand_dims() 在轴的索引处添加一个新的维度。


列向量是一个矩阵,其中第二维的大小等于 1,换句话说,它是一个形状为 ( n , 1 ) (n, 1) (n,1) 的数组:

在这里插入图片描述
使用 NumPy 创建列向量的方式与创建行向量相同,但需要额外进行转置——转置会将行变成列,列变成行:

在这里插入图片描述

为了将向量 b b b 转换为行向量 b b b,我们将使用与将向量 a a a 转换为行向量 a a a 相同的方法,然后我们可以对其进行转置,使其成为列向量 b b b

在这里插入图片描述

使用 NumPy 代码:

import numpy as np

a = [1, 2, 3]
b = [2, 3, 4]

a = np.array([a])
b_T = np.array([b]).T

c = np.dot(a, b_T)

print("a:", a)
print("Transpose of b:", b_T)
print("c:", c)
>>>
a: [[1 2 3]]
Transpose of b: [[2]
		     	 [3]
				 [4]]
c: [[20]] # array([[20]])

我们已经达到了与两个向量的点积相同的结果,但是这次操作是在矩阵上进行的,并返回了一个矩阵——这正是我们所期望和想要的。值得一提的是,NumPy 没有一个专门用于执行矩阵乘积的方法——点积和矩阵乘积都是在一个方法中实现的:np.dot()

正如我们所见,要在两个向量上执行矩阵乘积,我们将其中一个按原样转换成行向量,而将另一个通过转置转换成列向量。这使我们能够执行一个返回包含单个值的矩阵的矩阵乘积。我们还在两个示例数组上执行了矩阵乘积,以了解矩阵乘积的工作原理——它创建了一个由所有行向量和列向量组合的点积构成的矩阵。

8. A Layer of Neurons & Batch of Data w/ NumPy

使用 NumPy 生成一层神经元和一批数据


让我们回到我们的输入和权重——在讨论它们时,我们提到需要对由输入和权重矩阵组成的所有向量进行点积运算。正如我们刚刚学到的,这正是矩阵乘积执行的操作。我们只需要对其第二个参数进行转置,即在我们的情况下是权重矩阵,以将其当前包含的行向量转换为列向量。

最初,我们能够在输入和权重上执行点积,而不需要转置,因为权重是一个矩阵,但输入只是一个向量。在这种情况下,点积的结果是一个向量,这个向量是在矩阵的每一行和这一个单独的向量上执行的原子点积。当输入变成一批输入(一个矩阵)时,我们需要执行矩阵乘积。它取来自左矩阵的所有行和右矩阵的所有列的组合,对它们进行点积运算,并将结果放置在一个输出数组中。两个数组具有相同的形状,但为了执行矩阵乘积,第一个矩阵的索引1的形状值和第二个矩阵的索引0的形状值必须匹配——现在它们不匹配。

在这里插入图片描述

如果我们对第二个数组进行转置,其形状的值就会交换位置。

在这里插入图片描述

代码的可视化:https://nnfs.io/crq

↓ ↓ ↓ ↓ ↓
 

如果我们从输入和权重的角度来看这个问题,我们需要对每个输入和每组权重的所有组合执行点积运算。点积从第一个数组中取一行,从第二个数组中取一列,但目前两个数组中的数据都是按行对齐的。转置第二个数组使数据按列对齐。输入和转置权重的矩阵乘积将产生一个包含我们需要计算的所有原子点积的矩阵。结果矩阵包含了在每个输入样本上执行操作后所有神经元的输出:

在这里插入图片描述

代码的可视化:https://nnfs.io/gjw

我们提到,np.dot()的第二个参数将是我们的转置权重,所以第一个参数是输入,但之前权重是第一个参数。我们在这里改变了这一点。之前,我们使用单个数据样本(一个向量)来模拟神经元输出,但现在我们在对一批数据模拟层行为时向前迈进了一步。我们可以保留当前的参数顺序,但是,正如我们很快会了解到的,拥有一个由每个样本的层输出组成的结果列表比一个由神经元及其输出按样本组成的列表更有用。我们希望结果数组与样本相关,而不是与神经元相关,因为我们将把这些样本进一步传递给网络,而下一层将期待一批输入。

↓ ↓ ↓ ↓ ↓
 

我们现在可以使用 NumPy 编码这个解决方案。我们可以对一个纯 Python 列表的列表执行 np.dot(),因为 NumPy 会在内部将它们转换为矩阵。不过,我们自己正在转换权重,以便首先执行转置操作(在代码中为 T),因为纯 Python 列表的列表不支持这种操作。至于偏置,我们不需要将其制作成 NumPy 数组,原因相同——NumPy 将在内部完成这个操作。

偏置是一个列表,所以它们作为 NumPy 数组是一维数组。这个偏置向量加到矩阵上(在这种情况下是点积的矩阵)的方式与我们之前描述的矩阵和向量的点积类似;偏置向量将被添加到矩阵的每个行向量上。由于矩阵乘积结果的每一列是一个神经元的输出,并且向量将被添加到每个行向量上,第一个偏置将被添加到这些向量的每个第一个元素上,第二个添加到第二个,依此类推。这正是我们需要的——每个神经元的偏置需要被添加到此神经元在所有输入向量(样本)上执行的所有结果上。

在这里插入图片描述

代码的可视化:https://nnfs.io/qty

↓ ↓ ↓ ↓ ↓
 

现在,我们可以将所学知识转化为代码:

import numpy as np

inputs = [[1.0, 2.0, 3.0, 2.5],
          [2.0, 5.0, -1.0, 2.0],
          [-1.5, 2.7, 3.3, -0.8]]
          
weights = [[0.2, 0.8, -0.5, 1.0],
           [0.5, -0.91, 0.26, -0.5],
           [-0.26, -0.27, 0.17, 0.87]]
           
biases = [2.0, 3.0, 0.5]

layer_outputs = np.dot(inputs, np.array(weights).T) + biases

print("layer_outputs:", layer_outputs)
print("Type of layer_outputs:", type(layer_outputs))
>>>
layer_outputs: [[ 4.8    1.21   2.385]  # array([[ 4.8 1.21 2.385],
 				[ 8.9   -1.81   0.2  ]  #  		 [ 8.9 -1.81 0.2 ],
 				[ 1.41   1.051  0.026]] # 		 [ 1.41 1.051 0.026]])
Type of layer_outputs: <class 'numpy.ndarray'>

代码的可视化:https://nnfs.io/ch2

如您所见,我们的神经网络接收一组样本(输入)并输出一组预测。如果您使用过任何深度学习库,这就是为什么您会传入一系列输入(即使只是一个特征集)并返回一系列预测的原因,即使只有一次预测。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/912300.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

信息安全工程师(76)网络安全应急响应技术原理与应用

前言 网络安全应急响应&#xff08;Network Security Incident Response&#xff09;是针对潜在或已发生的网络安全事件而采取的网络安全措施&#xff0c;旨在降低网络安全事件所造成的损失并迅速恢复受影响的系统和服务。 一、网络安全应急响应概述 定义&#xff1a;网络安全应…

JavaScript:点击导航栏未显示完整的tab自动滚动并显示完整

提醒 本文实例使用vue开发的 一、需求场景 开发商品分类页面需求如下&#xff1a; 顶部显示商品分类导航栏&#xff0c;可左右自由滑动&#xff0c;点击左边或右边未显示完整的tab自动滚动显示完整&#xff1b;点击顶部显示商品分类导航栏tab&#xff0c;下面列表数据显示对应的…

【C++】详解RAII思想与智能指针

&#x1f308; 个人主页&#xff1a;谁在夜里看海. &#x1f525; 个人专栏&#xff1a;《C系列》《Linux系列》 ⛰️ 丢掉幻想&#xff0c;准备斗争 目录 引言 内存泄漏 内存泄漏的危害 内存泄漏的处理 一、RAII思想 二、智能指针 1.auto_ptr 实现原理 模拟实现 弊端…

力扣: 144 二叉树 -- 先序遍历

二叉树 – 先序遍历 描述&#xff1a; 给你二叉树的根节点 root &#xff0c;返回它节点值的 前序 遍历。 示例&#xff1a; 先序遍历&#xff1a;根左右 何解&#xff1f; 1、递归 : 无需多言一看就懂 2、遍历法 中序查找时&#xff0c;最先出入的节点是左子树中的最左侧二叉…

从0开始搭建一个生产级SpringBoot2.0.X项目(十)SpringBoot 集成RabbitMQ

前言 最近有个想法想整理一个内容比较完整springboot项目初始化Demo。 SpringBoot集成RabbitMQ RabbitMQ中的一些角色&#xff1a; publisher&#xff1a;生产者 consumer&#xff1a;消费者 exchange个&#xff1a;交换机&#xff0c;负责消息路由 queue&#xff1a;队列…

github高分项目 WGCLOUD - 运维实时管理工具

GitHub - tianshiyeben/wgcloud: Linux运维监控工具&#xff0c;支持系统硬件信息&#xff0c;内存&#xff0c;CPU&#xff0c;温度&#xff0c;磁盘空间及IO&#xff0c;硬盘smart&#xff0c;GPU&#xff0c;防火墙&#xff0c;网络流量速率等监控&#xff0c;服务接口监测&…

CDN到底是什么?

文章目录 CDN到底是什么&#xff1f;一、引言二、CDN的基本概念1、CDN的定义2、CDN的作用3、代码示例&#xff1a;配置CNAME记录 三、CDN的工作原理1、请求流程2、代码示例&#xff1a;DNS解析过程3、完整的CDN工作流程 四、总结 CDN到底是什么&#xff1f; 一、引言 在互联网…

DeFi 4.0峥嵘初现:主权金融时代的来临

近年来&#xff0c;Web3领域的创新似乎遇到了瓶颈&#xff0c;DeFi&#xff08;去中心化金融&#xff09;从热潮的巅峰逐渐进入了一个沉寂期。我们再也没有见到像DeFi Summer那样的行业兴奋&#xff0c;资本市场的动荡和Meme币的出现&#xff0c;似乎让人们忘记了曾经的区块链技…

Linux:调试器 gdb/cgdb 的使用

提示&#xff1a;文章写完后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 文章目录 前言一、调试前的预备二. 使用&#xff08;gdb的常用命令&#xff09;三. 推荐安装cgdb总结 前言 本文主要讲解如何在Linux环境下面来对代码进行调试 一、调试前的…

知识中台赋能法律咨询服务:八大核心优势

法律咨询服务领域&#xff0c;知识中台以其独特的功能和优势&#xff0c;为行业发展注入了新的活力。以下是知识中台在法律咨询服务中展现的八大核心优势&#xff1a; 一、法律知识资源的全面整合 知识中台致力于收集、整理和整合各类法律知识资源&#xff0c;包括法律法规、…

03集合基础

目录 1.集合 Collection Map 常用集合 List 接口及其实现 Set 接口及其实现 Map 接口及其实现 Queue 接口及其实现 Deque 接口及其实现 Stack类 并发集合类 工具类 2.ArrayList 3.LinkedList 单向链表的实现 1. 节点类&#xff08;Node&#xff09; 2. 链表类&a…

VBA高级应用30例应用3在Excel中的ListObject对象:插入行和列

《VBA高级应用30例》&#xff08;版权10178985&#xff09;&#xff0c;是我推出的第十套教程&#xff0c;教程是专门针对高级学员在学习VBA过程中提高路途上的案例展开&#xff0c;这套教程案例与理论结合&#xff0c;紧贴“实战”&#xff0c;并做“战术总结”&#xff0c;以…

万字长文详解JavaScript基础语法--前端--前端样式--JavaWeb

&#x1f64b;大家好&#xff01;我是毛毛张! &#x1f308;个人首页&#xff1a; 神马都会亿点点的毛毛张 今天毛毛张带来的前端教程的第三期&#xff1a;JavaScript 文章目录 4.JavaScript4.1 JS简介4.1.1 JS起源4.1.2 JS 组成部分4.1.3 JS的引入方式 4.2 JS的数据类型和运…

工业主板在汽车制造中的应用

工业主板在汽车制造中的应用非常广泛&#xff0c;主要得益于其高稳定性、高集成性、以及强大的计算和处理能力。以下是对工业主板在汽车制造中应用的详细分析&#xff1a; 一、应用场景 自动驾驶车辆&#xff1a; 工业主板作为自动驾驶车辆的核心计算平台&#xff0c;负责处…

post sim下如何将timing信息反标到仿真工具

文章目录 0 前言1 调用格式2 option介绍2.1 sdf_file (**必须**)2.2 module_instance (**可选**)2.3 config_file (**可选**)2.4 log_file (**可选**)2.5 mtm_spec (**可选**)2.6 scale_factors (**可选**)2.7 scale_type (**可选**) 0 前言 跑post sim时需要带入timing信息&a…

软件设计师-上午题-15 计算机网络(5分)

计算机网络题号一般为66-70题&#xff0c;分值一般为5分。 目录 1 网络设备 1.1 真题 2 协议簇 2.1 真题 3 TCP和UDP 3.1 真题 4 SMTP和POP3 4.1 真题 5 ARP 5.1 真题 6 DHCP 6.1 真题 7 URL 7.1 真题 8 浏览器 8.1 真题 9 IP地址和子网掩码 9.1 真题 10 I…

VLAN 高级技术实验

目录 一、实验背景 二、实验任务 三、实验步骤 四、实验总结 一、实验背景 假如你是公司的网络管理员&#xff0c;为了节省内网的IP地址空间&#xff0c;你决定在内网部署VLAN聚合&#xff0c;同时为了限制不同业务之间的访问&#xff0c;决定同时部署MUX VLAN。 二、实验…

一文快速预览经典深度学习模型(一)——CNN、RNN、LSTM、Transformer、ViT

Hi&#xff0c;大家好&#xff0c;我是半亩花海。本文主要简要并通俗地介绍了几种经典的深度学习模型&#xff0c;如CNN、RNN、LSTM、Transformer、ViT&#xff08;Vision Transformer&#xff09;等&#xff0c;便于大家初探深度学习的相关知识&#xff0c;并更好地理解深度学…

这是一个bug求助帖子--安装kali 遇坑

第一个报错 介质&#xff1a;kali-linux-2024.1-live-amd64 环境&#xff1a;Dell笔记本 i510代cpu 现象及操作 安装完以后 然后我换了个国内的源进行了以下操作 apt-get update&#xff1a;更新源列表 apt-get upgrade&#xff1a;更新所有可以更新的软件包 然后进行清理。…

qt QClipboard详解

1、概述 QClipboard是Qt框架中的一个类&#xff0c;它提供了对窗口系统剪贴板的访问能力。剪贴板是一个临时存储区域&#xff0c;通常用于在应用程序之间传递文本、图像和其他数据。QClipboard通过统一的接口来操作剪贴板内容&#xff0c;使得开发者能够方便地实现剪切、复制和…