Keras深度学习框架实战(3):EfficientNet实现stanford dog分类

1、通过EfficientNet进行微调以实现图像分类概述

通过EfficientNet进行微调以实现图像分类,是一个使用EfficientNet作为预训练模型,并通过微调(fine-tuning)来适应特定图像分类任务的过程。一下是对相关重要术语的解释。

  • EfficientNet:这是一个高效的卷积神经网络(CNN)架构,旨在通过统一缩放网络深度、宽度和分辨率等维度来优化性能和效率。EfficientNet有多个预训练的变体,如EfficientNet-B0到EfficientNet-B8,它们在多个图像分类任务上取得了很好的效果。
  • 微调(Fine-tuning):在深度学习中,微调通常涉及使用预训练模型(如EfficientNet)的权重作为起点,并在特定数据集上进一步训练该模型。微调可以加速训练过程,因为它利用了预训练模型在大量数据上学到的通用特征。
  • 图像分类:这是计算机视觉中的一个基本任务,涉及将输入图像分配给预定义的一组类别中的一个。例如,一个图像分类模型可能被训练来识别图像中的对象(如猫、狗、汽车等)或场景(如森林、海滩、城市等)。

1.1 EfficientNet简介

EfficientNet,最初由Tan和Le在2019年提出,是目前最高效的模型之一(即在ImageNet和常见的图像分类迁移学习任务上达到最先进的准确率时所需的浮点运算量(FLOPs)最少)。

最小的基本模型类似于MnasNet,后者通过显著更小的模型达到了接近最高水平的性能。通过引入一种启发式的方法来缩放模型,EfficientNet提供了一系列模型(B0到B7),这些模型在各种规模上代表了效率和准确性的良好组合。这种缩放启发式方法(复合缩放,详情参见Tan和Le,2019)允许以效率为导向的基本模型(B0)在每个尺度上超越其他模型,同时避免了广泛的超参数网格搜索。

模型的最新更新总结可以在这里找到,其中应用了各种增强方案和半监督学习方法来进一步提高模型在ImageNet上的性能。这些模型的扩展可以通过更新权重而无需改变模型架构来使用。

1.2 EfficientNet的B0到B7变体

(如果你只对使用这些模型感兴趣,可以跳过本节中关于“复合缩放”的详细解释)

基于原始论文,人们可能会认为EfficientNet是一个通过任意选择论文中Eq.(3)中的缩放因子来创建的连续模型家族。然而,分辨率、深度和宽度的选择也受到许多因素的限制:

分辨率:分辨率如果不能被8、16等整除,会导致某些层边界附近的零填充,从而浪费计算资源。这尤其适用于模型的较小变体,因此B0和B1的输入分辨率被选为224和240。

深度和宽度:EfficientNet的构建块要求通道大小是8的倍数。

资源限制:当深度和宽度可以继续增加时,内存限制可能会限制分辨率。在这种情况下,增加深度和/或宽度但保持分辨率仍然可以提高性能。

因此,EfficientNet模型的每个变体的深度、宽度和分辨率都是精心挑选的,并已被证明能产生良好的结果,尽管它们可能与复合缩放公式显著不同。因此,Keras实现(详细如下)仅提供这8个模型,B0到B7,而不是允许任意选择宽度/深度/分辨率参数。

1.3 Keras中的EfficientNet实现

自Keras v2.3起,已经内置了EfficientNet B0到B7的实现。要使用EfficientNetB0对ImageNet的1000类图像进行分类,可以运行:

from tensorflow.keras.applications import EfficientNetB0
model = EfficientNetB0(weights='imagenet')

这个模型接受形状为(224, 224, 3)的输入图像,输入数据的范围应该在[0, 255]之间。标准化是模型的一部分。

由于在ImageNet上训练EfficientNet需要大量的资源和一些不属于模型架构本身的技巧,因此Keras实现默认加载了通过AutoAugment训练获得的预训练权重。

对于B0到B7的基础模型,输入形状是不同的。以下是每个模型所需的输入形状列表:
以下是B0到B7基础模型的分辨率的表格翻译:

基础模型分辨率
EfficientNetB0224
EfficientNetB1240
EfficientNetB2260
EfficientNetB3300
EfficientNetB4380
EfficientNetB5456
EfficientNetB6528
EfficientNetB7600

当模型用于迁移学习时,Keras实现提供了一个选项来移除顶层:

model = EfficientNetB0(include_top=False, weights='imagenet')

这个选项排除了最后一层的Dense层,该层将倒数第二层的1280个特征转化为对1000个ImageNet类别的预测。通过用自定义层替换顶层,可以在迁移学习的工作流程中将EfficientNet用作特征提取器。

在模型构造函数中另一个值得注意的参数是drop_connect_rate,它控制用于随机深度的dropout率。这个参数在微调时作为额外正则化的切换器,但不会影响已加载的权重。例如,当需要更强的正则化时,可以尝试:

model = EfficientNetB0(weights='imagenet', drop_connect_rate=0.4)

默认值为0.2 。

2、数据准备

本文将演示将EfficientNetB0用于斯坦福狗数据集。

EfficientNet能够处理广泛的图像分类任务。这使其成为迁移学习的良好模型。作为一个端到端的例子,我们将展示如何在斯坦福狗数据集上使用预训练的EfficientNetB0。
斯坦福狗数据集的下载地址如下:
http://vision.stanford.edu/aditya86/ImageNetDogs/

2.1 设置

import numpy as np
import tensorflow_datasets as tfds
import tensorflow as tf  # For tf.data
import matplotlib.pyplot as plt
import keras
from keras import layers
from keras.applications import EfficientNetB0

# IMG_SIZE is determined by EfficientNet model choice
IMG_SIZE = 224
BATCH_SIZE = 64

2.2 加载数据

本文的演示从tensorflow_datasets(以下简称TFDS)加载数据。Stanford Dogs数据集在TFDS中作为stanford_dogs提供。它包含20,580张图像,这些图像属于120个狗品种类别(其中12,000张用于训练,8,580张用于测试)。

只需更改下面的dataset_name,您还可以尝试将此笔记本用于TFDS中的其他数据集,如cifar10、cifar100、food101等。当图像远小于EfficientNet的输入大小时,我们可以简单地对输入图像进行上采样。Tan和Le在2019年的研究表明,即使输入图像保持较小,增加分辨率的迁移学习结果也会更好。

dataset_name = "stanford_dogs"
(ds_train, ds_test), ds_info = tfds.load(
    dataset_name, split=["train", "test"], with_info=True, as_supervised=True
)
NUM_CLASSES = ds_info.features["label"].num_classes

当数据集包含各种大小的图像时,我们需要将它们调整为统一的大小。Stanford Dogs数据集仅包含至少200x200像素大小的图像。在这里,我们将图像调整为EfficientNet所需的输入大小。

ize = (IMG_SIZE, IMG_SIZE)
ds_train = ds_train.map(lambda image, label: (tf.image.resize(image, size), label))
ds_test = ds_test.map(lambda image, label: (tf.image.resize(image, size), label))

2.3 图像可视化

以下是展示前9张图像及其标签的代码:

import tensorflow as tf
import tensorflow_datasets as tfds
import matplotlib.pyplot as plt

# 加载Stanford Dogs数据集
dataset, info = tfds.load('stanford_dogs', with_info=True, split='train[:1%]')  # 只加载一小部分数据进行可视化

# 获取类别名称
class_names = info.features['label'].names

# 从数据集中提取图像和标签
images, labels = next(iter(dataset.batch(9))).numpy()

# 绘制图像
fig, axs = plt.subplots(3, 3, figsize=(12, 12))

# 遍历前9个图像
for i, ax in enumerate(axs.flatten()):
    ax.imshow(images[i] / 255.0)  # 归一化到[0, 1]范围
    ax.set_title(class_names[labels[i]])
    ax.axis('off')

plt.show()

请注意,程序添加了.numpy()来从TensorFlow的数据集中提取NumPy数组,以便于绘图。程序还将图像归一化到[0, 1]的范围,因为matplotlib的imshow函数期望图像数据在这个范围内。此外,程序中使用了split='train[:1%]'来仅加载一小部分训练数据,以便快速可视化。如果程序员想要查看更多图像,可以更改这个切片操作来加载更多的数据。
在这里插入图片描述

2.4 数据增强

程序可以使用预处理层(preprocessing layers)API来进行图像增强。

在训练深度学习模型时,数据增强是一种常见的技术,它通过应用随机变换来增加训练数据的多样性,从而提高模型的泛化能力。在TensorFlow中,可以使用Keras的预处理层(preprocessing layers)API来实现各种图像增强技术,如随机旋转、裁剪、缩放、翻转等。这些增强操作可以在训练过程中实时应用于输入图像,以生成新的、变化多样的训练样本。

img_augmentation_layers = [
    layers.RandomRotation(factor=0.15),
    layers.RandomTranslation(height_factor=0.1, width_factor=0.1),
    layers.RandomFlip(),
    layers.RandomContrast(factor=0.1),
]


def img_augmentation(images):
    for layer in img_augmentation_layers:
        images = layer(images)
    return images

这个Sequential模型对象既可以作为我们稍后构建的模型的一部分,也可以作为函数来预处理输入模型之前的数据。将它们用作函数可以方便地可视化给定图像的增强结果。在这里,程序绘制了给定图像经过增强后的9个示例结果。

这意味着程序员可以创建一个预处理序列(Sequential model),该序列定义了一系列图像增强步骤。然后,可以将这个预处理序列作为模型的一部分,也可以将其作为独立的函数来预处理图像,以便在将图像输入到模型之前进行可视化或检查。将增强步骤作为函数应用,程序员可以很容易地看到不同的增强效果是如何影响原始图像的。

for image, label in ds_train.take(1):
    for i in range(9):
        ax = plt.subplot(3, 3, i + 1)
        aug_img = img_augmentation(np.expand_dims(image.numpy(), axis=0))
        aug_img = np.array(aug_img)
        plt.imshow(aug_img[0].astype("uint8"))
        plt.title("{}".format(format_label(label)))
        plt.axis("off")

在这里插入图片描述

2.5 准备输入数据

一旦我们验证了输入数据和增强功能都工作正常,就准备训练用的数据集。输入数据会被调整到统一的大小(IMG_SIZE)。标签将被编码为独热(也称为分类)编码。数据集将被批量处理。

注意:在某些情况下,使用prefetchAUTOTUNE可能会提高性能,但这取决于环境和所使用的具体数据集。请参阅这个指南以获取更多关于数据管道性能的信息。

在TensorFlow中,通常会使用tf.data API来准备数据,并利用诸如map, batch, prefetch, 和 shuffle等方法来提高数据处理效率。此外,当进行图像分类任务时,使用tf.keras.utils.to_categorical来将整数标签转换为独热编码也是很常见的做法。对于图像大小调整,可以使用tf.image.resize函数。

# One-hot / categorical encoding
def input_preprocess_train(image, label):
    image = img_augmentation(image)
    label = tf.one_hot(label, NUM_CLASSES)
    return image, label


def input_preprocess_test(image, label):
    label = tf.one_hot(label, NUM_CLASSES)
    return image, label


ds_train = ds_train.map(input_preprocess_train, num_parallel_calls=tf.data.AUTOTUNE)
ds_train = ds_train.batch(batch_size=BATCH_SIZE, drop_remainder=True)
ds_train = ds_train.prefetch(tf.data.AUTOTUNE)

ds_test = ds_test.map(input_preprocess_test, num_parallel_calls=tf.data.AUTOTUNE)
ds_test = ds_test.batch(batch_size=BATCH_SIZE, drop_remainder=True)

3、从零开始进行模型训练

我们从头开始构建一个具有120个输出类别的EfficientNetB0模型:

注意:准确率会增长得非常慢,并且可能会出现过拟合。

EfficientNet是一种预训练的深度学习模型架构,它在多个图像分类任务上都取得了很好的效果。然而,当从头开始训练EfficientNet模型时,由于需要从头学习所有参数,因此训练过程可能会相对较长,并且可能会因为训练数据不足而出现过拟合现象。为了缓解这个问题,可以使用数据增强、正则化技术(如Dropout、L2正则化等)和早停(early stopping)等方法来减少过拟合的风险。同时,也可以使用预训练的EfficientNet模型作为特征提取器,并在此基础上进行微调(fine-tuning),以加快训练速度并提高模型的性能。

model = EfficientNetB0(
    include_top=True,
    weights=None,
    classes=NUM_CLASSES,
    input_shape=(IMG_SIZE, IMG_SIZE, 3),
)
model.compile(optimizer="adam", loss="categorical_crossentropy", metrics=["accuracy"])

model.summary()

epochs = 40  # @param {type: "slider", min:10, max:100}
hist = model.fit(ds_train, epochs=epochs, validation_data=ds_test)

以下表格包含了模型的所有层:

Layer (type)Output ShapeParam #Connected to
input_layer(None, 224, 224, 3)0-
Rescaling(None, 224, 224, 3)0input_layer[0][0]
Normalization(None, 224, 224, 3)7rescaling[0][0]
stem_conv_pad(None, 225, 225, 3)0normalization[0][0]
stem_conv (Conv2D)(None, 112, 112, 32)864stem_conv_pad[0][0]
stem_bn(None, 112, 112, 32)128stem_conv[0][0]
stem_activation(None, 112, 112, 32)0stem_bn[0][0]
block1a_dwconv(None, 112, 112, 32)288stem_activation[0][0]
block1a_bn(None, 112, 112, 32)128block1a_dwconv[0][0]
block1a_activation(None, 112, 112, 32)0block1a_bn[0][0]
block6c_add (Add)(None, 7, 7, 192)0block6c_drop[0][0], block6b_add[0][0]
block6d_expand_conv(None, 7, 7, 1152)221,184block6c_add[0][0]
block6d_expand_bn(None, 7, 7, 1152)4,608block6d_expand_conv[0][0]
block6d_expand_activation(None, 7, 7, 1152)0block6d_expand_bn[0][0]
block6d_dwconv(None, 7, 7, 1152)28,800block6d_expand_activation[0][0]
block6d_bn(None, 7, 7, 1152)4,608block6d_dwconv[0][0]
block6d_activation(None, 7, 7, 1152)0block6d_bn[0][0]
block6d_se_squeeze(None, 1152)0block6d_activation[0][0]
block6d_se_reshape(None, 1, 1, 1152)0block6d_se_squeeze[0][0]
block6d_se_reduce(None, 1, 1, 48)55,344block6d_se_reshape[0][0]
block6d_se_expand(None, 1, 1, 1152)56,448block6d_se_reduce[0][0]
block6d_se_excite(None, 7, 7, 1152)0block6d_activation[0][0], block6d_se_expand[0][0]
block6d_project_conv(None, 7, 7, 192)221,184block6d_se_excite[0][0]
block6d_project_bn(None, 7, 7, 192)768block6d_project_conv[0][0]
block6d_drop(None, 7, 7, 192)0block6d_project_bn[0][0]
block6d_add (Add)(None, 7, 7, 192)0block6d_drop[0][0], block6c_add[0][0]
block7a_expand_conv(None, 7, 7, 1152)221,184block6d_add[0][0]
block7a_expand_bn(None, 7, 7, 1152)4,608block7a_expand_conv[0][0]
block7a_expand_activation(None, 7, 7, 1152)0block7a_expand_bn[0][0]
block7a_dwconv(None, 7, 7, 1152)10,368block7a_expand_activation[0][0]
block7a_bn(None, 7, 7, 1152)4,608block7a_dwconv[0][0]
block7a_activation(None, 7, 7, 1152)0block7a_bn[0][0]
block7a_se_squeeze(None, 1152)0block7a_activation[0][0]
block7a_se_reshape(None, 1, 1, 1152)0block7a_se_squeeze[0][0]
block7a_se_reduce(None, 1, 1, 48)55,344block7a_se_reshape[0][0]
block7a_se_expand(None, 1, 1, 1152)56,448block7a_se_reduce[0][0]
block7a_se_excite(None, 7, 7, 1152)0block7a_activation[0][0], block7a_se_expand[0][0]
block7a_project_conv(None, 7, 7, 320)368,640block7a_se_excite[0][0]
block7a_project_bn(None, 7, 7, 320)1,280block7a_project_conv[0][0]
top_conv (Conv2D)(None, 7, 7, 1280)409,600block7a_project_bn[0][0]
top_bn(None, 7, 7, 1280)5,120top_conv[0][0]
top_activation(None, 7, 7, 1280)0top_bn[0][0]
avg_pool (GlobalAveragePooling2D)(None, 1280)0top_activation[0][0]
top_dropout(None, 1280)0avg_pool[0][0]
predictions (Dense)(None, 120)153,720top_dropout[0][0]

请注意,"…" 表示中间层已被省略,以避免冗长。如果需要中间层的详细信息,请告知我,我将提供完整的数据。

import matplotlib.pyplot as plt

训练模型的速度相对较快。这可能让人误以为可以轻松地从头开始在任何想要的数据集上训练EfficientNet。然而,在较小的数据集上训练EfficientNet,尤其是像CIFAR-100这样分辨率较低的数据集,会面临过拟合的重大挑战。

因此,从头开始训练需要非常谨慎地选择超参数,并且很难找到合适的正则化方法。这也会在资源上提出更高的要求。绘制训练和验证准确率图表可以清楚地看到,验证准确率停滞在一个较低的值上。

这段文字主要强调了从头开始训练EfficientNet模型可能面临的挑战,包括过拟合问题、超参数选择的难度以及资源需求的增加。同时,通过绘制训练和验证准确率图表,可以直观地看到模型在验证集上的表现并不理想,准确率提升有限。
def plot_hist(hist):
    plt.plot(hist.history["accuracy"])
    plt.plot(hist.history["val_accuracy"])
    plt.title("model accuracy")
    plt.ylabel("accuracy")
    plt.xlabel("epoch")
    plt.legend(["train", "validation"], loc="upper left")
    plt.show()


plot_hist(hist)

在这里插入图片描述

4、从预训练权重进行迁移学习

为改善第三节从零开始训练模型的不足,在这里,我们使用在ImageNet上预训练的权重来初始化模型,并在我们自己的数据集上对其进行微调。

def build_model(num_classes):
    inputs = layers.Input(shape=(IMG_SIZE, IMG_SIZE, 3))
    model = EfficientNetB0(include_top=False, input_tensor=inputs, weights="imagenet")

    # Freeze the pretrained weights
    model.trainable = False

    # Rebuild top
    x = layers.GlobalAveragePooling2D(name="avg_pool")(model.output)
    x = layers.BatchNormalization()(x)

    top_dropout_rate = 0.2
    x = layers.Dropout(top_dropout_rate, name="top_dropout")(x)
    outputs = layers.Dense(num_classes, activation="softmax", name="pred")(x)

    # Compile
    model = keras.Model(inputs, outputs, name="EfficientNet")
    optimizer = keras.optimizers.Adam(learning_rate=1e-2)
    model.compile(
        optimizer=optimizer, loss="categorical_crossentropy", metrics=["accuracy"]
    )
    return model

4.1 训练顶层

迁移学习的第一步是冻结所有层并仅训练顶层。在这一步中,可以使用相对较大的学习率(如1e-2)。请注意,验证准确率和损失通常会比训练准确率和损失要好。这是因为正则化很强,它只会抑制训练时的指标。

请注意,收敛可能需要多达50个epoch,具体取决于所选的学习率。如果未应用图像增强层,验证准确率可能只能达到约60%。

model = build_model(num_classes=NUM_CLASSES)

epochs = 25  # @param {type: "slider", min:8, max:80}
hist = model.fit(ds_train, epochs=epochs, validation_data=ds_test)
plot_hist(hist)

在这里插入图片描述

4.2 解冻其它层

第二步是解冻一定数量的层并使用较小的学习率来训练模型。在这个例子中,我们展示了如何解冻所有层,但具体取决于数据集,可能只解冻所有层的一部分会更合适。

当使用预训练模型进行特征提取的效果足够好时,这一步在验证准确率上的提升会非常有限。在我们的例子中,我们只看到了很小的提升,因为ImageNet预训练已经让模型接触到了大量的狗的图片。

另一方面,当我们在与ImageNet差异更大的数据集上使用预训练权重时,这个微调步骤可能至关重要,因为特征提取器也需要做出相当大的调整。如果选择CIFAR-100数据集作为例子,这种情况可以得到体现,其中微调可以将EfficientNetB0的验证准确率提升约10%,达到80%以上。

关于模型冻结/解冻的一个旁注:设置模型的trainable属性将同时设置该模型所属的所有层的trainable属性。只有当层本身和包含它的模型都是可训练的,该层才是可训练的。因此,当我们需要部分冻结/解冻一个模型时,我们需要确保模型的trainable属性被设置为True。

def unfreeze_model(model):
    # We unfreeze the top 20 layers while leaving BatchNorm layers frozen
    for layer in model.layers[-20:]:
        if not isinstance(layer, layers.BatchNormalization):
            layer.trainable = True

    optimizer = keras.optimizers.Adam(learning_rate=1e-5)
    model.compile(
        optimizer=optimizer, loss="categorical_crossentropy", metrics=["accuracy"]
    )


unfreeze_model(model)

epochs = 4  # @param {type: "slider", min:4, max:10}
hist = model.fit(ds_train, epochs=epochs, validation_data=ds_test)
plot_hist(hist)

在这里插入图片描述

4.3 微调EfficientNet要点

在解冻层时:

  • BatchNormalization层需要保持冻结(更多细节)。如果它们也被设置为可训练的,解冻后的第一个epoch将显著降低准确率。

  • 在某些情况下,只解冻部分层而不是全部层可能更有益。当使用更大的模型如B7时,这样做将大大加快微调过程。

  • 每个块需要全部打开或关闭。这是因为架构包括从每个块的第一层到最后一层的快捷连接。不尊重块也会显著损害最终性能。

利用EfficientNet的其他提示:

  • EfficientNet的较大变体并不保证性能的提升,特别是对于数据量较少或类别较少的任务。在这种情况下,选择的EfficientNet变体越大,调整超参数就越困难。

  • **EMA(指数移动平均)**在从头开始训练EfficientNet时非常有用,但在迁移学习中帮助不大。

  • 不要使用原始论文中的RMSprop设置进行迁移学习。迁移学习中的动量和学习率太高。它很容易破坏预训练权重并使损失爆炸。一个简单的检查方法是看同一epoch后损失(作为分类交叉熵)是否显著大于log(NUM_CLASSES)。如果是,那么初始学习率/动量太高。

  • 较小的批处理大小有利于验证准确率,可能是因为有效地提供了正则化。

5、总结

今天我们对EfficientNet进行了深入的讨论,以下是对讨论的总结:

EfficientNet概述

EfficientNet是一个高效且可扩展的卷积神经网络模型家族,它通过系统地平衡网络深度、宽度和分辨率,以较小的模型尺寸实现了出色的性能。EfficientNet模型在多个基准测试中均取得了显著的性能提升,包括ImageNet分类、CIFAR-100分类以及COCO目标检测等。

EfficientNet的特点

  • 系统平衡:EfficientNet通过一种复合缩放方法,同时缩放网络的深度、宽度和分辨率,以在给定计算资源下实现最佳性能。

  • 高效性:EfficientNet使用了MobileNetV2中的MBConv(Mobile inverted bottleneck convolution)作为其构建块,结合了深度可分离卷积和Squeeze-and-Excitation模块,从而实现了高效计算和参数利用。

  • 可扩展性:EfficientNet具有多个不同规模的变体,包括EfficientNetB0到EfficientNetB8,这些变体在模型大小和性能之间提供了灵活的权衡。

迁移学习与微调EfficientNet

  • 冻结与解冻层:在迁移学习中,首先冻结所有层并仅训练顶层是一种常见做法。随着训练的进行,可以逐步解冻更多层以进行微调。然而,需要注意的是,在解冻过程中,BatchNormalization层应保持冻结以避免性能下降。

  • 学习率调整:在微调过程中,学习率的选择至关重要。初始阶段可以使用较大的学习率以加速训练,但随后应逐渐减小学习率以进行更精细的调整。

  • 数据增强:在迁移学习中,数据增强对于提高模型的泛化能力非常重要。通过使用如随机裁剪、翻转、旋转等数据增强技术,可以增加模型的鲁棒性。

使用EfficientNet的注意事项

  • 模型大小与任务匹配:较大的EfficientNet变体并不总是能保证更好的性能,特别是在数据较少或类别较少的任务中。因此,在选择模型时,需要根据具体任务和数据集来权衡模型大小和性能。

  • 优化器与学习率设置:对于迁移学习任务,不建议使用原始论文中的RMSprop优化器和较高的学习率。相反,使用更稳定的优化器(如Adam或SGD)和较低的学习率通常更为合适。

  • 正则化技术:在微调过程中,可以考虑使用正则化技术(如Dropout、Weight Decay等)来防止过拟合。这些技术可以帮助模型在训练过程中更好地泛化到未见过的数据。

EfficientNet是一个强大且灵活的卷积神经网络模型家族,适用于各种计算机视觉任务。通过合理的迁移学习策略和微调技巧,可以充分发挥EfficientNet的性能优势。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/670526.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【气象常用】剖面图

效果图: 主要步骤: 1. 数据准备:我用的era5的散度数据(大家替换为自己的就好啦,era5数据下载方法可以看这里【数据下载】ERA5 各高度层月平均数据下载_era5月平均数据-CSDN博客) 2. 数据处理&#xff1a…

高考试卷押运车视频监控解决方案

一、引言 高考作为我国教育领域的重要事件,其公正、公平和安全性一直备受社会关注。试卷押运作为高考的重要环节,其安全性直接关系到高考的顺利进行和考生的切身利益。因此,对高考试卷押运车实施视频监控解决方案,对于确保试卷安…

【Pr学习】01新建项目起步

【Pr学习】01新建项目起步 1、新建项目2.序列设置2.1新建序列2.2序列参数讲解2.3自定义设置 3.PR窗口认识3.1 项目窗口3.2 源窗口2.4 保存面板 4.剪辑导入4.1 素材导入4.2 视图切换4.3 时间轴4.4轨道工具4.5 节目窗口素材导入 5.基础操作5.1 取消视频音频链接5.2 单独渲染&…

在不受支持的 Mac 上安装 macOS Sonoma (OpenCore Legacy Patcher v1.5.0)

在不受支持的 Mac 上安装 macOS Sonoma (OpenCore Legacy Patcher v1.5.0) Install macOS on unsupported Macs 请访问原文链接:https://sysin.org/blog/install-macos-on-unsupported-mac/,查看最新版。原创作品,转载请保留出处。 作者主…

Hugging Face称检测到对其人工智能模型托管平台的“未经授权访问“

周五下午晚些时候,人工智能初创公司Hugging Face表示,其安全团队在本周早些时候检测到对Spaces的"未经授权访问",Spaces是Hugging Face用于创建、共享和托管人工智能模型和资源的平台。 Hugging Face 在一篇博文中说,这…

intel深度相机D455的使用

一、D455介绍 Intel RealSense D455 是RealSense D400系列的一部分,这个系列的设备以其高精度和可靠性而闻名。D455相比于之前的型号(如D415和D435),提供了更远的感知范围和更高的精度。 二、使用代码 我们先定义一下相关的函数…

深入理解Java中的List集合:解析实例、优化技巧与最佳实践

一:List 集合的基础 1.1 什么是 List 集合? List 集合是 Java 集合框架中的一种有序、可重复的数据结构,它继承自Collection 接口,允许存储多个元素。 与数组不同,List 集合的大小是动态可变的,可以根据…

Elasticsearch:基于多个 kNN 字段对文档进行评分

作者:来自 Elastic Madhusudhan Konda 通过具有多个 kNN 字段的最接近的文档对文档进行评分 Elasticsearch 不仅仅是一个词法(文本)搜索引擎。 Elasticsearch 是多功能搜索引擎,除了传统的文本匹配之外,还支持 k 最近…

海外高清短视频:四川京之华锦信息技术公司

海外高清短视频:探索世界的新窗口 在数字化时代的浪潮下,海外高清短视频成为了人们探索世界、了解异国风情的新窗口。四川京之华锦信息技术公司这些短视频以其独特的视角、丰富的内容和高清的画质,吸引了无数观众的目光,让人们足…

DI-engine强化学习入门(一)使用强化学习模型控制月球着陆器

控制程序观前提醒:本章内容为训练一个强化学习模型,并使用强化学习模型控制月球着陆器。安装和运行DI-engine示例。 什么是DI-engine? DI-engine 是一个由 OpenDILab 提供的开源强化学习(Reinforcement Learning,简称RL&#xf…

一次职业院校漏洞挖掘

这个是之前挖掘到的漏洞,目前网站进行重构做了全新的改版,但是这个漏洞特别经典,拿出来进行分享。看到src上面的很多敏感信息泄露,所以自己也想找一个敏感信息泄露,官网如图: 发现在下面有一个数字校园入口…

电源滤波器怎么选用

电源滤波器怎么选用 滤波器应用场景及作用第一步:第二步:第三步:第四步: 滤波器应用场景及作用 可以有效解决EMC测试无法通过、端口防护、滤除干扰、设备保护等问题 主要功能有: 1、降低主电源谐波; 2、保护驱动装置电力电子元件…

硬币检测电路设计

一、来源:凡亿教育 第一场:硬币检测装置原理分析、电路设计以及器件选型_哔哩哔哩_bilibilihttps://www.bilibili.com/video/BV1Zh4y1V7Px/?p1&vd_source43eb1cb50ad3175d7f3b9385905cd88f 二、开发软件:KEIL MDK 三、主控芯片&#…

大型制造业集团IT信息化总体规划方案(65页PPT)

方案介绍: 本大型制造业集团IT信息化总体规划方案旨在通过构建先进、高效、稳定的IT信息化系统,支撑集团各业务领域的运营和管理需求,促进集团整体运营效率和竞争力的提升。通过实施本项目,集团将能够更好地应对市场变化和客户需…

嫁接打印:经济与实用的完美结合

在制造领域,寻求经济且好用的技术方案至关重要。而在模具制造中,3D 打印随形水路在提升冷却效率和产品良率方面的卓越表现已得到广泛认同。如何更经济的应用3D打印技术,就不得不说嫁接打印了。 在嫁接打印的制造过程中,产品的一部…

Uniapp写一个简单的商品瀑布流界面+商品详情

最终效果: 整体内容比较简单,参考了一篇瀑布流文章和一篇商品详情文章随便修改整了下,主要是给想做这方便面的新人一个简单逻辑的展示(其实我也是第一次写这个emmm) 一.组件下载: uni-icon uni-goods-nav…

InsightFace | 基于 AI 增强的人脸检测

点击下方卡片,关注“小白玩转Python”公众号 概述 我将使用InsightFace,这是一个以其在复杂面部分析任务中的卓越表现而闻名的开源AI工具包。该工具包可以帮助完成诸如人脸检测、关键点识别、情感识别、年龄和性别估算以及属性分析等任务。 示例 !pip in…

yolov10/v8 loss详解

v10出了就想看看它的loss设计有什么不同,看下来由于v8和v10的loss部分基本一致就放一起了。 v10的论文笔记,还没看的可以看看,初步尝试耗时确实有提升 好记性不如烂笔头,还是得记录一下,以免忘了,废话结束…

tcp链接中的三次挥手是什么原因

一、tcp链接中的正常四次挥手过程? 刚开始双方都处于 ESTABLISHED 状态,假如是客户端先发起关闭请求。四次挥手的过程如下: 1、客户端打算关闭连接,此时会发送一个 TCP 首部 FIN 标志位被置为 1 的报文,也即 FIN 报文…

Pycharm的基础设置+Pycharm与AutoDL服务器连接

一.pycharm的基础设置 1.下载pycharm profession版,配置之前博客里面的解释器mask2 2.run detect.py 3.终端的设置 (1)先直接在终端里面pip install 我们再创建一个测试python文件:terninal_test.py 虽然上面安装成功了包&#x…