人工智能深度学习100种网络模型,精心整理,全网最全,PyTorch框架逐一搭建

大家好,我是微学AI,今天给大家介绍一下人工智能深度学习100种网络模型,这些模型可以用PyTorch深度学习框架搭建。模型按照个人学习顺序进行排序:
在这里插入图片描述

深度学习模型

  1. ANN (Artificial Neural Network) - 人工神经网络:基本的神经网络结构,包括输入层、隐藏层和输出层。
    学习点击地址
  2. CNN (Convolutional Neural Network) - 卷积神经网络:主要用于图像识别和处理的基础神经网络结构。
    学习点击地址
  3. RNN (Recurrent Neural Network) - 循环神经网络:用于处理序列数据的神经网络结构。
    学习点击地址
  4. LSTM (Long Short-Term Memory) - 长短时记忆网络:一种特殊的RNN,用于解决长序列中的梯度消失问题。
    学习点击地址
  5. GRU (Gated Recurrent Unit) - 门控循环单元:一种简化版的LSTM,用于处理序列数据。
    学习点击地址
  6. BiLSTM (Bidirectional LSTM) - 双向长短时记忆网络:同时考虑序列的正向和反向信息的LSTM。
    学习点击地址
  7. BiGRU (Bidirectional GRU) - 双向门控循环单元:同时考虑序列的正向和反向信息的GRU。
    学习点击地址
  8. Transformer - Transformer模型:一种基于自注意力机制的神经网络结构,用于处理序列数据。
    学习点击地址
  9. BERT (Bidirectional Encoder Representations from Transformers) - 双向Transformers编码器模型:一种基于Transformer的预训练模型,用于自然语言处理任务。
    学习点击地址
  10. ELMo (Embeddings from Language Models) - 语言模型嵌入:一种基于双向LSTM的预训练模型,用于自然语言处理任务。
    学习点击地址
  11. RoBERTa (Robustly Optimized BERT Pretraining Approach) - 稳健优化的BERT预训练方法:一种改进的BERT预训练模型。
  12. T5 (Text-to-Text Transfer Transformer) - 文本到文本传输变压器:一种基于Transformer的预训练模型,用于自然语言处理任务。
    学习点击地址
  13. GPT (Generative Pre-trained Transformer) - 生成预训练Transformer:一种基于Transformer的生成式预训练模型,用于自然语言处理任务。
  14. GPT-2 (Generative Pre-trained Transformer 2) - 生成预训练Transformer2:一种基于Transformer的生成式预训练模型,用于自然语言处理任务。
  15. GPT-3 (Generative Pre-trained Transformer 3) - 生成预训练Transformer3:一种基于Transformer的生成式预训练模型,用于自然语言处理任务。
  16. LeNet (LeNet-5) - LeNet-5:一种早期的卷积神经网络,用于手写数字识别。
  17. AlexNet - AlexNet:一种深度卷积神经网络,用于图像识别,赢得了2012年的ImageNet竞赛。
  18. ResNet (Residual Network) - 残差网络:一种具有残差连接的深度卷积神经网络,用于图像识别。
    学习点击地址
  19. VGG (Visual Geometry Group) - 视觉几何组:一种深度卷积神经网络,用于图像识别。
  20. Inception - Inception网络:一种具有多尺度卷积的深度卷积神经网络,用于图像识别。
  21. MobileNet - 移动网络:一种轻量级的卷积神经网络,用于移动设备上的图像识别。
  22. DenseNet (Densely Connected Convolutional Network) - 密集连接卷积网络:一种具有密集连接的深度卷积神经网络,用于图像识别。
  23. U-Net - U型网络:一种用于图像分割的卷积神经网络。
    学习点击地址
  24. GAN (Generative Adversarial Network) - 生成对抗网络:一种生成式模型,由生成器和判别器组成,用于生成新的数据样本。
  25. DCGAN (Deep Convolutional Generative Adversarial Network) - 深度卷积生成对抗网络:一种基于卷积神经网络的GAN。
    学习点击地址
  26. WGAN (Wasserstein Generative Adversarial Network) - 瓦asserstein生成对抗网络:一种改进的GAN,使用Wasserstein距离作为损失函数。
  27. Pix2Pix - Pix2Pix网络:一种用于图像到图像转换的条件生成对抗网络。
  28. CycleGAN - CycleGAN网络:一种用于无监督图像到图像转换的生成对抗网络。
  29. StyleGAN (Style-Based Generative Adversarial Network) - 基于样式的生成对抗网络:一种用于生成高质量图像的GAN。
  30. CapsNet (Capsule Network) - 胶囊网络:一种用于图像识别的神经网络结构,包含胶囊层。
  31. SNN (Spiking Neural Network) - 脉冲神经网络:一种模拟生物神经元动力学的神经网络结构。
    学习点击地址
  32. RBM (Restricted Boltzmann Machine) - 受限玻尔兹曼机:一种生成式模型,用于特征学习和降维。
    学习点击地址
  33. DBN (Deep Belief Network) - 深度信念网络:一种基于RBM的深度生成式模型。
  34. Autoencoder - 自编码器:一种用于特征学习和降维的神经网络结构。
  35. VAE (Variational Autoencoder) - 变分自编码器:一种生成式自编码器,用于生成新的数据样本。
  36. Seq2Seq (Sequence-to-Sequence) - 序列到序列模型:一种用于序列到序列转换的神经网络结构,包括编码器和解码器。
  37. Attention - 注意力机制:一种用于加权序列中不同部分的神经网络结构。
  38. NMT (Neural Machine Translation) - 神经机器翻译:一种基于Seq2Seq和注意力机制的神经网络结构,用于机器翻译。
  39. ALBERT (A Lite BERT) - 轻量级BERT:一种轻量级的BERT预训练模型。
  40. XLM (Cross-lingual Language Model) - 跨语言语言模型:一种用于多语言自然语言处理任务的预训练模型。
  41. XLM-R (XLM-RoBERTa) - XLM-RoBERTa:一种基于RoBERTa的跨语言预训练模型。
  42. DeBERTa (Decoding-enhanced BERT with Disentangled Attention) - 解码增强的BERT与解耦注意力:一种改进的BERT预训练模型,具有解耦注意力机制。
  43. ELECTRA (Efficiently Learning an Encoder that Classifies Token Replacements Accurately) - 高效学习精确分类令牌替换的编码器:一种基于生成对抗网络的预训练模型。
  44. FastText - FastText:一种用于文本分类和词嵌入的神经网络模型。
  45. Word2Vec - Word2Vec:一种用于词嵌入的神经网络模型。
  46. GloVe (Global Vectors for Word Representation) - 全局词向量表示:一种用于词嵌入的神经网络模型。
  47. Siamese Network - 孪生网络:一种用于度量学习和相似性比较的神经网络结构。
    学习点击地址
  48. Triplet Network - 三元组网络:一种用于度量学习和相似性比较的神经网络结构,包括三个相互关联的子网络。
  49. YOLO (You Only Look Once) - 一次性查看:一种实时目标检测的神经网络模型。
  50. SSD (Single Shot MultiBox Detector) - 单次多框检测器:一种实时目标检测的神经网络模型。
  51. RetinaNet - RetinaNet:一种用于目标检测的神经网络模型,具有特征金字塔网络和锚框。
  52. Mask R-CNN - Mask R-CNN:一种用于实例分割的神经网络模型,基于Faster R-CNN。
  53. NASNet (Neural Architecture Search Network) - 神经架构搜索网络:一种通过神经架构搜索自动设计的神经网络模型。
  54. EfficientNet - EfficientNet:一种自动调整网络深度、宽度和分辨率的神经网络模型。
  55. SqueezeNet - SqueezeNet:一种轻量级的卷积神经网络,用于图像识别。
  56. ShuffleNet - ShuffleNet:一种轻量级的卷积神经网络,用于图像识别,具有通道混洗操作。
  57. MnasNet - MnasNet:一种通过神经架构搜索自动设计的轻量级卷积神经网络,用于图像识别。
  58. PNASNet (Progressive Neural Architecture Search) - 渐进式神经架构搜索:一种通过渐进式神经架构搜索自动设计的神经网络模型。
  59. RCNN (Region-based Convolutional Neural Network) - 基于区域的卷积神经网络:一种用于目标检测的神经网络模型。
  60. Fast R-CNN - Fast R-CNN:一种改进的R-CNN,用于目标检测,具有较快的训练和推理速度。
  61. Faster R-CNN - Faster R-CNN:一种改进的Fast R-CNN,用于目标检测,具有区域提议网络。
  62. R-FCN (Region-based Fully Convolutional Network) - 基于区域的全卷积网络:一种用于目标检测的神经网络模型,基于全卷积网络。
  63. FPN (Feature Pyramid Network) - 特征金字塔网络:一种用于目标检测的神经网络模型,具有多尺度特征金字塔。
  64. HRNet (High-Resolution Network) - 高分辨率网络:一种用于图像识别和语义分割的神经网络模型,保持高分辨率特征图。
  65. DeepLab - DeepLab:一种用于语义分割的神经网络模型,具有空洞卷积和条件随机场。
  66. PspNet (Pyramid Scene Parsing Network) - 金字塔场景解析网络:一种用于语义分割的神经网络模型,具有金字塔池化模块。
  67. NIN (Network in Network) - 网络中的网络:一种卷积神经网络,用于图像识别,具有多层感知机卷积层。
  68. SRGAN (Super-Resolution Generative Adversarial Network) - 超分辨率生成对抗网络:一种用于图像超分辨率的生成对抗网络。
  69. Ladder Network - 梯形网络:一种半监督学习的神经网络模型,具有多层编码器和解码器。
  70. CTC (Connectionist Temporal Classification) - 连接主义时序分类:一种用于序列到序列转换的神经网络损失函数,用于语音识别等任务。
  71. CPM (Convolutional Pose Machines) - 卷积姿态机:一种用于人体姿态估计的卷积神经网络模型。
  72. OpenPose - OpenPose:一种用于实时多人关键点检测的神经网络模型。
  73. WaveNet - WaveNet:一种用于生成原始波形音频的深度神经网络模型。
  74. Tacotron - Tacotron:一种用于文本到语音合成的神经网络模型,基于Seq2Seq和注意力机制。
  75. Transformer-XL (Transformer with extra-long context) - 变压器扩展长上下文:一种改进的Transformer,用于处理长序列数据。
  76. BigGAN (Big Generative Adversarial Network) - 大型生成对抗网络:一种用于生成高质量图像的大型生成对抗网络。
  77. ProGAN (Progressive Growing of GANs) - GAN的渐进式增长:一种通过逐渐增加生成器和判别器的分辨率来训练GAN的方法。
  78. SPADE (Spatially-Adaptive Normalization) - 空间自适应归一化:一种用于图像到图像转换的生成对抗网络,具有空间自适应归一化层。
  79. StarGAN - StarGAN:一种用于多域图像到图像转换的生成对抗网络。
  80. Swin Transformer - Swin Transformer:一种基于滑动窗口的Transformer,用于计算机视觉任务。
  81. ViT (Vision Transformer) - 视觉变压器:一种将图像分割成小块并将其视为序列的Transformer,用于图像识别。
  82. DeiT (Data-efficient Image Transformer) - 数据高效图像变压器:一种基于Vision Transformer的数据高效图像识别模型。
  83. Stable Diffusion - 稳定扩散网络模型,用于图像处理,文本生成图像的应用。
  84. Reformer - 改革者:一种改进的Transformer,用于处理长序列数据,具有局部敏感哈希和可逆残差层。
  85. Performer - 表演者:一种改进的Transformer,用于处理长序列数据,具有快速注意力机制。
  86. Linformer - 线性变压器:一种改进的Transformer,用于处理长序列数据,具有线性复杂度的自注意力机制。
  87. Longformer - 长变压器:一种改进的Transformer,用于处理长序列数据,具有稀疏自注意力机制。
  88. Conformer - 一致者:一种用于自动语音识别的神经网络模型,结合了Transformer和卷积神经网络。
  89. NeRF (Neural Radiance Fields) - 神经辐射场:一种用于三维场景重建的神经网络模型。
  90. DALL-E - DALL-E:一种基于Transformer的生成式模型,用于从文本描述生成图像。
  91. CLIP (Contrastive Language-Image Pretraining) - 对比性语言-图像预训练:一种同时学习图像和文本表示的预训练模型。
  92. DETR (DEtection TRansformer) - 检测变压器:一种基于Transformer的端到端目标检测神经网络模型。
  93. T2T-ViT (Tokens-to-Token Vision Transformer) - 令牌到令牌视觉变压器:一种基于令牌到令牌的视觉变压器,用于图像识别。
  94. OmniNet - OmniNet:一种用于多任务学习的神经网络模型,具有共享特征提取器和任务特定的分支。
  95. PointNet - PointNet:一种用于处理点云数据的神经网络模型。
  96. GCN (Graph Convolutional Network)- 图卷积神经网络:适用于处理图数据,尤其是基于图结构的数据分析和机器学习任务。
  97. SE-Net (Squeeze-and-Excitation Network) -基于通道注意力机制的卷积神经网络:通过学习每个通道间的关系来提高模型泛化能力。
  98. TSM (Temporal Shift Module) -时间序列模块:用于处理视频中的时间序列信息,可以在不增加计算量的情况下提高视频分类的准确率。
  99. STT (Speech-to-Text) -语音到文本模型:将语音信号转换成对应的文字。
  100. TTS (Text-to-Speech) -文本到语音模型:将文字信息转换成对应的语音信号。

以上模型涵盖了计算机视觉、自然语言处理、语音识别、生成模型等多个领域,可以根据实际需求选择合适的模型进行搭建和训练。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/249140.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

JavaSE语法之七:封装

文章目录 一、封装的概念二、访问限定符三、封装扩展之包1. 包的概念2. 导入包中的类3. 自定义包4. 常见的包 四、实现封装五、static成员1. 再谈学生类成员变量2. static修饰成员变量3. static修饰成员方法4. static成员变量初始化 六、代码块1. 代码块概念及其分类2. 普通代码…

探索Linux服务器配置信息的命令

目录 前言1 uname2 lscpu3 free4 df5 lspci6 lsusb7 lshw结语 前言 Linux系统提供了许多命令,用于获取和查看服务器的软硬件配置信息。这些命令可以帮助管理员和用户了解系统的状态、资源使用情况以及硬件设备的相关信息。以下是一些常用的命令以及它们的作用、使用…

windows安装conda小环境 windows安装anaconda python jupyter

1 如果想体验在线版的jupyter,可以访问anaconda在Anaconda Cloud,需要注册github: 1 下载anaconda ,并安装 1.1 下载 或者去清华镜像下载 Free Download | Anacondahttps://www.anaconda.com/downloadIndex of /anaconda/archi…

Logistic Regression——逻辑回归

1. 为什么需要逻辑回归 在前面学习的线性回归中,我们的预测值都是任意的连续值,例如预测房价。除此之外,还有一个常见的问题就是分类问题,而逻辑回归是一个解决分类问题的模型,其预测值是离散的。 分类问题又包括…

Module ‘app‘: platform ‘android-33‘ not found.

目录 一、报错信息 二、解决方法 一、报错信息 Module app: platform android-33 not found. 检查你的应用程序的build.gradle文件中的targetSdkVersion和compileSdkVersion是否正确设置为已安装的Android SDK版本。 确保你的Android Studio已正确安装并配置了所需的Android …

香槟过了保质期还能喝吗?

香槟是起泡酒的高级代表,是浪漫和喜庆的化身,它浑身上下都散发着无穷的魅力。那么,这么精贵的葡萄酒有没有保质期,会不会变质呢?云仓酒庄的品牌雷盛红酒分享当然会。一瓶酒的生命离不开它的保存期限,酒的质…

力扣第一题-两数之和[简单]

题目描述 给定一个整数数组 nums 和一个整数目标值 target,请你在该数组中找出 和为目标值 target 的那 两个 整数,并返回它们的数组下标。 你可以假设每种输入只会对应一个答案。但是,数组中同一个元素在答案里不能重复出现。 你可以按任…

这种形状的土堆,用DasViewer土方计算时该选择哪种模式?

答:推荐拟合平面;当堆料的整个边界可见并且基面是具有相同高度的坚硬表面、斜坡或平坦时,推荐该选项。 DasViewer是由大势智慧自主研发的免费的实景三维模型浏览器,采用多细节层次模型逐步自适应加载技术,让用户在极低的电脑配置下,也能流畅…

命令执行 [BUUCTF 2018]Online Tool1

打开题目 我们代码审计一下 if (isset($_SERVER[HTTP_X_FORWARDED_FOR])) { $_SERVER[REMOTE_ADDR] $_SERVER[HTTP_X_FORWARDED_FOR]; } 如果存在xxf头且不为空,则将xxf头内容(真实的客户端ip)赋给ROMOTE_ADDR(代理服务器传过…

11.jvm第三方工具使用实践

目录 概述GCEasy官网jvm内存占用情况关键性能指标堆内存与元空间优化 MAT安装MAT相关概念说明内存泄漏与内存溢出shallow heap及retained heapoutgoing references与incoming referencesDominator Tree GCViewerArthas下载安装与启动jdk8jdk 11jdk11自定义boot jarjdk17 常用命…

PHPRunner 10.91 Crack

PHPRunner是一款非常好用的网页制作工具,界面简洁美观,支持处理多个数据库连接并添加设计页面,页面中可以显示不同的不相关对象,如网格,单个记录,图表,报告等。PHPRunner支持多个操作系统&#…

OxLint 发布了,Eslint 何去何从?

由于最近的rust在前端领域的崛起,基于rust的前端生态链遭到rust底层重构,最近又爆出OxLint,是一款基于Rust的linter工具Oxlint在国外前端圈引起热烈讨论,很多大佬给出了高度评价;你或许不知道OxLint,相比ES…

【笔试强化】Day 3

一、单选 1. 正确答案:C子类继承父类,但是 name 被 private 修饰,不能访问 2. 正确答案:D父类构造了对象,但是子类没有使用 super调用,会报错 3. 正确答案:B构造方法可以重载 4. 正确答案&a…

【STM32独立看门狗(IWDG) 】

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言一、看门狗是什么?1.简介2. 主要功能3.独立看门狗如何工作4.寄存器写保护5.看门狗 看门时间 二、使用步骤1.开启时钟2.初始化看门狗3.开启看门狗4.喂…

面试官:你对SPA单页面的理解,它的优缺点分别是什么?如何实现SPA应用呢

一、什么是SPA SPA(single-page application),翻译过来就是单页应用SPA是一种网络应用程序或网站的模型,它通过动态重写当前页面来与用户交互,这种方法避免了页面之间切换打断用户体验在单页应用中,所有必要…

mac 反编译apk记录

Mac/Linux 去release页下载,有中国下载地址能下载快些。 //也可以直接下载源码,中国下载慢,不推荐。 //git clone --depth1 https://github.com/tp7309/TTDeDroid.git ~/Documents/TTDeDroid//给脚本执行权限 chmod ax ~/Documents/TTDeDro…

AnythingLLM:基于RAG方案构专属私有知识库(开源|高效|可定制)

一、前言 继OpenAI和Google的产品发布会之后,大模型的能力进化速度之快令人惊叹,然而,对于很多个人和企业而言,为了数据安全不得不考虑私有化部署方案,从GPT-4发布以来,国内外的大模型就拉开了很明显的差距…

函数图形渐近线分析

文章目录 曲线的渐近线水平和垂直渐近线斜渐近线斜渐近线公式推导简便方法确定斜渐近线(一次多项式化方法) 例 曲线的渐近线 渐近线综合了极限和函数图形的知识,尤其是斜渐近线 水平和垂直渐近线 若点 M M M沿曲线 y f ( x ) yf(x) yf(x)无限远离原点时,它于某条直线 L L L之…

vue中使用ailwind css

官网地址: 安装 - Tailwind CSS 中文网 推荐一个网站,里面可以查询所有的TailWindCSS的class样式: Tailwind CSS Cheat Sheet npm安装: 注意:1、这里要用npm,不要用cnpm。2、最好用install,不要…

目标检测图片截取目标分类图片

如果要训练一个分类模型却没有特定的分类数据集怎么办呢?可以换一种思路,将带有该目标的图片对所有想要的目标进行画标注框然后进行截图,就能得到特定的分类数据了。这么做的目的是:带有该目标的图片可能不会少,但是带…