史上最简洁实用人工神经元网络c++编写202301

这是史上最简单、清晰……
C++语言编写的 带正向传播、反向传播(Forward ……和Back Propagation)……任意Nodes数的人工神经元神经网络……。

大一学生、甚至中学生可以读懂。

适合于,没学过高数的程序员……照猫画虎编写人工智能、深度学习之神经网络……


著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
 

“我在网上看到过很多神经网络的实现方法,但这一篇是最简单、最清晰的。”

一位来自Umass的华人小哥Along Asong,写了篇神经网络入门教程,在线代码网站Repl.it联合创始人Amjad Masad看完以后,给予如是评价。

 这篇教程发布仅一天时间,就在Hacker News论坛上收获了574赞。程序员们纷纷夸赞这篇文章的代码写得很好,变量名很规范,让人一目了然。

下面就让我们一起从零开始学习神经网络吧:

 c++写一完整人工神经网络,要求输入层有9个Nodes,一个隐藏层有12个Nodes,输出层有5个Nodes,……含有反向传播、梯度下降法更新权重和偏置等。

  1. 神经网络的结构
  2. 前向传播(Forward Propagation)
  3. 反向传播(Back Propagation)
  4. 更新权重和偏置(梯度下降法)

下面是一个基本的实现:

// c++人工神经网络反向传播梯度下降更新权重偏置230810a18.cpp : 此文件包含 "main" 函数。程序执行将在此处开始并结束。
#include <iostream>
#include <vector>
#include <cmath>
#include <ctime>
#include <cstdlib>
#include <string>
#include <sstream>
#include <iomanip>  // 引入setprecision

int Ninpu9t = 9; //输入层Nodes数
int Nhidde12n = 12;//隐藏层Nodes数 4;// 11;
int nOutpu2t = 5;//输出层Nodes数 2;// 3;

double Lost001 = 9.0;

// 使用sigmoid作为激活函数
double sigmoid(double x) {
    return 1.0 / (1.0 + std::exp(-x));
}

double sigmoid_derivative(double x) {
    double s = sigmoid(x);
    return s * (1 - s);
}

class NeuralNetwork {
private:
    std::vector<std::vector<double>> weights1, weights2; // weights
    std::vector<double> bias1, bias2;                     // biases
    double learning_rate;

public:
    NeuralNetwork() : learning_rate(0.1) {  //01) {
        srand(time(nullptr));

        // 初始化权重和偏置
        weights1.resize(Ninpu9t, std::vector<double>(Nhidde12n));
        weights2.resize(Nhidde12n, std::vector<double>(nOutpu2t));

        bias1.resize(Nhidde12n);
        bias2.resize(nOutpu2t);

        for (int i = 0; i < Ninpu9t; ++i)
            for (int j = 0; j < Nhidde12n; ++j)
                weights1[i][j] = (rand() % 2000 - 1000) / 1000.0; // [-1, 1]

        for (int i = 0; i < Nhidde12n; ++i) {//for1100i
            bias1[i] = (rand() % 2000 - 1000) / 1000.0; // [-1, 1]

            for (int j = 0; j < nOutpu2t; ++j)
                weights2[i][j] = (rand() % 2000 - 1000) / 1000.0; // [-1, 1]
        }//for1100i

        for (int i = 0; i < nOutpu2t; ++i)
            bias2[i] = (rand() % 2000 - 1000) / 1000.0; // [-1, 1]
    }

    std::vector<double> forward(const std::vector<double>& input) {
        std::vector<double> hidden(Nhidde12n);
        std::vector<double> output(nOutpu2t);

        for (int i = 0; i < Nhidde12n; ++i) {//for110i
            hidden[i] = 0;
            for (int j = 0; j < Ninpu9t; ++j)
            {
                hidden[i] += input[j] * weights1[j][i];
            }
            hidden[i] += bias1[i];
            hidden[i] = sigmoid(hidden[i]);
        }//for110i

        for (int i = 0; i < nOutpu2t; ++i) {//for220i
            output[i] = 0;
            for (int j = 0; j < Nhidde12n; ++j)
            {
                output[i] += hidden[j] * weights2[j][i];
            }
            output[i] += bias2[i];
            output[i] = sigmoid(output[i]);
        }//for220i

        return output;
    }

    void train(const std::vector<double>& input, const std::vector<double>& target) {
        // Forward
        std::vector<double> hidden(Nhidde12n);
        std::vector<double> output(nOutpu2t);
        std::vector<double> hidden_sum(Nhidde12n, 0);
        std::vector<double> output_sum(nOutpu2t, 0);

        for (int i = 0; i < Nhidde12n; ++i) {
            for (int j = 0; j < Ninpu9t; ++j)
            {
                hidden_sum[i] += input[j] * weights1[j][i];
            }
            hidden_sum[i] += bias1[i];
            hidden[i] = sigmoid(hidden_sum[i]);
        }//for110i

        for (int i = 0; i < nOutpu2t; ++i) {//for220i
            for (int j = 0; j < Nhidde12n; ++j)
                output_sum[i] += hidden[j] * weights2[j][i];    //注意 output_sum[]
            output_sum[i] += bias2[i];
            output[i] = sigmoid(output_sum[i]);     //激活函数正向传播
        }//for220i

        //反向传播Backpropagation
        std::vector<double> output_errors(nOutpu2t);
        for (int i = 0; i < nOutpu2t; ++i) {//for2240i
            output_errors[i] = target[i] - output[i];
            //算损失综合总和:
            Lost001 = 0.0;
            Lost001 += fabs(output_errors[i]);

    }//for2240i

        
        std::vector<double> d_output(nOutpu2t);
        for (int i = 0; i < nOutpu2t; ++i)
            d_output[i] = output_errors[i] * sigmoid_derivative(output_sum[i]); //对output_sum[]做 激活函数的 导数 传播

        std::vector<double> hidden_errors(Nhidde12n, 0);
        for (int i = 0; i < Nhidde12n; ++i) {//for440i
            for (int j = 0; j < nOutpu2t; ++j)
                hidden_errors[i] += weights2[i][j] * d_output[j];
        }//for440i

        std::vector<double> d_hidden(Nhidde12n);
        for (int i = 0; i < Nhidde12n; ++i)
            d_hidden[i] = hidden_errors[i] * sigmoid_derivative(hidden_sum[i]); //对 hidden_errors层 做激活函数的 导数 传播

        // Update weights and biases
        for (int i = 0; i < Nhidde12n; ++i) {//for66i
            for (int j = 0; j < nOutpu2t; ++j)
                weights2[i][j] += learning_rate * d_output[j] * hidden[i]; //修改 隐藏层的 weights2
        }//for66i

        for (int i = 0; i < nOutpu2t; ++i)
            bias2[i] += learning_rate * d_output[i];

        for (int i = 0; i < Ninpu9t; ++i) {//for990i
            for (int j = 0; j < Nhidde12n; ++j)
                weights1[i][j] += learning_rate * d_hidden[j] * input[i];   //修改输入层的 weight1
        }//for990i

        for (int i = 0; i < Nhidde12n; ++i)
            bias1[i] += learning_rate * d_hidden[i];

    }//void train(const std::vector<double>& input, const std::vector<double>& target
}; //class NeuralNetwork {

int main() {
    NeuralNetwork nn;

    // Example
    std::vector<double> input[5];
    input[0] = { 0,1,0, 0,1,0, 0,1,0 };      //1“竖线”或 “1”字{ 1.0, 0.5, 0.25, 0.125 };
    input[1] = { 0,0,0, 1,1,1,0,0,0 };      //-“横线”或 “-”减号{ 1.0, 0.5, 0.25, 0.125 };
    input[2] = { 0,1,0, 1,1,1, 0,1,0 };      //+“+”加号{ 1.0, 0.5, 0.25, 0.125 };
    input[3] = { 0,1,0, 0,2, 0,  0,3, 0.12 };   // '1'或 '|'字型{ 1.0, 0.5, 0.25, 0.125 };
    input[4] = { 1,1,0, 9,0,9.8,  1,1,1 };      //“口”字型+{ 1.0, 0.5, 0.25, 0.125 };
    std::vector<double> target[5];
    target[0] = { 1.0, 0,0,0,0 };//1 , 0}; //0.0, 1.0, 0.5};      //{ 0.0, 1.0 };
    target[1] = { 0, 1.0 ,0,0,0};//- 91.0, 0};// , 0, 0}; //
    target[2] = { 0,0,1.0,0,0 };//+ 1.0, 0.5};
    target[3] = { 1.0 ,0,0, 0.5 ,0}; //1
    target[4] = { 0,0,0,0,1.0 }; //“口”

    // Training
    for (int i = 0; i < 50000/*00 */; ++i) {//for220i
        for (int jj = 0; jj < 4; ++jj) {
            nn.train(input[jj], target[jj]);
        }//for2230jj
        if (0 == i % 10000) {//if2250
            printf(".");
            std::cout << "[Lost:" << Lost001 << std::endl;
            Lost001 = 0;
    }//if2250
}//for220i

    // Test
    input[0] = { 0,1,0, 0,1,0, 0,1,0 };      //1{ 1.0, 0.5, 0.25, 0.125 };

    std::vector<double> output = nn.forward(input[0]);
    for (auto& val : output)
        std::cout << val << " ";
    std::cout << std::endl;

    input[1] = { 0,0,0, 1,1,1, 0,0,0 };
    //std::vector<double> 
        output = nn.forward(input[1]);
    for (auto& val : output)
        std::cout << val << " ";
    std::cout << std::endl;



    //-----------------------------------------------
    std::string S;
 //   int D[9];

    do {
        std::cout << std::endl << "请输入一个包含9个由逗号分隔的数字的字符串: ";
        std::getline(std::cin, S);

        std::stringstream ss(S);
        for (int i = 0; i < 9; ++i) {
            std::string temp;
            std::getline(ss, temp, ',');

            input[1][i] = (double)std::stof(temp); // 将字符串转化为整数
        }

        std::cout << "数字数组为: ";
        for (int i = 0; i < 9; ++i) {
            std::cout << input[1][i] << " ";
        }

        output = nn.forward(input[1]);
        std::cout << std::endl;
        for (auto& val : output)
            std::cout <<std::fixed<< std::setprecision(9)<< val << " ";

    } while (1 == 1);

    //====================================================

    return 0;
}//main

运行结果:

 

完整神经网络程序、和用法 可以私信或者 Email联系本人……

本人长期从事人工智能,神经网络,嵌入式 C/C++语言开发、培训……欢迎咨询!

41313989

41313989#QQ.com

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/81403.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

学习笔记230816---vue项目中使用第三方组件{el-dropdown}如何设置禁止事件功能

问题描述 使用第三方组件elementui&#xff0c;在导航菜单el-menu的el-menu-item中嵌入一个下拉菜框el-dropdown。点击...icon弹出下拉菜单el-dropdown-menu&#xff0c;那么这时会触发事件冒泡&#xff0c;el-menu-item菜单项的点击事件也会触发。 解决方法 阻止事件冒泡&am…

Pycharm找不到Conda可执行文件路径(Pycharm无法导入Anaconda已有环境)

在使用Pycharm时发现无法导入Anaconda创建好的环境&#xff0c;会出现找不到Conda可执行文件路径的问题。 解决 在输入框内输入D:\anaconda3\Scripts\conda.exe&#xff0c;点击加载环境。 注意前面目录是自己Anaconda的安装位置&#xff0c;之后就可以找到Anaconda的现有环…

C++ 的关键字(保留字)完整介绍

1. asm asm (指令字符串)&#xff1a;允许在 C 程序中嵌入汇编代码。 2. auto auto&#xff08;自动&#xff0c;automatic&#xff09;是存储类型标识符&#xff0c;表明变量"自动"具有本地范围&#xff0c;块范围的变量声明&#xff08;如for循环体内的变量声明…

腾讯云3年轻量应用服务器2核4G5M和2核2G4M详细介绍

腾讯云轻量应用服务器3年配置&#xff0c;目前可以选择三年的轻量配置为2核2G4M和2核4G5M&#xff0c;2核2G4M和2核4G5M带宽&#xff0c;当然也可以选择选一年&#xff0c;第二年xufei会比较gui&#xff0c;腾讯云百科分享腾讯云轻量应用服务器3年配置表&#xff1a; 目录 腾…

【C# 基础精讲】异步和同步的区别

异步&#xff08;Asynchronous&#xff09;和同步&#xff08;Synchronous&#xff09;是在编程中经常遇到的两种执行模式。它们涉及到程序中任务的执行方式以及对资源的管理方式。在本文中&#xff0c;我们将深入探讨异步和同步的区别、使用场景以及在 C# 中如何实现异步编程。…

AutoHotKey+VSCode开发扩展推荐

原来一直用的大众推荐的SciTeAHK版&#xff0c;最近发现VSCode更舒服一些&#xff0c;有几个必装的扩展推荐一下&#xff1a; AutoHotkey Plus 请注意不是AutoHotkey Plus Plus。如果在扩展商店里搜索会有两个&#xff0c;一个是Plus&#xff0c;一个是Plus Plus。我选择Pllus&…

【Git】分支管理

文章目录 一、理解分支二、创建、切换、合并分支三、删除分支四、合并冲突五、合并模式六、分支策略七、bug分支八、强制删除分支 努力经营当下 直至未来明朗&#xff01; 一、理解分支 HEAD指向的是master分支&#xff0c;master中指向的是最新一次的提交&#xff0c;也就是m…

Python数据分析实战-多线程并发处理列表(附源码和实现效果)

实现功能 Python数据分析实战-多线程并发处理列表 实现代码 import threading有15个列表&#xff0c;尝试多进程并发处理&#xff0c;每个列表一个进程&#xff0c;进程数和 CPU 核数一致def sum_list(lst):return sum(lst)if __name__ __main__:lists [[1,2,3], [4,5,6], …

JavaScript函数式编程【进阶】

作者&#xff1a;20岁爱吃必胜客&#xff08;坤制作人&#xff09;&#xff0c;近十年开发经验, 跨域学习者&#xff0c;目前于海外某世界知名高校就读计算机相关专业。荣誉&#xff1a;阿里云博客专家认证、腾讯开发者社区优质创作者&#xff0c;在CTF省赛校赛多次取得好成绩。…

ARM(汇编指令)

.global _start _start:/*mov r0,#0x5mov r1,#0x6 bl LoopLoop:cmp r0,r1beq stopsubhi r0,r0,r1subcc r1,r1,r0mov pc,lr*/ mov r0,#0x1mov r1,#0x0mov r2,#0x64bl Loop Loop:cmp r0,r2bhi stopadd r1,r1,r0add r0,r0,#0x01mov pc,lr stop:B stop.end

【大数据】Flink 详解(五):核心篇 Ⅳ

Flink 详解&#xff08;五&#xff09;&#xff1a;核心篇 Ⅳ 45、Flink 广播机制了解吗&#xff1f; 从图中可以理解 广播 就是一个公共的共享变量&#xff0c;广播变量存于 TaskManager 的内存中&#xff0c;所以广播变量不应该太大&#xff0c;将一个数据集广播后&#xff0…

注册中心/配置管理 —— SpringCloud Consul

Consul 概述 Consul 是一个可以提供服务发现&#xff0c;健康检查&#xff0c;多数据中心&#xff0c;key/Value 存储的分布式服务框架&#xff0c;用于实现分布式系统的发现与配置。Cousul 使用 Go 语言实现&#xff0c;因此天然具有可移植性&#xff0c;安装包仅包含一个可执…

图像去雨-雨线清除-图像处理-(计算机作业附代码)

背景 多年来&#xff0c;图像去雨已经被广泛研究&#xff0c;使用传统方法和基于学习的方法。然而&#xff0c;传统方法如高斯混合模型和字典学习方法耗时&#xff0c;并且无法很好地处理受到严重雨滴影响的图像块。 算法 通过考虑雨滴条状特性和角度分布&#xff0c;这个问…

windows vscode使用opencv

1.windows vscode使用opencv 参考&#xff1a;https://blog.csdn.net/zhaiax672/article/details/88971248 https://zhuanlan.zhihu.com/p/402378383 https://blog.csdn.net/weixin_39488566/article/details/121297536 g -g .\hello_opencv.cpp -stdc14 -I E:\C-software\…

【Unity】按Esc进入操作菜单

本文章是基于如下视频的自我总结 https://www.youtube.com/watch?vJivuXdrIHK0 步骤如下 1、在Canvas 界面添加一个Panel Panel中添加一个按钮&#xff0c;调整按钮的大小为合适大小 调整字体的大小为合适大小 可以为字体添加Shadow组件&#xff0c;产生阴影效果 2、调整按…

matlab 点云最小二乘拟合空间直线(方法一)

目录 一、算法原理1、空间直线2、最小二乘法拟合二、代码实现三、结果展示四、可视化参考本文由CSDN点云侠原创,原文链接。如果你不是在点云侠的博客中看到该文章,那么此处便是不要脸的爬虫。 一、算法原理 1、空间直线 x

UE5.2程序发布及运行问题记录

发布后的程序默认是以全屏模式启动运行的&#xff0c;通过添加以下命令行参数&#xff0c;可实现程序的窗口模式运行&#xff1a; -ResX1280 -ResY720 -WINDOWED 发布后的程序&#xff0c;启动时&#xff0c;提示显卡驱动警告&#xff08;如图1所示&#xff09;&#xff0c;但是…

【SoC基础】从[存储器]到[内存]再到[闪存],一次性解释清楚!

&#x1f4e2;&#xff1a;如果你也对机器人、人工智能感兴趣&#xff0c;看来我们志同道合✨ &#x1f4e2;&#xff1a;不妨浏览一下我的博客主页【https://blog.csdn.net/weixin_51244852】 &#x1f4e2;&#xff1a;文章若有幸对你有帮助&#xff0c;可点赞 &#x1f44d;…

信号量

信号量&#xff08;semaphore&#xff09;和信号只有一字之差&#xff0c;却是不同的概念&#xff0c;信号量与之前介绍的IPC不同&#xff0c;它是一个计数器&#xff0c;用于实现进程间的互斥于同步 本文参考&#xff1a; Linux 的信号量_linux 信号量_行孤、的博客-CSDN博客 …

linux RabbitMQ-3.8.5 安装

软件版本操作系统CentOS Linux release 7.9.2009erlangerlang-23.0.2-1.el7.x86_64rabbitMQrabbitmq-server-3.8.5-1.el7 RabbitMQ的安装首先需要安装Erlang,因为它是基于Erlang的VM运行的。 RabbitMQ安装需要依赖:socat和logrotate&#xff0c;logrotate操作系统已经存在了&…