作者主页:爱笑的男孩。的博客_CSDN博客-深度学习,活动,python领域博主爱笑的男孩。擅长深度学习,活动,python,等方面的知识,爱笑的男孩。关注算法,python,计算机视觉,图像处理,深度学习,pytorch,神经网络,opencv领域.https://blog.csdn.net/Code_and516?type=blog个人简介:打工人。
持续分享:机器学习、深度学习、python相关内容、日常BUG解决方法及Windows&Linux实践小技巧。
如发现文章有误,麻烦请指出,我会及时去纠正。有其他需要可以私信我或者发我邮箱:zhilong666@foxmail.com
我的创作者纪念日
目录
最初的创作初心
在创作的过程中都有哪些收获
获得了多少粉丝的关注
获得了多少正向的反馈,如赞、评论、阅读量
认识和哪些志同道合的领域同行
你过去写得最好的一段代码是什么? 请用代码块贴出来
职业规划、创作规划
职业规划
创作规划
最初的创作初心
时间过得真快,一年转眼就过去了。翻看去年写的创作者纪念日文章,发现自己已经有了很多变化,变得更加成熟,眼界也有了一些提升。回顾之前,有很多感悟吧,却又难以言表,只能用一口叹息来表达。
回顾过去的一年,有一些惊喜,也有一些懊悔。惊喜的是我不知不觉中已经发布了79篇文章,并且在工作期间遇到了一些难题,翻看自己之前发布的解决方法,发现自己曾经遇到过相同的问题,并记录了下来。这让我省了很多麻烦,感叹自己当时的聪明才智,仿佛有一种未卜先知的能力,预知了未来会遇到的问题并记录下来,真是不费吹灰之力。有时候我会在解决问题后想到:“以前的自己真厉害,居然能预见到以后会遇到相同的麻烦,并记录下来给以后的自己看,有那么一瞬间脑子里突然就蹦出来一句话:真是 踏破铁鞋无觅处,得来全不费工夫 呐,哈哈哈。”这种感觉真的很奇妙。
然而,最近这段时间我却没有发布过文章了,很多解决问题的思路都没有记录下来,这让我感到懊悔。我意识到自己有些懒散,没有保持之前的记录习惯。回想起之前的自己能够如此勤奋地记录,我真的有些后悔。或许这是一种提醒,告诉我要重新拾起记录的习惯,不要让自己的懒惰阻碍了进步。
在过去的一年里,我有了很多收获和成长,也有了一些遗憾和反思。我希望在未来的日子里,能够更加努力地记录和分享,不断提升自己的能力,为自己的成长做出更大的努力。
当然了,我创作的初心呢,还是不变的,就是想帮助别人的同时可以做一个自己的笔记。嘿嘿~
在创作的过程中都有哪些收获
-
获得了多少粉丝的关注
去年创作日的时候,我记录了自己当时的粉丝量为992个,距离千个粉丝就差8个。
现在,我的粉丝量已经破千啦,达到了1469个,谢谢你们~
-
获得了多少正向的反馈,如赞、评论、阅读量
去年,我获得了198次点赞、185次评论、200次收藏、总阅读量40000+;
今年,我获得了425次点赞、297次评论、865次收藏、总阅读量170000+;真的没有想到今年比去年多了这么多人访问我的文章,谢谢各位,我会继续努力的!!!
-
认识和哪些志同道合的领域同行
在过去的一年里,我参加了多次人工智能开发者大会(AIGC),与许多技术大牛们面对面交流。他们的讲话和指导让我受益匪浅,学到了许多宝贵的技术知识和经验。这些交流经历不仅拓宽了我的视野,也激发了我对技术创新的热情。参加AIGC开发者大会是我成长道路上的重要一步,我会珍惜这些宝贵的学习机会,不断提升自己的技术水平,为未来的发展打下坚实的基础!!
你过去写得最好的一段代码是什么? 请用代码块贴出来
ResNet18 ,这个源码比较简单,其原理也容易理解,所以我就把他贴出来吧~
详细地址:ResNet18详细原理(含tensorflow版源码)
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers,datasets,models
def main():
(train_x,train_y),(test_x,test_y) = datasets.cifar10.load_data()
train_x = train_x.reshape([-1,32,32,3]) / 255.0
test_x = test_x.reshape([-1,32,32,3]) / 255.0
inputs = keras.Input((32,32,3))
output = ResNet18(inputs)
model = models.Model(inputs,output)
model.summary()
model.compile(loss = keras.losses.SparseCategoricalCrossentropy(),
optimizer=keras.optimizers.Adam(0.01),
metrics=['accuracy'])
model.fit(train_x,train_y,batch_size=128,epochs=10)
score = model.evaluate(test_x,test_y)
print("loss:",score[0])
print("acc:",score[1])
pass
def ConvCall(x,filtten,xx,yy,strides = (1,1)):
x = layers.Conv2D(filtten,(xx,yy),strides=strides,padding='same')(x)
x = layers.BatchNormalization()(x)
return x
def ResNetblock(input,filtten,strides = (1,1)):
x = ConvCall(input,filtten,3,3,strides=strides)
x = layers.Activation("relu")(x)
x = ConvCall(x,filtten,3,3,strides=(1,1))
if strides != (1,1):
residual = ConvCall(input,filtten,1,1,strides=strides)
else:
residual = input
x = x + residual
x = layers.Activation("relu")(x)
return x
def ResNet18(inputs):
x = ConvCall(inputs, 64, 3, 3, strides=(1, 1))
x = layers.Activation('relu')(x)
x = ResNetblock(x, 64, strides=(1, 1))
x = ResNetblock(x, 64, strides=(1, 1))
x = ResNetblock(x, 128, strides=(2, 2))
x = ResNetblock(x, 128, strides=(1, 1))
x = ResNetblock(x, 256, strides=(2, 2))
x = ResNetblock(x, 256, strides=(1, 1))
x = ResNetblock(x, 512, strides=(2, 2))
x = ResNetblock(x, 512, strides=(1, 1))
x = layers.GlobalAveragePooling2D()(x) # 全局平均池化
output = layers.Dense(10, "softmax")(x)
return output
if __name__ == '__main__':
main()
职业规划、创作规划
-
职业规划
在职业规划方面,我将继续努力加强自己的技术能力。作为算法工程师,行业竞争激烈,只有不断提升自己的技术水平,才能保持领先地位。因此,我会持续学习最新的技术趋势和算法,不断提升自己的能力,以应对快速变化的行业需求。
-
创作规划
作为业余爱好创作者,我的创作规划还是主要围绕着解决日常BUG、python和深度学习展开,总结就三点:
- 专注解决日常问题
- 持续学习Python技术并分享知识
- 深入学习深度学习,不断提升自我
我会继续努力加强技术能力,专注解决实际问题,通过这些努力,我还是希望能够不断提高自己的技术水平,成为更加优秀的业余爱好创作者,把技术变为生活的一部分,让自己在成长道路上更上一层楼。