深度学习的数学-卷积神经网络的误差反向传播 本篇博客主要记录反向传播法在卷积神经网络中的应用,如何像全连接的隐藏层那样,通过输出层的神经单元误差反向推算出所有层的神经单元误差,最终得到梯度。 2020年3月12日 at 下午6:38 Jie read more
深度学习的数学-卷积神经网络的结构和变量关系 主要介绍了过滤器、卷积层和池化层中间的关系和工作原理,以及在卷积神经网络中各个层的变量参数定义,以及各个层之间的数学关系,最后得到了代价函数。 2020年3月11日 at 上午11:20 Jie read more
深度学习的数学-神经单元误差和反向传播 本篇博客主要讲神经单元误差的定义及其含义,以及比较重要的误差反向传播法,也就是大名鼎鼎的BP算法 2020年3月9日 at 上午11:49 Jie read more
STEP和IGES模型转换为适用Web的glb格式 博主最近一直在调研web3d格式转换和优化相关的东西,国内资料比较少,很多信息甚至只能从 GitHub 的 issue 里边才能窥知一二,特写下此篇博客,希望能让有此需求的伙伴们少走一些弯路。 2020年3月8日 at 上午1:14 Jie read more
算法基础-散列表的原理及基础操作 本篇介绍了Hash表的数据结构基础,以及两种解决Hash冲突的策略,以及对应策略的读取、写入、扩容操作的底层操作 2020年3月3日 at 下午11:03 Jie read more
深度学习的数学-神经网络关系式、代价函数最优化 本篇主要记录神经网络的参数表示法,每个层每个神经单元的关系式,正解和代价函数,以及代价函数最小化、参数和训练数据规模等 2020年3月3日 at 下午6:03 Jie read more
深度学习的数学-梯度下降 主要介绍了什么是梯度,如何通过让一个函数通过每一点的梯度向量和学习率η趋近于极值,还通过二变量下的梯度下降法推广到适用于神经网络的多变量下的梯度下降法 2020年3月1日 at 下午1:18 Jie read more