Anaconda安装(Win10)
Anaconda安装1.下载安装包,直接国内镜像资源,这里下载的是 Anaconda3-2022.10-Windows-x86_64.exe 版本 https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/ 2.安装好之后配置环境变量—系统变量中的path,Anaconda是安装在E:\Anaconda3文件下的 分别添加以下三个变量E:\Anaconda3E:\Anaconda3\ScriptsE:\Anaconda3\Library\bin 3.在base环境下添加一个虚拟环境 打开 Anaconda Prompt(Anaconda3)这个命令框列出当前所有的环境1conda env list 创建一个虚拟环境,并指定python版本,这里新建的虚拟环境默认是会保存在Anaconda/envs/ 路径下1conda create -n env_name python=3.9 如果不是保存在Anaconda/envs/下,就要手动指定位置了1>conda create ...
DL之路---啃鱼书(6)
卷积神经网络 卷积神经网络(Convolutional Neural Network,CNN),用于图像识别、语音识别等场景 相邻层的所有神经元之间都有连接,称之为全连接,使用Affine层实现全连接层下面是一个5层的全连接神经网络 可以看到,每个Affine层后面跟着激活函数层而基于CNN的神经网络结构如下 可以看到,CNN的层的连接顺序是 $Convolution - ReLU-Pooling$ ,Pooling层有时会被省略,另外,靠近输出的层中使用了之前使用了 “Affine-ReLU”组合卷积层 回顾Affine层: 在全连接层中,相邻层的神经元全部连接在一起,输出的数量可以任意决定它存在的一个问题是,忽视了输入数据的形状,如输入数据是图像(高、长、通道方向上的3维形状)时,输入到Affine层会将3维数据拉成1维的,无法利用与形状相关的信息 而卷积层Conv可以保持形状不变,当输入数据是图像时,卷积层会以3维数据的形式接收输入数据,并同样以3维数据的形式输出至下一层在CNN中,有时将卷积层Conv的输入输出数据称为特征图(feature...
DL杂谈
神经网络杂谈什么是神经网络 神经网络跟函数一样,有输入、输出,本质上也是一种映射关系,当给出一个函数表达式和一些数据,如 $y = kx + b$ ,给出了一些点或者说数据 (1,2)、(2,4)、(3,6)、(4,8),这几组数据可以轻易的求出k和b的值来但当给出的数据很多时,求解k和b这两个参数的问题就会变得复杂,至少是不能一眼看出某种规律。另外,函数表达式越复杂,在数据量越多的情况下,更能找出与之尽可能拟合的函数,因为数据量越大,其某种规律就可能会越明显,求得的参数就会越接近真实值(精确解)函数表达式越复杂,其对应的表达能力会更强,如 $y = ax^2 + bx + c$ ,显然,它涵盖了 $y = bx + c,a=0$求出函数表达式中的参数,也就完成了神经网络的搭建,通过训练来求参数 怎么求参数 直接求出参数的值是不太现实的,因为但表达式足够复杂,参数足够多,参数的求解是极为复杂的但通过求数值解,使这个解尽可能的逼近真实值,当两者的误差达到了所能接受的范围,就把这个数值解近似的作为真实值,如 $y=kx$...
DL之路---啃鱼书(5)
与学习相关的技巧参数的更新 神经网络的学习的目的是找到使损失函数的值尽可能小的参数,这是寻找最优参数的问题,解决这个问题的过程称为最优化(optimization)SGD(随机梯度下降法) SGD的缺点,如果函数的形状非均向(anisotropic),比如呈延伸状,搜索的路径就会非常低效,低效的根本原因是,梯度的方向并没有指向最小值的方向,如下图 这会导致它的效率很低,基于SGD的最优化的更新路径如下图 可以看到,它是Z字型的移动 Momentum(带动量的随机梯度下降法) 它是动量的意思,和物理有关,数学表达式如下$$v \leftarrow \alpha \cdot v - \eta \cdot \frac {\partial L} {\partial W} \W \leftarrow W + v$$ W同样还是表示要更新的权重参数,$\frac{\partial L}{\partial W}$ 表示损失函数关于W的梯度,$\eta$ 是学习率,而 $v$ 是物理上的速度第一个式子表示,物体在梯度方向上受力,在这个力的作用下,物体的速度增加这一物理法则,$\alpha v$...
DL之路---啃鱼书(4)
误差反向传播法1.计算图 无论全局是多么复杂的计算,都可以通过局部计算使各个节点致力于简单的计算,从而简化问题另外,利用计算图可以将中间的计算结果全部保存起来其最大的优势在于,可以通过反向传播高效计算导数反向传播传递的是局部导数下面是,支付金额关于苹果的的价格的导数 就是总的金额,220/220 = 1,220/200 =...
DL之路---啃鱼书(3)
神经网络的学习从数据中学习 所谓的学习就是从训练数据中自动获取最优权重参数的过程为了使神经网络能够学习,引入了损失函数这一指标,而学习的目标就是以损失函数为基准,找出使它的值达到最小的权重参数(函数斜率的梯度法)特征量:是指可以从输入数据(输入图像)中准确地提取出本质数据(重要数据)的转换器(图像的特征量通常表示为向量形式),但特征量的选取是人为选择的,还是存在人为因素的介入深度学习也被称为端到端机器学习(end-to-end machine...