ML,DL专业术语解释

神经网络构成

+ 输入层

+ 隐层

+ 输出层

+ 每一层由多个神经元组成

+ w 是权重,b 是偏置,h 是激活函数

层层递进,可以理解为朝着更具体的方向深入(比如:形状 -> 轮廓 -> 图像)

损失函数

设置不同的函数形式,反映神经网络的输出值与数据的真实值之间的差异。

常用损失函数:

+ 均方差损失函数

+ 交叉熵损失函数

活函数

在神经网络中,除了层内的线性函数转化,还需要在隐层的每个神经元设置对中间输出的一个非线性函数转化,进而引入非线性因素。这个非线性函数就是激活函数。

常用激活函数:

+ sigmoid

+ RELU

反向传播

根据神经网络正向传播计算损失函数,再通过链式求导,沿着相反方向计算每个权重的梯度,根据梯度来调整权重,使得在下一次正向传播能得到与真实值更接近的输出。

神经网络运行的整个过程就是正向传播与反向传播的迭代

泛化能力

对于一个训练好的模型,在遇到它从未见到过的数据时,可以准确作出预测的能力,就是泛化能力。

正则化

抑制过拟合现象的一系列方法

鲁棒性

具体指:在存在干扰,恶劣的条件下,依然能保持正常稳定的能力。

在深度学习中指:不考虑测试数据集,而看模型在真实数据集下的工作能力。

与过拟合联系紧密

数据集

深度学习中的数据集分类:

+ 训练集:训练模型参数

+ 验证集:确定一些神经网络超参数

+ 测试集:评估模型训练效果

交叉验证

将数据集分成多份,将每一份数据都作为测试集一次,剩下的多份作为训练集,进行多轮验证,取平均值作为最终结果,这个过程就是交叉验证。

分成 k 份,称作 k 折交叉验证。

评论