一、激活函数的作用
今天,我深入学习了激活函数在神经网络中的作用。激活函数为神经网络引入了非线性因素,使其能够学习和表示复杂的数据模式。
Sigmoid函数:将任意实数映射到0和1之间,常用于二分类问题的输出层。
<img src="sigmoid.png">
ReLU函数:对于负输入值为0,正输入值则为其本身,能够缓解梯度消失问题。
<img src="relu.png">
二、损失函数与优化器
损失函数用于衡量模型预测与真实标签之间的差距,常见的损失函数有均方误差、交叉熵等。
优化器则用于更新模型的参数,以最小化损失函数。常见的优化器有SGD、Adam等。
三、卷积神经网络(CNN)
CNN特别适用于处理图像数据。其核心结构包括卷积层、池化层和全连接层。
卷积层:通过卷积核提取图像的特征。
<img src="convolution.png">
池化层:减少数据的空间尺寸,增强模型的鲁棒性。
<img src="pooling.png">
四、实践:构建简单的CNN模型
今天,我使用TensorFlow框架构建了一个简单的CNN模型,对MNIST数据集进行图像分类。通过调整网络结构、优化器和学习率等参数,我逐渐提高了模型的准确率。
五、总结
深度学习的第二天,我对激活函数、损失函数、优化器以及CNN有了更深入的了解。通过实践,我也初步体验了构建和训练深度学习模型的过程。明天,我将继续深入学习更多的深度学习模型和技巧。