diff --git a/Lab2/前馈神经网络实验.ipynb b/Lab2/前馈神经网络实验.ipynb index 6ce1ac9..a2eae9b 100644 --- a/Lab2/前馈神经网络实验.ipynb +++ b/Lab2/前馈神经网络实验.ipynb @@ -1740,6 +1740,19 @@ "\n", "在用时上,由于模型较小,数据集也较小,用时基本没有差别。" ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "# 心得体会\r\n", + "\r\n", + "在本次实验中,我手动实现了基础的神经网络模块,包括全连接层、激活函数、损失函数等。这加深了我对神经网络内部工作原理的理解。通过手动实现的过程,让我更清楚神经网络的各个组成部分是如何协同工作的。\r\n", + "\r\n", + "我比较不同激活函数和网络结构对模型性能的影响。通过实验发现`sigmoid`函数容易导致梯度消失,而`ReLU`和`Leaky ReLU`等激活函数表现较好。隐藏层的层数和神经元个数也会影响最终的准确率。这让我明白了选择合适的激活函数和网络结构对获得良好性能至关重要。\r\n", + "\r\n", + "通过系统地调参、训练不同的模型,记录并对比它们的损失曲线和准确率曲线,我也更深入地理解了不同模型设置的优劣。当然本次实验使用的模型还是非常基础的模型,我非常期待在后面的实验中使用复杂的模型,提升我对深度学习的认识。" + ] } ], "metadata": {