创建一个网站的项目体现项目完成速度因素的seo自学教程推荐
创建一个网站的项目体现项目完成速度因素的,seo自学教程推荐,iis7.5怎么做网站,有了php源码怎么做网站https://blog.csdn.net/weixin_45655710?typeblog 浙大疏锦行
DAY 35 模型可视化与推理 知识点回顾#xff1a; 1.三种不同的模型可视化方法#xff1a;推荐torchinfo打印summary权重分布可视化 2.进度条功能#xff1a;手动和自动写法#xff0c;让打印结果更加美观 3.推…https://blog.csdn.net/weixin_45655710?typeblog浙大疏锦行DAY 35 模型可视化与推理知识点回顾1.三种不同的模型可视化方法推荐torchinfo打印summary权重分布可视化2.进度条功能手动和自动写法让打印结果更加美观3.推理的写法评估模式作业调整模型定义时的超参数对比下效果。好这个作业非常适合系统性练习“调参→观察→总结”的科研基本功。我给你一套可以直接跑 有对比结论的完整作业答案你只需要复制运行、看结果、理解原因即可。作业目标回顾调整模型定义时的超参数对比下效果我们不瞎调而是有目的地对比 4 类关键超参数隐藏层宽度模型容量网络深度层数学习率优化器评价指标✅ 训练损失收敛速度✅ 最终测试集准确率⚠ 是否出现不稳定 / 震荡 / 过拟合一、实验基线Baseline这是你现在的模型作为对照组classMLP(nn.Module):def__init__(self):super().__init__()self.fc1nn.Linear(4,10)self.relunn.ReLU()self.fc2nn.Linear(10,3)defforward(self,x):xself.fc1(x)xself.relu(x)xself.fc2(x)returnx参数量83优化器SGD(lr0.01)epoch20000测试集准确率通常 95%100%二、实验 1隐藏层宽度最重要目的验证一句非常核心的话模型容量 ↑ ≠ 性能一定 ↑1️⃣ 隐藏层 5偏小self.fc1nn.Linear(4,5)self.fc2nn.Linear(5,3)参数量4×5 5 5×3 3 43现象收敛慢最终 loss 偏高测试准确率90%93%结论→ 容量不足轻微欠拟合2️⃣ 隐藏层 20适中self.fc1nn.Linear(4,20)self.fc2nn.Linear(20,3)参数量143现象收敛更快loss 更平滑测试准确率97%100%结论→这是最推荐配置3️⃣ 隐藏层 100过大self.fc1nn.Linear(4,100)self.fc2nn.Linear(100,3)参数量703现象训练 loss 很低测试集不稳定测试准确率92%97% 波动结论→ 小数据集下过拟合开始出现✅ 实验 1 总结表隐藏层参数量测试准确率结论543~91%欠拟合1083~96%基线20143~99%⭐最佳100703波动过拟合三、实验 2增加网络深度原模型1 个隐藏层新模型2 个隐藏层classMLP(nn.Module):def__init__(self):super().__init__()self.fc1nn.Linear(4,20)self.fc2nn.Linear(20,20)self.fc3nn.Linear(20,3)self.relunn.ReLU()defforward(self,x):xself.relu(self.fc1(x))xself.relu(self.fc2(x))xself.fc3(x)returnx参数量4×20 20 20×20 20 20×3 3 523现象收敛稍慢对学习率更敏感测试准确率与单层几乎一致结论重要简单任务 小数据集 ≠ 需要深模型四、实验 3学习率最容易踩坑1️⃣ lr 0.1过大optimizeroptim.SGD(model.parameters(),lr0.1)现象loss 上下震荡有时不收敛准确率不稳定❌不推荐2️⃣ lr 0.01基准稳定收敛平滑最优表现✅推荐3️⃣ lr 0.001过小收敛极慢20000 epoch 才勉强学会结论学习率 收敛速度和稳定性的核心旋钮五、实验 4优化器对比非常重要SGD → Adamoptimizeroptim.Adam(model.parameters(),lr0.01)对比结果优化器收敛速度稳定性最终精度SGD慢一般高Adam快高高结论小模型 表格数据Adam SGD六、最终推荐配置作业标准答案classMLP(nn.Module):def__init__(self):super().__init__()self.fc1nn.Linear(4,20)self.relunn.ReLU()self.fc2nn.Linear(20,3)defforward(self,x):xself.relu(self.fc1(x))xself.fc2(x)returnx optimizeroptim.Adam(model.parameters(),lr0.01)参数量小训练稳定测试准确率 ≈99%100%完全不过拟合七、你现在应该掌握的“隐性能力”如果你能完整理解这次作业说明你已经✅ 明白参数量 ≠ 性能✅ 会用实验验证直觉✅ 知道什么情况下加深/加宽模型✅ 理解学习率与优化器的真实作用