返回第267章 数据增广和集成学习(2 / 2)一碗酸梅汤首页

关灯 护眼     字体:

上一页 目录 下一章

但在逆向和黑客技术上,他距离真正的顶级高手,还有不小的差距。

所以,江寒就决定抓紧时间,尽快补上这一课。

学习之余,当然有了闲暇,就远程登录一下服务器,关注一下神经网络的训练况。

13清晨,第二批114个模型,全部训练完成。

江寒又去了一次车库,翻阅了一下训练记录,并对这114个神经网络模型,加载验证集进行测试。

“优胜者”的那100个分,表现都很不错,其中成绩最好的一个,在训练集和验证集上的准确率,都超过了%。

说实话,如果不经过特别的训练,一般的人类在这个项目上的表现,差不多也就这样了。

毕竟KAGGLE提供的这些数据里,有一些笔迹实在太潦草了。

比如,有好几个图片,江寒怎么看怎么像7,标签上却硬说是1,这怎么破?

此外,江寒还有一个令人欣喜的发现。

使用了扩充数据集,并进行了更高强度的训练之后,“书呆子”在训练集上,成绩再次提高了少许,识别准确率达到了惊人的.%;

而且在验证集上的表现,也有了较大幅度的提高,达到了5%的及格线。

“黑马中等生”和原本排名415的“普通学生”,这次也有了长足的进步,成绩不比原本的“优胜者”差到哪里去。

所以说,要想提高神经网络的能,扩充数据规模才是第一秘诀。

不管是人工收集更多数据,还是用数据增广的办法来伪造数据……

接下来就简单了,只要从“优胜者”的100个分里,挑选出最强的一个,强化训练一番,再稍微打磨一下,就可以提交上去了。

接近%的识别正确率,说高不高,说低不低。

去年在i举办的世界机器学习大师赛中,冠军是KNN算法的一个变种。

别看那种算法极其简单,一点也不智能,但作者通过巧妙的构思,赫然将识别失误率压缩到了惊人的0.63%!

但那是顶级大能们的竞技场,这次KAGGLE举办的,只是一场业余级别的比赛,参与的大多是民间好者。

所以自己手里的这个“最终优胜者”,多了不敢说,前三还是比较稳的。

至于想要夺得冠军,那就需要拼一点运气了,除非能进一步提高在陌生数据上的准确率。

毕竟真正的测试集,谁也没见过,会变态到什么程度,谁也没法预估。

江寒反复分析、测试着已经训练好的几个模型。

第二轮的“唯一优胜者”,以及进化后的“书呆子”、“中等生”……

忽然,他又有了一个巧妙的发现。

对于那些容易误测的图片,优胜者、书呆子、中等生……它们的判断往往不尽相同。

同样一个图片,比如数字“5”,由于书写不规范,导致极难识别。

有点像6,又有点像s,甚至就算将其当成0,也不会多么违和。

这种无法妥善处理的数据,一般的做法是当做“噪声”,在训练时加以排除。

免得对网络的训练产生干扰,让网络学到错误的“知识”,导致“越学越懵”。

江寒在分析这类疑难图片时,却忽然有了一个奇妙的发现。

对于这样的图片,优胜者偶尔也会识别错误,但神奇的是,书呆子偶尔却可以识别正确。

有些图片书呆子和优胜者都不认识,中等生或者普通学生,反而往往有独到的见解……

然后,这些结构不同的神经网络,它们识别错误的那部分图片,很少出现交集。

也就是说,这些疑难图片之中,绝大多数都会被部分“学生”正确识别。

这就很有趣了。

如果能把这十几个神经网络的识别能力结合到一起,岂不是可以进一步提高准确率?

江寒经过仔细思考、认真分析,最后做出了一个大胆的决定。

那就是:集成学习。

重生学神有系统

『加入书签,方便阅读』

上一页 目录 下一章