时时彩公众平台

设为首页加入收藏

联系我们
自定义标签 Contactus 未创建
数据不够大别玩深度学习?正反双方撕起来了
时间:2017-09-15 00:33:07   浏览次数:次   作者: Admin   

     
     


     欢迎关注“创事记”的微信订阅号:sinachuangshiji
     文/李林 问耕量子位:公众号 QbitAI
     争论,随时可能爆发。
     比方当你看到一篇名为《数据不够大,别玩深度学习》的博客时。
     作者Jeff Leek在这篇博客中指出,深度学习已经进入一定程度的狂热状态,人们正试图用这个技术解决每一个问题。但真正的挑战在于:“只有极少数情况下有足够的数据进行深度学习”,不是每家都有科技巨头的数据。
     深度学习与更简单的模型相比,优点在于有足够的数据来调整大量的参数,博主建议当数据集不是那么大的时候,应该采用一些更简单、更可解释的办法,而且不用担心过拟合等问题。
     为了证明自己的论点正确,Leek还举了一个基于MNIST进行图像识别的例子,分辨0或者1。他用的两个方法一个是逻辑回归,一个是深度神经网络。
     Leek把训练集大小分成10到80,每次增加5。重复5次以平均掉一些噪音。
     想要看具体案例的,请移步这里:-vs-leekasso/
     


     总之结论是:对于低训练样本来说,更简单的方法略胜于更复杂的方法。随着样本量的增加,复杂的方法的精度逐渐上升。
     博主想用这个简单的例子说明:
     样本量很重要。对于Google、亚马逊或者Facebook来说,有着接近无限的数据量,这种情况下应用深度学习是有意义的。但是如果只是中等规模的样本量,深度学习可能不会提升准确度,而且还失去了可解释性。
     传送门
     Jeff Leak的文章:
     -vs-leekasso/
     很快,就有用户在Reddit上吐槽。这些人认同文章的标题,但不认同作者的论据。他指出原文作者使用的方法,甚至称不上是真正的深度学习:这个领域过去十年的进展一个都没用上,而这些技术对小数据量来说非常重要。
     例如,dropout、数据增强等等。如果不使用数据增强,5层×160神经元的网络绝

(本文来源:图片动态)
上一篇:从资本博弈到广告战,看资本寒冬下ofo的商业逻辑
下一篇:为什么要千方百计地用图片占领朋友圈?
个旧市中楚亨通有限公司_时时彩公众平台
联系我们 图片动态 人才招聘 企业文化 荣誉证书 公司新闻 时时彩公众平台 企业简介
Copyright © 2015-2017个旧市中楚亨通有限公司_时时彩公众平台 All Rights Reserved.
时时彩公众平台 版权所有    备案:个旧市中楚亨通有限公司_时时彩公众平台