无法提供摘要。这是一篇受保护的文章。
登云门山 一 幽闲小院枕睡东 不觉床头见日红 今早同友来结伴 为观云门第一峰 二 路平弯弯盘旋走 劲松苍柏夹道迎 回看尘劳筋力尽 欢笑声中人争行 三 云门山中半登临 四周环石奇如神 红墙黄瓦龙兴寺 楼亭俱青姑庵身 四 阜财城楼高八丈 古街游览外国人 高楼大厦群一片 棋盘小路穿入林 五 兴奋一时到山巅 群山万壑汇百川 农村科技高效益 乡村旅游都不闲 六 东方花都大世界 谱写鲜花新诗篇 青州经济开发区 产品跨越高精尖 七 古城美景盛览过 青山绿水泻长河 惠民政策人间暖 精神振奋热心田 八 农村造成小城镇 城镇一体卷春波…
一 中午饭罢走正东 疾步飞奔驼山行 台阶步步走得快 来到山巅昊天宫 二 山尖建成大佛殿 苍松翠柏围其中 多种碑牌数十座 字迹模糊看不清 三 山顶建起新索道 人在摇摆半空中 男女高兴嘻嘻笑 犹如航天宇宙行 四 石窟佛像六三八 大小姿势各不同 乔宇写的“驼山”字 历经沧桑仍劲松 五 下山走进望佛亭 山体巨佛看得清 照林同观云门顶 大寿夕阳影衬虹 六 云驼二山风光美 公路大桥景色崔 青州人民有福气 休闲无事逛一回 2016.9.23
Decision tree被广泛应用于分类、回归任务中,树有着强大的拟合能力,只要一棵DT的层数够深,就能够no error拟合任何训练集,当然,如果这棵树的深度太深,那不可避难地带来overfitting的问题。训练集上的no error,在测试集上肯定直接凉凉。所以,如果以决策树为基本的预测模型,一棵深树拟合能力很强,从训练集上看是一个强分类器,但泛化性能很菜(bias小,方差大);一棵浅树必然拟合能力很弱鸡,是一个弱分类器(方差小,bias大)。如何取长补短、博采众长呢?那就是ensemble,木林森。 en…
上一篇关于batch normalization的文章我们写了BN的基本思想和做法。一言以蔽之,BN就是把输出在batch中做平均,数目为样本数;而LN是对一层layer中的输出做平均,数目为layer的节点数。 之所以要LN而非BN有三层原因。第一层是,当batch很小的时候,batch无法代表全局样本的分布,所以此时做平均就走偏了。第二层是,如果模型是一个动态的layer,比如RNN,那么有些数据可能有30个序列,有些数据有10个序列,那么在一个batch里,数据的序列数不同、layer数也不同,那么做batc…