爱可可老师今日推荐

@爱可可-爱生活 出品 @好东西传送门 整理, 过刊见 http://me.memect.com/fly51fly

 

订阅: 发封邮件 hao@memect.com,标题是 " 订阅爱可可老师今日推荐 "

本期19条,由好东西传送门选自19条原始资源

本期的Web网址是 http://me.memect.com/fly51fly/2015-09-06.html

2015-09-06 星期日 (15)

爱可可-爱生活   网页版 2015-09-06 16:15
【(Python)基于Chainer的neural art实现Stylenet】GitHub:http://t.cn/Ryy7ubP 参阅:http://weibo.com/1402400261/Cy2C1wDdu

 

爱可可-爱生活   网页版 2015-09-06 09:36
《爱可可老师今日视野(15.09.06)》( 分享自 @简书http://t.cn/RyLnBJ8

 

爱可可-爱生活   网页版 2015-09-06 09:04
【幻灯:基于张量方法的词典学习】《Dictionary Learning Using Tensor Methods》by Anima Anandkumar http://t.cn/RyLESPy 云:http://t.cn/RyLESPL 参阅:http://weibo.com/1402400261/Cmtc9zaf6

 

爱可可-爱生活   网页版 2015-09-06 08:34
【硕士论文: word2vec+CNN做面向QA的句子多标签分类】《Convolutional Neural Network for Sentence Classification》Yahui Chen, University of Waterloo (2015) http://t.cn/RyLRX0p

 

爱可可-爱生活   网页版 2015-09-06 07:15
【免费书:贝叶斯推理与机器学习】《Bayesian Reasoning and Machine Learning》David Barber (2012) http://t.cn/zOBvgXr Download:http://t.cn/R2hBK2a 云:http://t.cn/RyLQJ4r

 

爱可可-爱生活   网页版 2015-09-06 07:08
【免费书+视频+幻灯:信息论、推理与学习算法】《Information Theory, Inference, and Learning Algorithms》David J.C. MacKay (2005) http://t.cn/zlvK8rz Download:http://t.cn/z0kRSxl Video:http://t.cn/zjwsXfj Slide:http://t.cn/RyLQbRe

 

爱可可-爱生活   网页版 2015-09-06 07:00
@tornadomeet 的深度学习笔记】http://t.cn/zQXJsYF

 

爱可可-爱生活   网页版 2015-09-06 06:57
【CSDN博客:zouxy09的深度学习及论文笔记】http://t.cn/zH4FsBk

 

爱可可-爱生活   网页版 2015-09-06 06:53
【Flickr背后的深度学习实时处理框架】《The Yahoo Behind Fresh Deep Learning Approaches At Flickr》http://t.cn/RyLHFLc Github(Simplified Lambda Example):http://t.cn/RyLHFLf

 

爱可可-爱生活   网页版 2015-09-06 06:47
【(深度学习回归标志性论文)用神经网络实现数据降维】《Reducing the Dimensionality of Data with Neural Networks》G. E. Hinton, R. R. Salakhutdinov (2006) http://t.cn/zYg4phh 中文笔记:http://t.cn/RyLH1Sz

 

爱可可-爱生活   网页版 2015-09-06 06:34
【论文:密度驱动的依存解析器跨语言迁移】《Density-Driven Cross-Lingual Transfer of Dependency Parsers》MS Rasooli, M Collins (EMNLP2015) http://t.cn/RyLHTLZ

 

爱可可-爱生活   网页版 2015-09-06 06:21
【关于链式法则、计算图和反向传播】《On chain rule, computational graphs, and backpropagation...Another post on backpropagation?》by outlace http://t.cn/RyLHoOm 参阅http://weibo.com/1402400261/CyuW2nXso

 

爱可可-爱生活   网页版 2015-09-06 06:12
【(R)马尔可夫链实例解析】《Markov Chains in R》http://t.cn/RyLHxA8

 

爱可可-爱生活   网页版 2015-09-06 06:10
【论文:面向数据分析的隐含变量模型综述】《Build, Compute, Critique, Repeat: Data Analysis with Latent Variable Models》David M. Blei (2014) http://t.cn/8sioYUB

 

爱可可-爱生活   网页版 2015-09-06 06:00
【重点推荐的20个数据科学相关课程】《Top 20 Data Science MOOCs》by Devendradesale http://t.cn/RyLHbpO

 

TA点评的更早的微博 (4)

爱可可-爱生活   网页版 2015-08-29 06:39
【论文+代码(g++):(FaceBook)基于Stack RNN的(生成)算法模式推断】《Inferring Algorithmic Patterns with Stack-Augmented Recurrent Nets》A Joulin, T Mikolov (2015) http://t.cn/Rwni8Ye GitHub:http://t.cn/Ry768IG
爱可可-爱生活 网页版 转发于2015-09-06 08:07
介绍博客:http://t.cn/RyLOYsJ Reddit讨论:http://t.cn/RyL8YOs

 

爱可可-爱生活   网页版 2015-08-25 06:25
【(R)Kaggle's Titanic竞赛数据预测实战系列】《Predicting Titanic deaths on Kaggle》by Wingfeet Part1:http://t.cn/RLsk87n Part2.gbm:http://t.cn/RLsk82M Part3.Bagging:http://t.cn/RLsk8tR Part4.random forest revisited:http://t.cn/RLsk8xJ
爱可可-爱生活 网页版 转发于2015-09-06 17:09
Part5.Ranger:http://t.cn/RyywZsY

 

闫安Jon   网页版 2015-08-21 08:58
[1508.04826] Dither is Better than Dropout for Regularising Deep Neural Networks http://t.cn/RLDgsj4 用256个样本训练 MNIST 并在10000个样本上测试,dither 的效果要好于50% dropout。这里 dither 的意思就是在输入的图像上增加一个均匀分布且均值为0的噪声。
爱可可-爱生活 网页版 转发于2015-09-06 08:08  回复 @爱可可-爱生活 “"Dither is Better than Dropout for Regularising Deep Neural Networks"”
Reddit讨论:http://t.cn/RyL8Hol

 

爱可可-爱生活   网页版 2015-03-13 06:46
[速查] 《Probability Cheatsheet - The Only Probability Cheatsheet You'll Ever Need》http://t.cn/Rwgh3DZ 新出的概率速查表,太方便了!居家旅行必备! 云:http://t.cn/RwgheNa
爱可可-爱生活 网页版 转发于2015-09-06 09:20
最新升级,增加了更多图例及说明材料 http://t.cn/RyLnGrm