爱可可老师今日推荐

@爱可可-爱生活 出品 @好东西传送门 整理, 过刊见 http://me.memect.com/fly51fly

 

订阅: 发封邮件 hao@memect.com,标题是 " 订阅爱可可老师今日推荐 "

本期22条,由好东西传送门选自22条原始资源

本期的Web网址是 http://me.memect.com/fly51fly/2015-08-26.html

2015-08-26 星期三 (20)

爱可可-爱生活   网页版 2015-08-26 14:42
【大规模决策森林实例分析】《Large Scale Decision Forests: Lessons Learned》 by Alex Paino http://t.cn/RyPZCvJ

 

爱可可-爱生活   网页版 2015-08-26 14:40
【深度学习硬件前景展望】《A Glimpse Into The Future Of Deep Learning Hardware》by Nicole Hemsoth http://t.cn/RyPZXug

 

爱可可-爱生活   网页版 2015-08-26 14:37
【开源:基于MNIST数据集的PCA/NN/GBM/XGB/KNN/SVM/VW机器学习方法比较】"Comparison of Analytical Techniques for the MNIST handwritten digits" GitHub:http://t.cn/RyPZfd3 doc:http://t.cn/RyPZfd1

 

爱可可-爱生活   网页版 2015-08-26 14:27
【Netflix/Spotify/Facebook自动推荐体验点评】《Do Netflix, Spotify and Facebook know me as well as they think?》by Alexis Petridis, Jess Cartner-Morley, Stuart Heritage, Archie Bland http://t.cn/RyPzgtN

 

爱可可-爱生活   网页版 2015-08-26 14:22
【R数据结构教程】《A Tutorial on Data Structures in R》by Carlo Fanara http://t.cn/RyPzTuB

 

爱可可-爱生活   网页版 2015-08-26 14:20
【幻灯:用张量方法训练神经网络】《Beating the Perils of Non-Convexity: Training Neural Networks using Tensor Methods》by Anima Anandkumar http://t.cn/RyPz0Lc

 

爱可可-爱生活   网页版 2015-08-26 14:17
【论文:快速并行随机梯度下降】《Fast Asynchronous Parallel Stochastic Gradient Decent》SY Zhao, WJ Li (2015) http://t.cn/RyPzoqq

 

爱可可-爱生活   网页版 2015-08-26 14:11
【如何选择机器学习算法(Microsoft Azure启示录)】《Choosing Machine Learning Algorithms: Lessons from Microsoft Azure》by Jason Brownlee http://t.cn/RyP7DJF

 

爱可可-爱生活   网页版 2015-08-26 14:07
【(Indico)基于t-SNE的可视化】《Visualizing with t-SNE》http://t.cn/RyP7Rfl

 

爱可可-爱生活   网页版 2015-08-26 13:40
【判断是否需要雇用数据科学家的五个问题】《You Don’t Need A Data Scientist (Yet)》http://t.cn/RyPhWOK

 

霍泰稳   网页版 2015-08-26 10:06
有没有哪些搞技术、搞技术社区的同学想做技术布道师/技术主编/内容产品经理的?工作地点不限北京,你在拉萨也行,边登雪山边策划选题;在东京也行,边喝清酒边和专家沟通;其实火星也行,边钻木取火边写文章……@InfoQ 和极客邦科技需要你的加入和帮助!
爱可可-爱生活 网页版 转发于2015-08-26 11:20
不错呦

 

刘康_自动化所   网页版 2015-08-26 09:14
CCIR2015青年学者论坛的Slides《How to generate a good word embedding》:http://t.cn/Ryv1dNX
爱可可-爱生活 网页版 转发于2015-08-26 11:25
“How to generate a good word embedding”

 

爱可可-爱生活   网页版 2015-08-26 07:42
《爱可可老师今日视野(15.08.26)》 ( 分享自 @简书http://t.cn/RyvmXsJ

 

爱可可-爱生活   网页版 2015-08-26 07:40
【开源:Caffe的重构版本Caffe2】GitHub:http://t.cn/RLnjOKb Slide:http://t.cn/RyvmJJo

 

爱可可-爱生活   网页版 2015-08-26 07:37
【开源:Computation Graph Toolkit(CGT)】"CGT replicates Theano’s API, but it has very short compilation time and supports multithreading" http://t.cn/RyvmcoX GitHub:http://t.cn/Ryvmcoa doc:http://t.cn/Ryvmco6
爱可可-爱生活 网页版 转发于2015-08-26 08:01
备受瞩目的深度学习新框架

 

爱可可-爱生活   网页版 2015-08-26 07:34
【视频:(Geoffrey Hinton)深度学习应用】《Geoffrey Hinton: "Some Applications of Deep Learning"(Graduate Summer School 2012)》http://t.cn/RyvmGYk 云:http://t.cn/RyvmGYF

 

爱可可-爱生活   网页版 2015-08-26 07:28
【IPN:numpy/scipy/IPython教程】"Python for Scientific Computing" http://t.cn/Ryvm7lR

 

爱可可-爱生活   网页版 2015-08-26 07:20
发表文章《今日学术视野(2015.8.26)》 http://t.cn/RyvnmZS

 

爱可可-爱生活   网页版 2015-08-26 07:00
【(R)用于时序分析的自回归滑动平均ARMA(P, Q)模型】《Autoregressive Moving Average ARMA(P, Q) Models For Time Series Analysis》by Michael Halls-Moore Part1:http://t.cn/RyvntPe Part2:http://t.cn/RyvntPg

 

爱可可-爱生活   网页版 2015-08-26 06:49
【论文+代码:基于层次图的高效视频分割】《Efficient Hierarchical Graph-Based Video Segmentation》M Grundmann, V Kwatra, M Han, I Essa (CVPR 2010) http://t.cn/RyvnZlU page:http://t.cn/RyvnZlb code(C++):http://t.cn/RPPF1ME

 

TA点评的更早的微博 (2)

爱可可-爱生活   网页版 2015-08-10 20:21
【论文+代码(Theano):用Hessian-free方法训练深度网络】《Deep Learning via Hessian-free Optimization》J Martens (ICML2010) http://t.cn/RLnC8lb GitHub:http://t.cn/RLnC8lG GitXiv:http://t.cn/RLnC8l4 相关中文博文:http://t.cn/zQrY2IG
爱可可-爱生活 网页版 转发于2015-08-26 15:15
另一篇《Learning Recurrent Neural Networks with Hessian-Free Optimization》(ICML2011) http://t.cn/RyPwF5L code(Theano):http://t.cn/RyPwF52

 

爱可可-爱生活   网页版 2015-07-02 06:24
【论文:基于在线学习自适应采样的加速随机梯度下降(AW-SGD)】《Accelerating Stochastic Gradient Descent via Online Learning to Sample》G Bouchard, T Trouillon, J Perez, A Gaidon (2015) http://t.cn/RLhdtdt
爱可可-爱生活 网页版 转发于2015-08-26 14:47
《Notes on Accelerating Stochastic Gradient Descent via Online Learning to Sample 》http://t.cn/RyPZRG2