页面树结构

2017-07-25 Apache Spark 2.2.0 官方文档中文版发布 : http://spark.apachecn.org/docs/cn/2.2.0/


MachineLearning 优酷地址 : http://i.youku.com/apachecn

转至元数据结尾
转至元数据起始

前言

目前的总进度:(非常感谢2位小伙伴的付出,最长的6篇文章干完快2篇)

总共页面: 23 页

基本上80%标题,只需要1天的时间就能翻译完。

唯独剩下 4 篇:

     Classification and regression(分类和回归)

     Classification and Regression - RDD-based API(分类和回归)

     Feature Extraction and Transformation - RDD-based API(特征的提取和转换)

     Evaluation Metrics - RDD-based API(评价指标)

 

重要的是过程,在这个过程中,我们可以学到东西,交到这样愿意 一起分享,一起学习,一起装逼,一起斗图 的朋友!~

 

账号注册

注册地址 : http://www.apache.wiki/signup.action

全名(昵称): 这里建议用自己的真实姓名。

邮件(推送邮件,通知等): 个人邮箱,例如 zhangsan@163.com

用户名(真实姓名拼音小写,比如,张三 --> zhangsan) : 用户名,登录用的,填写自己的真实姓名拼音小写,张三 --> zhangsan,不要缩写成 zs 。。。

密码 : 自己设置

注册完之后,私聊下 那伊抹微笑,将自己的账号按格式《中文姓名,拼音小写,邮箱》发给他,然后统计,分配相关权限等等。(例如 : 张三zhangsanzhangsan@163.com

 

Spark MLlib 使用熟练度

熟练度级别

  1. 0~50 : 刚开始学习ML相关知识。
  2. 50~60 : 研究一个或多个算法和代码。
  3. 60~70 : 能帮别人解决一般的问题,具备普通的查看文档能力。
  4. 70~80 : 熟悉各种算法,并且能快速学习和熟练操作Spark MLlib/SKLearn/tensorflow API 等等。
  5. 80~90 : 熟悉整个 机器学习 算法和优化,有项目实战经验,等等。
  6. 90~100 : 返璞归真,神功大成,已经忘掉一切 。。。

需要先统计大家的 MachineLearning 使用情况,然后再根据个人情况不同,来分配负责翻译的页面。

具体时间,至少也得 3周 时间吧,每个人不会超过  个页面。

 全名账号熟练度完成进度开始时间完成时间任务内容备注
1片刻jiangzhonglian70100%2017-04-172017-04-27校验和基础的Classification and regression决策树-评价指标-PMML模型导出:感兴趣
2雪峰zhaoxuefeng70100%2017-04-172017-05-02 Linear Methods:想学
3Sehriffsunerhan10100%2017-04-172017-04-19

1.3 Tree Ensambles

Gradient-Boosted Trees (GBTs)
4王宏wanghong60100%2017-04-172017-04-22

2.3.5

Isotonic regression

有python kmeans邮件分析,spark mllib kmeans 日志异常值聚类,sklearn svm libsvm 转换

调优经验.api熟练度低.使用过lda bayes 和nlp 有关的api.各种

算法看过不熟悉.

5pingshengping10100%2017-04-172017-04-272.7对ML都感兴趣,想着翻译2.6,2.7
6冷夜雨youyongjiang0100%2017-04-172017-05-02 感兴趣,想学习
7Le-Montanwen0.5100%2017-04-172017-05-02 知道一堆名字不知道干嘛的
8蒋强 (记忆的疲倦)jiangqiang50100%2017-04-172017-05-02 了解一些机器学习算法原理
9小瑶chenyao10100%2017-04-172017-05-02 菜宝宝,很想学,对2.3感兴趣
10channingzongchanningzong70100%2017-04-172017-05-02 学过机器学习算法,有对Spark MLlib decision tree和logistic regression的实践应用
11yangjifei yangjifei60100%2017-04-172017-04-19 

业务中使用过Logistic regression,了解聚类、协同过滤算法。

可以翻译2.3.5、2.4和2.5

12断了小尾巴qijie0100%2017-04-172017-05-02 听过几次培训,没好好研究过
13kagurachongaizhen20100%2017-04-172017-04-201.5、2.4Collaborative filtering不挑食,反正都要学
14羊三xuxin40100%2017-04-172017-05-02 对分类感兴趣
15程威chengwei50100%2017-04-172017-04-202.6 Dimensionality Reduction 降维/校验了ML Pipeline 

结果:  

提前一周完成任务

替大家谢谢自己坚持完成任务,也许后期看到你们翻译作品的人表示感谢

 

卧槽 。。。上面的表格怎么在后面插入内容啊 。。。步骤如下

1. 首先花个 5 分钟快速入门该 WIKI 的使用。 请看 : 2017-04-14 5分钟快速入门 WIKI 使用: http://www.apache.wiki/pages/viewpage.action?pageId=9405971

2. 点击表格。

3. 点击编辑器中的 `此后插入行`,如图 : 

4. 然后就新增一行了,如图 : 

5. 代码都写了,这么简单的操作应该没问题吧!~

6. 保存,最后记得点一下右下角的保存,并且加上自己的注释。例如 : 

7. 大功告成。

翻译计划

具体翻译计划,得统计完个人使用 Spark MLlib 的熟练度情况之后,再做分配。

翻译时间

怎么也得个 3周 时间吧!~ 看人数和大家的熟练度先。

一起学习,共同进步!~~~

 

  • 无标签