书海阁 -机器学习实战
本书资料更新时间:2025-01-19 02:44:15

机器学习实战 下载 pdf 百度网盘 epub 免费 2025 电子书 mobi 在线

机器学习实战精美图片
》机器学习实战电子书籍版权问题 请点击这里查看《

机器学习实战书籍详细信息

  • ISBN:9787115317957
  • 作者:暂无作者
  • 出版社:暂无出版社
  • 出版时间:2013-6
  • 页数:332
  • 价格:69.00元
  • 纸张:暂无纸张
  • 装帧:暂无装帧
  • 开本:暂无开本
  • 语言:未知
  • 丛书:暂无丛书
  • TAG:暂无
  • 豆瓣评分:暂无豆瓣评分
  • 豆瓣短评:点击查看
  • 豆瓣讨论:点击查看
  • 豆瓣目录:点击查看
  • 读书笔记:点击查看
  • 原文摘录:点击查看
  • 更新时间:2025-01-19 02:44:15

内容简介:

机器学习是人工智能研究领域中一个极其重要的研究方向,在现今的大数据时代背景下,捕获数据并从中萃取有价值的信息或模式,成为各行业求生存、谋发展的决定性手段,这使得这一过去为分析师和数学家所专属的研究领域越来越为人们所瞩目。

本书第一部分主要介绍机器学习基础,以及如何利用算法进行分类,并逐步介绍了多种经典的监督学习算法,如k近邻算法、朴素贝叶斯算法、Logistic回归算法、支持向量机、AdaBoost集成方法、基于树的回归算法和分类回归树(CART)算法等。第三部分则重点介绍无监督学习及其一些主要算法:k均值聚类算法、Apriori算法、FP-Growth算法。第四部分介绍了机器学习算法的一些附属工具。

全书通过精心编排的实例,切入日常工作任务,摒弃学术化语言,利用高效的可复用Python代码来阐释如何处理统计数据,进行数据分析及可视化。通过各种实例,读者可从中学会机器学习的核心算法,并能将其运用于一些策略性任务中,如分类、预测、推荐。另外,还可用它们来实现一些更高级的功能,如汇总和简化等。


书籍目录:

目 录

第一部分 分类

第1章 机器学习基础  2

1.1  何谓机器学习  3

1.1.1  传感器和海量数据  4

1.1.2  机器学习非常重要  5

1.2  关键术语  5

1.3  机器学习的主要任务  7

1.4  如何选择合适的算法  8

1.5  开发机器学习应用程序的步骤  9

1.6  Python语言的优势  10

1.6.1  可执行伪代码  10

1.6.2  Python比较流行  10

1.6.3  Python语言的特色  11

1.6.4  Python语言的缺点  11

1.7  NumPy函数库基础  12

1.8  本章小结  13

第2章 k-近邻算法   15

2.1  k-近邻算法概述  15

2.1.1  准备:使用Python导入数据  17

2.1.2  从文本文件中解析数据  19

2.1.3  如何测试分类器  20

2.2  示例:使用k-近邻算法改进约会网站的配对效果  20

2.2.1  准备数据:从文本文件中解析数据  21

2.2.2  分析数据:使用Matplotlib创建散点图  23

2.2.3  准备数据:归一化数值  25

2.2.4  测试算法:作为完整程序验证分类器  26

2.2.5  使用算法:构建完整可用系统  27

2.3  示例:手写识别系统  28

2.3.1  准备数据:将图像转换为测试向量  29

2.3.2  测试算法:使用k-近邻算法识别手写数字  30

2.4  本章小结  31

第3章 决策树   32

3.1  决策树的构造  33

3.1.1  信息增益  35

3.1.2  划分数据集  37

3.1.3  递归构建决策树  39

3.2  在Python中使用Matplotlib注解绘制树形图  42

3.2.1  Matplotlib注解  43

3.2.2  构造注解树  44

3.3  测试和存储分类器  48

3.3.1  测试算法:使用决策树执行分类  49

3.3.2  使用算法:决策树的存储  50

3.4  示例:使用决策树预测隐形眼镜类型  50

3.5  本章小结  52

第4章 基于概率论的分类方法:朴素贝叶斯   53

4.1  基于贝叶斯决策理论的分类方法  53

4.2  条件概率  55

4.3  使用条件概率来分类  56

4.4  使用朴素贝叶斯进行文档分类  57

4.5  使用Python进行文本分类  58

4.5.1  准备数据:从文本中构建词向量  58

4.5.2  训练算法:从词向量计算概率  60

4.5.3  测试算法:根据现实情况修改分类器  62

4.5.4  准备数据:文档词袋模型  64

4.6  示例:使用朴素贝叶斯过滤垃圾邮件  64

4.6.1  准备数据:切分文本  65

4.6.2  测试算法:使用朴素贝叶斯进行交叉验证  66

4.7  示例:使用朴素贝叶斯分类器从个人广告中获取区域倾向  68

4.7.1  收集数据:导入RSS源  68

4.7.2  分析数据:显示地域相关的用词  71

4.8  本章小结  72

第5章 Logistic回归   73

5.1  基于Logistic回归和Sigmoid函数的分类  74

5.2  基于最优化方法的最佳回归系数确定  75

5.2.1  梯度上升法  75

5.2.2  训练算法:使用梯度上升找到最佳参数  77

5.2.3  分析数据:画出决策边界  79

5.2.4  训练算法:随机梯度上升  80

5.3  示例:从疝气病症预测病马的死亡率  85

5.3.1  准备数据:处理数据中的缺失值  85

5.3.2  测试算法:用Logistic回归进行分类  86

5.4  本章小结  88

第6章 支持向量机  89

6.1  基于最大间隔分隔数据  89

6.2  寻找最大间隔  91

6.2.1  分类器求解的优化问题  92

6.2.2  SVM应用的一般框架  93

6.3  SMO高效优化算法  94

6.3.1  Platt的SMO算法  94

6.3.2  应用简化版SMO算法处理小规模数据集  94

6.4  利用完整Platt SMO算法加速优化  99

6.5  在复杂数据上应用核函数  105

6.5.1  利用核函数将数据映射到高维空间  106

6.5.2  径向基核函数  106

6.5.3  在测试中使用核函数  108

6.6  示例:手写识别问题回顾  111

6.7  本章小结  113

第7章 利用AdaBoost元算法提高分类

性能   115

7.1  基于数据集多重抽样的分类器  115

7.1.1  bagging:基于数据随机重抽样的分类器构建方法  116

7.1.2  boosting  116

7.2  训练算法:基于错误提升分类器的性能  117

7.3  基于单层决策树构建弱分类器  118

7.4  完整AdaBoost算法的实现  122

7.5  测试算法:基于AdaBoost的分类  124

7.6  示例:在一个难数据集上应用AdaBoost  125

7.7  非均衡分类问题  127

7.7.1  其他分类性能度量指标:正确率、召回率及ROC曲线  128

7.7.2  基于代价函数的分类器决策控制  131

7.7.3  处理非均衡问题的数据抽样方法  132

7.8  本章小结  132

第二部分 利用回归预测数值型数据

第8章 预测数值型数据:回归   136

8.1  用线性回归找到最佳拟合直线  136

8.2  局部加权线性回归  141

8.3  示例:预测鲍鱼的年龄  145

8.4  缩减系数来“理解”数据  146

8.4.1  岭回归  146

8.4.2  lasso  148

8.4.3  前向逐步回归  149

8.5  权衡偏差与方差  152

8.6  示例:预测乐高玩具套装的价格  153

8.6.1  收集数据:使用Google购物的API  153

8.6.2  训练算法:建立模型  155

8.7  本章小结  158

第9章 树回归  159

9.1  复杂数据的局部性建模  159

9.2  连续和离散型特征的树的构建  160

9.3  将CART算法用于回归  163

9.3.1  构建树  163

9.3.2  运行代码  165

9.4  树剪枝  167

9.4.1  预剪枝  167

9.4.2  后剪枝  168

9.5  模型树  170

9.6  示例:树回归与标准回归的比较  173

9.7  使用Python的Tkinter库创建GUI  176

9.7.1  用Tkinter创建GUI  177

9.7.2  集成Matplotlib和Tkinter  179

9.8  本章小结  182

第三部分 无监督学习

第10章 利用K-均值聚类算法对未标注数据分组  184

10.1  K-均值聚类算法  185

10.2  使用后处理来提高聚类性能  189

10.3  二分K-均值算法  190

10.4  示例:对地图上的点进行聚类  193

10.4.1  Yahoo! PlaceFinder API  194

10.4.2  对地理坐标进行聚类  196

10.5  本章小结  198

第11章 使用Apriori算法进行关联分析  200

11.1  关联分析  201

11.2  Apriori原理  202

11.3  使用Apriori算法来发现频繁集  204

11.3.1  生成候选项集  204

11.3.2  组织完整的Apriori算法  207

11.4  从频繁项集中挖掘关联规则  209

11.5  示例:发现国会投票中的模式  212

11.5.1  收集数据:构建美国国会投票记录的事务数据集  213

11.5.2  测试算法:基于美国国会投票记录挖掘关联规则  219

11.6  示例:发现毒蘑菇的相似特征  220

11.7  本章小结  221

第12章 使用FP-growth算法来高效发现频繁项集  223

12.1  FP树:用于编码数据集的有效方式  224

12.2  构建FP树  225

12.2.1  创建FP树的数据结构  226

12.2.2  构建FP树  227

12.3  从一棵FP树中挖掘频繁项集  231

12.3.1  抽取条件模式基  231

12.3.2  创建条件FP树  232

12.4  示例:在Twitter源中发现一些共现词  235

12.5  示例:从新闻网站点击流中挖掘  238

12.6  本章小结  239

第四部分 其他工具

第13章 利用PCA来简化数据  242

13.1  降维技术  242

13.2  PCA  243

13.2.1  移动坐标轴  243

13.2.2  在NumPy中实现PCA  246

13.3  示例:利用PCA对半导体制造数据降维  248

13.4  本章小结  251

第14章 利用SVD简化数据  252

14.1  SVD的应用  252

14.1.1  隐性语义索引  253

14.1.2  推荐系统  253

14.2  矩阵分解  254

14.3  利用Python实现SVD  255

14.4  基于协同过滤的推荐引擎  257

14.4.1  相似度计算  257

14.4.2  基于物品的相似度还是基于用户的相似度?  260

14.4.3  推荐引擎的评价  260

14.5  示例:餐馆菜肴推荐引擎  260

14.5.1  推荐未尝过的菜肴  261

14.5.2  利用SVD提高推荐的效果  263

14.5.3  构建推荐引擎面临的挑战  265

14.6  基于SVD的图像压缩  266

14.7  本章小结  268

第15章 大数据与MapReduce  270

15.1  MapReduce:分布式计算的框架  271

15.2  Hadoop流  273

15.2.1  分布式计算均值和方差的mapper  273

15.2.2  分布式计算均值和方差的reducer  274

15.3  在Amazon网络服务上运行Hadoop程序  275

15.3.1  AWS上的可用服务  276

15.3.2  开启Amazon网络服务之旅  276

15.3.3  在EMR上运行Hadoop作业  278

15.4  MapReduce上的机器学习  282

15.5  在Python中使用mrjob来自动化MapReduce  283

15.5.1  mrjob与EMR的无缝集成  283

15.5.2  mrjob的一个MapReduce脚本剖析  284

15.6  示例:分布式SVM的Pegasos算法  286

15.6.1  Pegasos算法  287

15.6.2  训练算法:用mrjob实现MapReduce版本的SVM  288

15.7  你真的需要MapReduce吗?  292

15.8  本章小结  292

附录A  Python入门  294

附录B  线性代数  303

附录C  概率论复习  309

附录D  资源  312

索引  313

版权声明  316


作者介绍:

Peter Harrington

拥有电气工程学士和硕士学位,他曾经在美国加州和中国的英特尔公司工作7年。Peter拥有5项美国专利,在三种学术期刊上发表过文章。他现在是Zillabyte公司的首席科学家,在加入该公司之前,他曾担任2年的机器学习软件顾问。Peter在业余时间还参加编程竞赛和建造3D打印机。


出版社信息:

暂无出版社相关信息,正在全力查找中!


书籍摘录:

暂无相关书籍摘录,正在全力查找中!


在线阅读/听书/购买/PDF下载地址:

在线阅读地址:机器学习实战在线阅读

在线听书地址:机器学习实战在线收听

在线购买地址:机器学习实战在线购买


原文赏析:

Pros: High accuracy, insensitive to outliers, no assumptions about data

Cons: Computationally expensive, requires a lot of memory

Works with: Numeric values, nominal values

The first machine-learning algorithm we’ll look at is k-Nearest Neighbors (kNN). It

works like this: we have an existing set of example data, our training set. We have

labels for all of this data—we know what class each piece of the data should fall into.

When we’re given a new piece of data without a label, we compare that new piece of

data to the existing data, every piece of existing data. We then take the most similar

pieces of data (the nearest neighbors) and look at their labels. We look at the top k

most similar pieces of data from our known dataset; this is where the k comes from. (k

is an integer and it’s usua...


Pros: Computationally cheap to use, easy for humans to understand learned results,

missing values OK, can deal with irrelevant features

Cons: Prone to overfitting

Works with: Numeric values, nominal values


General approach to decision trees

1. Collect: Any method.

2. Prepare: This tree-building algorithm works only on nominal values, so any continuous values will need to be quantized.

3. Analyze: Any method. You should visually inspect the tree after it is built.

4. Train: Construct a tree data structure.

5. Test: Calculate the error rate with the learned tree.

6. Use: This can be used in any supervised learning task. Often, trees are used to

better understand the data.


Logistic regression

Pros: Computationally inexpensive, easy to implement, knowledge representation

easy to interpret

Cons: Prone to underfitting, may have low accuracy

Works with: Numeric values, nominal values


The clear syntax of Python has earned it the name executable pseudo-code.


With Python, you can program in any style you’re familiar with: object-oriented, procedural, functional, and so on.


其它内容:

书籍介绍

机器学习是人工智能研究领域中一个极其重要的研究方向,在现今的大数据时代背景下,捕获数据并从中萃取有价值的信息或模式,成为各行业求生存、谋发展的决定性手段,这使得这一过去为分析师和数学家所专属的研究领域越来越为人们所瞩目。

本书第一部分主要介绍机器学习基础,以及如何利用算法进行分类,并逐步介绍了多种经典的监督学习算法,如k近邻算法、朴素贝叶斯算法、Logistic回归算法、支持向量机、AdaBoost集成方法、基于树的回归算法和分类回归树(CART)算法等。第三部分则重点介绍无监督学习及其一些主要算法:k均值聚类算法、Apriori算法、FP-Growth算法。第四部分介绍了机器学习算法的一些附属工具。

全书通过精心编排的实例,切入日常工作任务,摒弃学术化语言,利用高效的可复用Python代码来阐释如何处理统计数据,进行数据分析及可视化。通过各种实例,读者可从中学会机器学习的核心算法,并能将其运用于一些策略性任务中,如分类、预测、推荐。另外,还可用它们来实现一些更高级的功能,如汇总和简化等。


书籍真实打分

  • 故事情节:6分

  • 人物塑造:5分

  • 主题深度:8分

  • 文字风格:7分

  • 语言运用:8分

  • 文笔流畅:8分

  • 思想传递:5分

  • 知识深度:3分

  • 知识广度:8分

  • 实用性:8分

  • 章节划分:9分

  • 结构布局:4分

  • 新颖与独特:7分

  • 情感共鸣:3分

  • 引人入胜:7分

  • 现实相关:8分

  • 沉浸感:3分

  • 事实准确性:8分

  • 文化贡献:7分


网站评分

  • 书籍多样性:4分

  • 书籍信息完全性:3分

  • 网站更新速度:9分

  • 使用便利性:3分

  • 书籍清晰度:4分

  • 书籍格式兼容性:8分

  • 是否包含广告:4分

  • 加载速度:9分

  • 安全性:5分

  • 稳定性:6分

  • 搜索功能:8分

  • 下载便捷性:5分


下载点评

  • 内涵好书(559+)
  • 收费(126+)
  • txt(327+)
  • 强烈推荐(441+)
  • 种类多(67+)
  • 赚了(249+)
  • 快捷(200+)
  • 下载快(617+)
  • 不亏(278+)
  • 内容齐全(402+)

下载评价

  • 网友 康***溪: ( 2025-01-01 22:49:02 )

    强烈推荐!!!

  • 网友 融***华: ( 2025-01-12 22:31:53 )

    下载速度还可以

  • 网友 曾***玉: ( 2024-12-29 16:25:15 )

    直接选择epub/azw3/mobi就可以了,然后导入微信读书,体验百分百!!!

  • 网友 索***宸: ( 2024-12-25 02:10:11 )

    书的质量很好。资源多

  • 网友 田***珊: ( 2025-01-08 03:54:51 )

    可以就是有些书搜不到

  • 网友 家***丝: ( 2024-12-21 23:16:38 )

    好6666666

  • 网友 辛***玮: ( 2025-01-08 06:48:25 )

    页面不错 整体风格喜欢

  • 网友 孙***夏: ( 2024-12-28 19:11:10 )

    中评,比上不足比下有余

  • 网友 养***秋: ( 2025-01-15 04:01:01 )

    我是新来的考古学家

  • 网友 通***蕊: ( 2025-01-11 06:02:43 )

    五颗星、五颗星,大赞还觉得不错!~~

  • 网友 菱***兰: ( 2024-12-26 16:49:50 )

    特好。有好多书

  • 网友 冯***丽: ( 2024-12-31 23:40:18 )

    卡的不行啊


随机推荐