失效链接处理 |
Python机器学习核心法~程实例 丁伟?PDF 下蝲
下蝲地址Q?/strong>
版权归出版社和原作者所有,链接已删除,误买正?br style="padding: 0px; margin: 0px;" />
用户下蝲说明Q?/strong>
?sh)子版仅供预览,下蝲?4时内务必删除,支持正版Q喜Ƣ的误买正版书c:
https://product.dangdang.com/28520543.html
相关截图Q?br /> ![]() 资料介: 在大数据时代背景下,机器学习是h工智能研I域中一个极光要的方向Q本书是一本机器学习方面的入门ȝQ注重理Z实践相结合,书中以Python 3.6.5为编写^収ͼ共分13章,主要包括机器学习l论、线性模型、树回归、K-means聚类法、朴素贝叶斯、数据降l、支持向量机、随机森林、h工神l网l、协同过滤算法、基于矩阵分解的推荐法、集成学习、数据预处理{内宏V通过本书的学习,除读者轻松掌握Python外,q能利用Python单、快捷地解决各种机器学习问题。本书适合Python初学者,也适合研究Python的广大科研h员、学者、工E技术h员?/span> 资料目录Q?br /> W?章 机器学习l论 1 1.1 机器学习的定?1 1.1.1 l论 1 1.1.2 机器学习发展历程 2 1.1.3 机器学习法的分c?3 1.2 学习法 4 1.2.1 监督学习 4 1.2.2 无监督学?5 1.3 机器学习应用E序的步?6 1.4 Python语言 7 1.4.1 Python的风?7 1.4.2 Python的优?7 1.4.3 Python语言的缺?8 1.5 Python的环境搭?9 1.5.1 安装 10 1.5.2 使用pip安装W三方库 13 1.6 NumPy函数库基 14 1.7 Python的基知识 16 1.7.1 数和表达?16 1.7.2 Python的标识符 18 1.7.3 Python的保留字W?19 1.7.4 行和~进 19 1.7.5 多行语句 20 1.7.6 Python引号 20 1.7.7 PythonI 20 1.7.8 同一行显C多条语?20 1.7.9 Print输出 21 W?章 U性模?22 2.1 一般线性回?23 2.1.1 U性回归公式表C法 23 2.1.2 U性回归的Python实现 25 2.2 局部加权线性回?27 2.3 q义U性模?30 2.4 逻辑回归分析 36 2.5 牛顿?40 2.5.1 基本牛顿法的原理 40 2.5.2 基本牛顿法的程 40 2.5.3 全局牛顿?40 2.5.4 Armijo搜烦 42 2.5.5 全局牛顿法求解线性回归模?42 2.6 ~减?43 2.6.1 岭回?44 2.6.2 lasso回归 46 2.7 利用U性回归进行预?47 2.7.1 训练U性回归模?47 2.7.2 Ҏ(gu)数据的预?49 W?章 树回?51 3.1 构徏决策树的准备工作 52 3.1.1 特征选择 52 3.1.2 决策树的生成和修?60 3.2 Matplotlib注释l制树Ş?60 3.3 使用决策树执行分c?67 3.4 决策树的存储 71 3.5 Sklearn使用决策树预隐形眼镜类?73 3.5.1 实战背景 73 3.5.2 使用Sklearn构徏决策?73 3.6 复杂数据的局部性徏?80 3.7 q箋型和L型特征的树构?81 3.8 分类回归?82 3.8.1 构徏?83 3.8.2 剪枝 85 3.8.3 模型?87 3.8.4 分类回归的Python实现 88 W??K-means聚类法 92 4.1 K-means聚类法的概q?92 4.2 怼性的度量 93 4.2.1 闵可夫斯?93 4.2.2 曼哈距?93 4.2.3 Ƨ氏距离 93 4.3 K-means聚类法的原?94 4.3.1 K-means聚类法的步?94 4.3.2 K-means法与矩阵分?95 4.3.3 K-means聚类法的实?96 4.4 K-q邻法 104 4.5 各种聚类法 107 4.5.1 划分聚类?107 4.5.2 层次聚类?108 4.5.3 密度聚类?111 4.5.4 pcL 116 4.5.5 Birch聚类 119 4.5.6 混合高斯模型 121 4.6 K-means 法 122 4.6.1 K-means法存在的问?122 4.6.2 K-means 法的思\ 123 W?章 朴素贝叶?127 5.1 朴素贝叶斯理?127 5.1.1 贝叶斯决{理?127 5.1.2 条g概率 128 5.1.3 全概率公?128 5.1.4 贝叶斯推?129 5.1.5 朴素贝叶斯推?130 5.2 朴素贝叶斯算?131 5.3 朴素贝叶斯算法的优缺?140 W?章 数据降维 141 6.1 l度N与降l?141 6.2 高维数据降维的方?141 6.2.1 U性降l?142 6.2.2 非线性降l?146 6.2.3 SVD降维 153 6.2.4 Ş学习降维 159 6.2.5 多维~放降维 166 W?章 支持向量?170 7.1 支持向量机概q?170 7.2 分类间隔 171 7.2.1 函数间距 172 7.2.2 几何间距 173 7.3 拉格朗日乘子 175 7.3.1 拉格朗日对偶?175 7.3.2 优化间隔分类?176 7.4 核函?178 7.4.1 核函数的选择 180 7.4.2 村ּ向量与Y间隔?180 7.5 SOM法 181 7.5.1 坐标上升法 182 7.5.2 SOM 182 7.6 SVM的优~点 185 7.7 SVM的Python实现 185 W?章 随机林 192 8.1 什么是随机林 192 8.2 集成学习 192 8.2.1 集成学习的思想 193 8.2.2 集成学习中的典型Ҏ(gu) 193 8.3 Stacking 194 8.3.1 Stacking的基本思想 194 8.3.2 Stacking的实?195 8.4 随机林法 198 8.4.1 随机林的特?198 8.4.2 随机林法程 199 8.5 随机林法实践 201 8.6 国人口普查q收?0k分类 207 8.6.1 数据预处?208 8.6.2 模型训练及验?212 W?章 人工经|络 217 9.1 感知机模?217 9.1.1 感知机的定义 217 9.1.2 感知机的学习{略 218 9.1.3 感知机学习算?218 9.1.4 感知机的Python实现 226 9.2 从感知机到神l网l?236 9.3 多层前馈经|络 238 9.3.1 BP|络法 241 9.3.2 BP经|络的学习过E?244 9.3.3 BP经|络中参数的讄 249 9.4 经|络的Python实现 253 W?0章 协同qo法 272 10.1 协同qo的核?272 10.2 协同qo的分c?272 10.3 怼性的度量Ҏ(gu) 273 10.3.1 Ƨ氏距离 273 10.3.2 皮尔逊相关系?273 10.3.3 余u怼?274 10.3.4 用Python实现余u怼度的计算 274 10.4 Z用户的协同过滤算?275 10.4.1 Z物品的协同过滤算?275 10.4.2 Z矩阵分解的协同过滤算?276 10.4.3 Python实现 276 10.5 Z的协同qo法 280 10.6 利用协同qo法q行推荐 281 10.6.1 导入用户-商品数据 281 10.6.2 利用Z用户的协同过滤算法进行推?282 10.6.3 利用Z的协同qo法q行推荐 283 W?1章 Z矩阵分解的推荐算?285 11.1 矩阵分解 285 11.2 利用矩阵分解q行预测 286 11.2.1 损失函数 286 11.2.2 损失函数的求?286 11.2.3 加入正则的损失函数x解方?286 11.2.4 预测 288 11.2.5 E序实现 289 11.3 非负矩阵分解 291 11.3.1 非负矩阵分解的Ş式定?291 11.3.2 损失函数 291 11.3.3 优化问题的求?292 11.3.4 利用乘法规则q行分解和预?294 11.4 Z矩阵分解的推荐方?295 11.4.1 LFM?295 11.4.2 SVD?298 11.4.3 SVD ?300 W?2章 集成学习 304 12.1 集成学习的原理及误差 304 12.2 集成学习Ҏ(gu) 305 12.2.1 Boosting法 305 12.2.2 AdaBoost法 305 12.2.3 AdaBoost与加法模?309 12.2.4 提升?310 12.2.5 Bagging法 313 12.2.6 误差-分歧分解 314 12.2.7 多样性增?315 12.2.8 Stacking法 316 12.3 Python实现 317 W?3章 数据预处?322 13.1 数据预处理概q?322 13.1.1 Z么要Ҏ(gu)据进行预处理 322 13.1.2 数据预处理的主要d 323 13.2 去除属?323 13.3 处理~失?324 13.3.1 直接使用 324 13.3.2 删除特征 324 13.3.3 ~失D?324 13.3.4 数据清理 328 13.3.5 特征~码 330 13.3.6 数据标准?331 13.3.7 正则?332 13.3.8 特征选择 333 13.3.9 E疏表C和字典学习 335 13.4 Python实现 337 |