機器學習課程大綱推薦

這個是冪次學院的機器學習課程大綱,非常適合自學者給自己做參考用。注意這個不是深度學習為主的課程,機器學習的傳統理論就滿滿一大筐了。

第一部分 基礎篇

第1章 初識機器學習
1.1 引言
1.2 基本術語
1.3 假設空間
1.4 歸納偏好
1.5 發展歷程
1.6 應用現狀

第2章 模型評估與選擇
2.1 經驗誤差與過擬合
2.2 評估方法
2.2.1 留出法
2.2.2 交叉驗證法
2.2.3 自助法
2.2.4 調參與最終模型
2.3 性能度量
2.3.1 錯誤率與精度
2.3.2 查準率、查全率與F1
2.3.3 ROC與AUC
2.3.4 代價敏感錯誤率與代價曲線
2.4 比較檢驗
2.4.1 假設檢驗
2.4.2 交叉驗證t檢驗
2.4.3 McNemar檢驗
2.4.4 Friedman檢驗與后續檢驗
2.5 偏差與方差

第3章 線性模型
3.1 基本形式
3.2 線性回歸
3.3 對數幾率回歸
3.4 線性判別分析
3.5 多分類學習
3.6 類別不平衡問題

第4章 決策樹
4.1 基本流程
4.2 劃分選擇
4.2.1 信息增益
4.2.2 增益率
4.2.3 基尼指數
4.3 剪枝處理
4.3.1 預剪枝
4.3.2 后剪枝
4.4 連續與缺失值
4.4.1 連續值處理
4.4.2 缺失值處理
4.5 多變量決策樹

第5章 神經網絡
5.1 神經元模型
5.2 感知機與多層網絡
5.3 誤差逆傳播算法
5.4 全局最小與局部極小
5.5 其他常見神經網絡
5.5.1 RBF網絡
5.5.2 ART網絡
5.5.3 SOM網絡
5.5.4 級聯相關網絡
5.5.5 Elman網絡
5.5.6 Boltzmann機

第6章 支持向量機
6.1 間隔與支持向量
6.2 對偶問題
6.3 核函數
6.4 軟間隔與正則化
6.5 支持向量回歸
6.6 核方法

第7章 深度學習
7.1 卷積神經網絡CNN基本原理
7.2 開源深度學習框架與常見卷積網絡模型
7.3 循環神經網絡RNN
7.4 生成模型與對抗生成網絡
7.5 Keras基礎(一)
7.6 Keras基礎(二)
7.7 Keras基礎(三)
7.8 Keras基礎(四)
7.9 Keras基礎(五)
7.10 Keras基礎(六)
7.11 Keras(七) – 圖像識別例子分析
7.12 Keras(八) – 時序模型例子分析
7.13 Keras(九) – 自然語言處理例子分析
7.14 Keras(十) – 對抗網絡與生成模型例子分析
7.15 Tensorflow,TFSlim,Tensorlayer基礎(一)
7.16 Tensorflow,TFSlim,Tensorlayer基礎(二)
7.17 Tensorflow,TFSlim,Tensorlayer基礎(三)
7.18 Tensorflow,TFSlim,Tensorlayer基礎(四)
7.19 Tensorflow,TFSlim,Tensorlayer基礎(五)
7.20 Tensorflow,TFSlim,Tensorlayer(六) – 圖像識別例子分析
7.21 Tensorflow,TFSlim,Tensorlayer(六) – 時序模型例子分析
7.22 Tensorflow,TFSlim,Tensorlayer(六) – 自然語言處理例子分析
7.23 Tensorflow,TFSlim,Tensorlayer(六) – 圖像分割例子分析
7.24 Tensorflow,TFSlim,Tensorlayer(六) – 對象檢測例子分析

第8章 貝葉斯分類器
8.1 貝葉斯決策論
8.2 極大似然估計
8.3 樸素貝葉斯分類器
8.4 半樸素貝葉斯分類器
8.5 貝葉斯網
8.5.1 結構
8.5.2 學習
8.5.3 推斷
8.6 EM算法

第9章 集成學習
9.1 個體與集成
9.2 Boosting
9.3 Bagging與隨機森林
9.3.1 Bagging
9.3.2 隨機森林
9.4 結合策略
9.4.1 平均法
9.4.2 投票法
9.4.3 學習法
9.5 多樣性
9.5.1 誤差–分歧分解
9.5.2 多樣性度量
9.5.3 多樣性增強

第10章 聚類
10.1 聚類任務
10.2 性能度量
10.3 距離計算
10.4 原型聚類
10.4.1 k均值算法
10.4.2 學習向量量化
10.4.3 高斯混合聚類
10.5 密度聚類
10.6 層次聚類

第11章 降維與度量學習
11.1 k近鄰學習
11.2 低維嵌入
11.3 主成分分析
11.4 核化線性降維
11.5 流形學習
11.5.1 等度量映射
11.5.2 局部線性嵌入
11.6 度量學習

第二部分 進階篇

第12章 特征選擇與稀疏學習
12.1 子集搜索與評價
12.2 過濾式選擇
12.3 包裹式選擇
12.4 嵌入式選擇與L_1正則化
12.5 稀疏表示與字典學習
12.6 壓縮感知

第13章 計算學習理論
13.1 基礎知識
13.2 PAC學習
13.3 有限假設空間
13.3.1 可分情形
13.3.2 不可分情形
13.4 VC維
13.5 Rademacher復雜度
13.6 穩定性

第14章 半監督學習
14.1 未標記樣本
14.2 生成式方法
14.3 半監督SVM
14.4 圖半監督學習
14.5 基于分歧的方法
14.6 半監督聚類

第15章 概率圖模型
15.1 隱馬爾可夫模型
15.2 馬爾可夫隨機場
15.3 條件隨機場
15.4 學習與推斷
15.4.1 變量消去
15.4.2 信念傳播
15.5 近似推斷
15.5.1 MCMC采樣
15.5.2 變分推斷
15.6 話題模型

第16章 規則學習
16.1 基本概念
16.2 序貫覆蓋
16.3 剪枝優化
16.4 一階規則學習
16.5 歸納邏輯程序設計
16.5.1 最小一般泛化
16.5.2 逆歸結

第17章 強化學習
17.1 任務與獎賞
17.2 K-搖臂賭博機
17.2.1 探索與利用
17.2.2 ε-貪心
17.2.3 Softmax
17.3 有模型學習
17.3.1 策略評估
17.3.2 策略改進
17.3.3 策略迭代與值迭代
17.4 免模型學習
17.4.1 蒙特卡羅強化學習
17.4.2 時序差分學習
17.5 值函數近似
17.6 模仿學習
17.6.1 直接模仿學習
17.6.2 逆強化學習

第18章 增量學習
18.1 被動攻擊學習
18.1.1 梯度下降量的抑制
18.1.2 被動攻擊分類
18.1.3 被動攻擊回歸
18.2 適應正則化學習
18.2.1 參數分布的學習
18.2.2 適應正則化分類
18.2.3 適應正則化回歸
18.3 增量隨機森林

第19章 遷移學習
19.1 遷移學習簡介
19.1.1 什么是遷移學習
19.1.2 遷移學習VS傳統機器學習
19.1.3 應用領域
19.2 遷移學習的分類方法
19.2.1 按遷移情境
19.2.2 按特征空間
19.2.3 按遷移方法
19.3 代表性研究成果
19.2.1 域適配問題
19.2.2 多源遷移學習
19.2.3 深度遷移學習

第20章 主動學習
20.1 主動學習簡介
20.2 主動學習思想
20.3 主動學習VS半監督學習
20.4 主動學習VS Self-Learning

第21章 多任務學習
21.1 使用最小二乘回歸的多任務學習
21.2 使用最小二乘概率分類器的多任務學習
21.3 多次維輸出函數的學習

第三部分 實戰篇

第22章 機器學習應用場景介紹
22.1 機器學習經典應用場景
22.2 頭腦風暴:挖掘身邊的應用場景

第23章 數據預處理
23.1 數據降噪
23.2 數據分割

第24章 特征提取
24.1 時域特征
24.2 頻域特征
24.3 自動特征提取

第25章 機器學習方法應用
25.1 應用機器學習方法之前的處理
25.2 使用機器學習分類
25.3 機器學習調參
25.4 分類結果展示

第26章 – 機器學習企業級項目實戰
26.1 O2O優惠券使用預測
26.2 鮑魚年齡預測
26.3 機器惡意流量識別
26.4 根據用戶軌跡進行精準營銷
26.5 根據搜狗輸入進行用戶畫像
26.6 美國債務違約預測

3d历史开奖结果 彩票快乐10分技巧 期货配资平台 股票分析师为什么会免费推荐股票 广东十一选五是正规的吗 福彩手机彩票app排行榜 快乐双彩基本分布走势图 排列5开奖公告 排列三怎么玩中奖率高 甘肃11选5 360 广西快三结果走势图 快3平台骗局 02489博彩 山西快乐10分前三遗漏 股票涨跌意味着什么 天津十一选五开奖预测 四川快乐12走势图一定牛