時間 | 內(nèi)容 | 案例實踐與練習(xí) |
Day1初識機器學(xué)習(xí) 上午 概述入門 數(shù)據(jù)預(yù)處理 | 概述(第一天——1) 1、? 概念與術(shù)語(人工智能、數(shù)據(jù)挖掘、機器學(xué)習(xí)) 2、 數(shù)據(jù)挖掘的對象 3、 數(shù)據(jù)挖掘的關(guān)鍵技術(shù) 4、 知識的表達 5、 Python的安裝 數(shù)據(jù)預(yù)處理(第一天——2) 1、? 數(shù)據(jù)清理 2、 規(guī)范化 3、 模糊集 4、 粗糙集 5、 無標簽時:PCA 6、 有標簽時:Fisher線性判別 數(shù)據(jù)壓縮(DFT、小波變換) | 案例實踐: 1、? python安裝 2、 Tensorflow安裝 3、 PCA的實驗 4、 DFT的實驗 |
Day1初識機器學(xué)習(xí) 下午 回歸與時序分析 決策樹 | 回歸與時序分析 (第一天——3) 1、? 線性回歸 2、 非線性回歸 3、 logistics回歸 4、 平穩(wěn)性、截尾與拖尾 5、 ARIMA 決策樹(第一天——4) 1、? 分類和預(yù)測 2、 熵減過程與貪心法 3、 ID3 4、 C4.5 5、 其他改進方法 決策樹剪枝 | 案例實踐: 1、? 回歸的實驗 2、 ARIMA預(yù)測實驗 3、 決策樹的實驗 |
Day2機器學(xué)習(xí)中的典型算法 上午 聚類 關(guān)聯(lián)規(guī)則 樸素貝葉斯與KNN | 聚類(第二天——1) 1、? 監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí) 2、 K-means與k-medoids 3、 層次的方法 4、 基于密度的方法 5、 基于網(wǎng)格的方法 6、 孤立點分析 關(guān)聯(lián)規(guī)則(第二天——2) 1、? 頻繁項集 2、 支持度與置信度 3、 提升度 4、 Apriori性質(zhì) 5、 連接與剪枝 樸素貝葉斯與KNN(第二天——3) 1、? KNN 2、 概率論基礎(chǔ):條件概率、聯(lián)合概率、分布、共軛先驗。 3、 “概率派”與“貝葉斯派” 4、 樸素貝葉斯模型 | 案例實踐: 1、? 鳶尾花數(shù)據(jù)的聚類 2、 超市購物籃——關(guān)聯(lián)規(guī)則分析 3、 樸素貝葉斯案例:皮馬印第安人患糖尿病的風(fēng)險 |
Day2機器學(xué)習(xí)中的典型算法 下午 極大似然估計與EM算法 性能評價指標 | 極大似然估計與EM算法(第二天——4) 1、? 極大似然估計 2、 對數(shù)似然函數(shù) 3、 EM算法 性能評價指標(第二天——5) 1、? 準確率;精確率、召回率;F1 2、 真陽性率、假陽性率 3、 混淆矩陣 4、 ROC與AUC 5、 對數(shù)損失 6、 Kappa系數(shù) 7、 回歸:平均絕對誤差、平均平方誤差 8、 聚類:蘭德指數(shù)、互信息 9、 k折驗證 | 案例實踐: 1、? 正態(tài)分析的參數(shù)估計 2、 EM算法應(yīng)用案例:雙正態(tài)分布的參數(shù)估計 3、 繪制ROC并計算AUC、F1 4、 繪制擬合曲線,計算擬合優(yōu)度 |
Day3神經(jīng)網(wǎng)絡(luò)專題 上午 BP神經(jīng)網(wǎng)絡(luò) 模擬退火算法與其他神經(jīng)網(wǎng)絡(luò) | BP神經(jīng)網(wǎng)絡(luò) (第三天——1) 1、? 人工神經(jīng)元及感知機模型 2、 前向神經(jīng)網(wǎng)絡(luò) 3、 sigmoid 4、 徑向基函數(shù)神經(jīng)網(wǎng)絡(luò) 5、 誤差反向傳播 模擬退火算法與其他神經(jīng)網(wǎng)絡(luò) (第三天——2) 1、? 模擬退火算法 2、 Hopfield網(wǎng)絡(luò) 3、 自組織特征映射神經(jīng)網(wǎng)絡(luò)(SOM) 4、 受限布爾茲曼機 | 案例實踐: 1、? 可以手算的神經(jīng)網(wǎng)絡(luò) 2、 神經(jīng)網(wǎng)絡(luò)模擬一個圓錐曲面 3、 “貨郎擔(dān)”問題(模擬退火算法) 4、 識別破損的字母(Hopfield網(wǎng)絡(luò)) 5、 聚類的另一種解法(SOM) |
Day3神經(jīng)網(wǎng)絡(luò)專題 下午 機器學(xué)習(xí)中的最優(yōu)化方法 遺傳算法 | 機器學(xué)習(xí)中的最優(yōu)化方法(第三天——3) 1、? 參數(shù)學(xué)習(xí)方法 2、 損失函數(shù)(或目標函數(shù)) 3、 梯度下降 4、 隨機梯度下降 5、 牛頓法 6、 擬牛頓法 遺傳算法 (第三天——4) 1、? 種群、適應(yīng)性度量 2、 交叉、選擇、變異 3、 基本算法 | 案例實踐: 1、? 隨機梯度下降的例子 2、 牛頓法求Rosenbrock(香蕉函數(shù))的極值 3、 “同宿舍”問題:遺傳算法 |
Day4機器學(xué)習(xí)進階 上午 支持向量機 隱馬爾科夫模型 | 支持向量機 (第四天——1) 1、? 統(tǒng)計學(xué)習(xí)問題 2、 支持向量機 3、 核函數(shù) 4、 多分類的支持向量機 5、 用于連續(xù)值預(yù)測的支持向量機 隱馬爾科夫模型(第四天——2) 1、? 馬爾科夫過程 2、 隱馬爾科夫模型 3、 三個基本問題(評估、解碼、學(xué)習(xí)) 4、 前向-后向算法 5、 Viterbi算法 6、 Baum-Welch算法 ? | 案例實踐: 1、? SVM:iris的三個分類 2、 HMM示例:天氣與地表積水、罐中的彩球 3、 HMM之前向算法:擲骰子的序列 4、 HMM之viterbi算法:是否生病了? |
Day4機器學(xué)習(xí)進階 下午 文本挖掘 從LSA到LDA | 文本挖掘(第四天——3) 1、文本分析功能 2、文本特征的提取 4、TF-IDF 5、文本分類 5、文本聚類 從LSA到LDA(第四天——3) 1、? LSA 2、 pLSA 3、 LDA ? | 案例實踐: 1、? 英文文本分析; 2、 中文文本分析:《絕代雙驕》 3、 中文語句情感分析 4、 LSA和LDA的比較 |
Day5機器學(xué)習(xí)進階與深度學(xué)習(xí)初步 上午 利用無標簽的樣本 集成學(xué)習(xí) | 利用無標簽的樣本(第五天——1) 1、? 半監(jiān)督學(xué)習(xí) 2、 直推式學(xué)習(xí) 3、 主動學(xué)習(xí) ? 集成學(xué)習(xí)(第五天——2) 1、? bagging 2、 co-training 3、 adaboost 4、 隨機森林 5、 GBDT | 案例實踐: 1、? 半監(jiān)督學(xué)習(xí):SVM標簽擴展; 2、 主動學(xué)習(xí):手寫數(shù)字 3、bagging、adaboost、RF、GBDT的例子 |
Day5機器學(xué)習(xí)進階與深度學(xué)習(xí)初步 下午 強化學(xué)習(xí) 深度學(xué)習(xí)-1 | 強化學(xué)習(xí)(第五天——3) 1、? agent的屬性 2、 exploration and exploitation 3、 Bellman期望方程 4、 最優(yōu)策略 5、 策略迭代與價值迭代 6、 Q學(xué)習(xí)算法 深度學(xué)習(xí)-1(第五天——4) 1、? 連接主義的興衰 2、 深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)的區(qū)別與聯(lián)系 3、 目標函數(shù) 4、 激勵函數(shù) 學(xué)習(xí)步長 | 案例實踐: 1、? 強化學(xué)習(xí)示例:走迷宮 2、 強化學(xué)習(xí):谷底的小車 3、 深度學(xué)習(xí)示例:模式識別 |
Day6深度學(xué)習(xí) 上午 深度學(xué)習(xí)-2 深度學(xué)習(xí)-3 | 深度學(xué)習(xí)-2(第六天——1) 1、? 優(yōu)化算法 2、 Adagrad 3、 RMSprop 4、 Adam 5、 避免過適應(yīng) 深度學(xué)習(xí)-3(第六天——2) 1、? 典型應(yīng)用場景 2、 CNN 3、 各種CNN 4、 RNN LSTM、GRU | 案例實踐: 1、? CNN的準備示例 2、 CNN處理MNIST手寫數(shù)字數(shù)據(jù)集 3、 RNN準備示例 4、 RNN分析股票趨勢 5、 LSTM的準備示例 |
Day6深度學(xué)習(xí) 下午 深度學(xué)習(xí)-4 | 1、? GAN 2、 DQN ? | 案例實踐: 1、? DQN結(jié)合CNN:“flappy bird” |