免费看美女被靠到爽的视频,日本最新免费二区三区,成人免费视频在线观看,国产成人精品日本亚洲11

名課堂 - 企業(yè)管理培訓網(wǎng)聯(lián)系方式

聯(lián)系電話:400-8228-121

值班手機:18971071887

Email:Service@mingketang.com

企業(yè)管理培訓分類導航

企業(yè)管理培訓公開課計劃

企業(yè)培訓公開課日歷

研發(fā)管理培訓公開課

研發(fā)管理培訓內(nèi)訓課程

熱門企業(yè)管理培訓關(guān)鍵字

您所在的位置:名課堂>>公開課>>研發(fā)管理培訓公開課

Python大數(shù)據(jù)核心技術(shù)實戰(zhàn)

【課程編號】:MKT043947

【課程名稱】:

Python大數(shù)據(jù)核心技術(shù)實戰(zhàn)

【課件下載】:點擊下載課程綱要Word版

【所屬類別】:研發(fā)管理培訓

【時間安排】:2025年05月08日 到 2025年05月11日7800元/人

2024年05月16日 到 2024年05月19日7800元/人

2023年06月01日 到 2023年06月04日7800元/人

【授課城市】:上海

【課程說明】:如有需求,我們可以提供Python大數(shù)據(jù)核心技術(shù)實戰(zhàn)相關(guān)內(nèi)訓

【其它城市安排】:珠海 蘇州 成都 杭州 北京 深圳 太原 天津 長沙 中山 福州 重慶 惠州 廈門 廣州 大連 東莞 長春 青島

【課程關(guān)鍵字】:上海Python培訓

我要報名

咨詢電話:
手  機: 郵箱:
課程目標

1.每個算法模塊按照“原理講解→分析數(shù)據(jù)→自己動手實現(xiàn)→特征與調(diào)參”的順序。

2.“Python數(shù)據(jù)清洗和特征提取”,提升學習深度、降低學習坡度。

3.增加網(wǎng)絡爬蟲的原理和編寫,從獲取數(shù)據(jù)開始,重視將實踐問題轉(zhuǎn)換成實際模型的能力,分享工作中的實際案例或Kaggle案例:廣告銷量分析、環(huán)境數(shù)據(jù)異常檢測和分析、數(shù)字圖像手寫體識別、Titanic乘客存活率預測、用戶-電影推薦、真實新聞組數(shù)據(jù)主題分析、中文分詞、股票數(shù)據(jù)特征分析等。

4.強化矩陣運算、概率論、數(shù)理統(tǒng)計的知識運用,掌握機器學習根本。

5.闡述機器學習原理,提供配套源碼和數(shù)據(jù)。

6.以直觀解釋,增強感性理解。

7.對比不同的特征選擇帶來的預測效果差異。

8.重視項目實踐,重視落地。思考不同算法之間的區(qū)別和聯(lián)系,提高在實際工作中選擇算法的能力。

9.涉及和講解的部分Python庫有:Numpy、Scipy、matplotlib、Pandas、scikit-learn、XGBoost、libSVM、LDA、Gensim、NLTK、HMMLearn。

課程目標

本課程特點是從數(shù)學層面推導最經(jīng)典的機器學習算法,以及每種算法的示例和代碼實現(xiàn)(Python)、如何做算法的參數(shù)調(diào)試、以實際應用案例分析各種算法的選擇等。

培訓對象

大數(shù)據(jù)分析應用開發(fā)工程師、大數(shù)據(jù)分析項目的規(guī)劃咨詢管理人員、大數(shù)據(jù)分析項目的IT項目高管人員、大數(shù)據(jù)分析與挖掘處理算法應用工程師、大數(shù)據(jù)分析集群運維工程師、大數(shù)據(jù)分析項目的售前和售后技術(shù)支持服務人員

課程大綱

模塊一 機器學習的數(shù)學基礎(chǔ)1 - 數(shù)學分析

1. 機器學習的一般方法和橫向比較

2. 數(shù)學是有用的:以SVD為例

3. 機器學習的角度看數(shù)學

4. 復習數(shù)學分析

5. 直觀解釋常數(shù)e

6. 導數(shù)/梯度

7. 隨機梯度下降

8. Taylor展式的落地應用

9. gini系數(shù)

10. 凸函數(shù)

11. Jensen不等式

12. 組合數(shù)與信息熵的關(guān)系

模塊二 機器學習的數(shù)學基礎(chǔ)2 - 概率論與貝葉斯先驗

1. 概率論基礎(chǔ)

2. 古典概型

3. 貝葉斯公式

4. 先驗分布/后驗分布/共軛分布

5. 常見概率分布

6. 泊松分布和指數(shù)分布的物理意義

7. 協(xié)方差(矩陣)和相關(guān)系數(shù)

8. 獨立和不相關(guān)

9. 大數(shù)定律和中心極限定理的實踐意義

10. 深刻理解最大似然估計MLE和最大后驗估計MAP

11. 過擬合的數(shù)學原理與解決方案

模塊三 機器學習的數(shù)學基礎(chǔ)3 - 矩陣和線性代數(shù)

1. 線性代數(shù)在數(shù)學科學中的地位

2. 馬爾科夫模型

3. 矩陣乘法的直觀表達

4. 狀態(tài)轉(zhuǎn)移矩陣

5. 矩陣和向量組

6. 特征向量的思考和實踐計算

7. QR分解

8. 對稱陣、正交陣、正定陣

9. 數(shù)據(jù)白化及其應用

10. 向量對向量求導

11. 標量對向量求導

12. 標量對矩陣求導工作機制

模塊四 Python基礎(chǔ)1 - Python及其數(shù)學庫

1. 解釋器Python2.7與IDE:Anaconda/Pycharm

2. Python基礎(chǔ):列表/元組/字典/類/文件

3. Taylor展式的代碼實現(xiàn)

4. numpy/scipy/matplotlib/panda的介紹和典型使用

5. 多元高斯分布

6. 泊松分布、冪律分布

7. 典型圖像處理

8. 蝴蝶效應

9. 分形與可視化

模塊五 Python基礎(chǔ)2 - 機器學習庫

1. scikit-learn的介紹和典型使用

2. 損失函數(shù)的繪制

3. 多種數(shù)學曲線

4. 多項式擬合

5. 快速傅里葉變換FFT

6. 奇異值分解SVD

7. Soble/Prewitt/Laplacian算子與卷積網(wǎng)絡

8. 卷積與(指數(shù))移動平均線

9. 股票數(shù)據(jù)分析

模塊六 Python基礎(chǔ)3 - 數(shù)據(jù)清洗和特征選擇

1. 實際生產(chǎn)問題中算法和特征的關(guān)系

2. 股票數(shù)據(jù)的特征提取和應用

3. 一致性檢驗

4. 缺失數(shù)據(jù)的處理

5. 環(huán)境數(shù)據(jù)異常檢測和分析

6. 模糊數(shù)據(jù)查詢和數(shù)據(jù)校正方法、算法、應用

7. 樸素貝葉斯用于鳶尾花數(shù)據(jù)

8. GaussianNB/MultinomialNB/BernoulliNB

9. 樸素貝葉斯用于18000+篇/Sogou新聞文本的分類

模塊七 回歸

1. 線性回歸

2. Logistic/Softmax回歸

3. 廣義線性回歸

4. L1/L2正則化

5. Ridge與LASSO

6. Elastic Net

7. 梯度下降算法:BGD與SGD

8. 特征選擇與過擬合

模塊八 Logistic回歸

1. Sigmoid函數(shù)的直觀解釋

2. Softmax回歸的概念源頭

3. Logistic/Softmax回歸

4. 最大熵模型

5. K-L散度

6. 損失函數(shù)

7. Softmax回歸的實現(xiàn)與調(diào)參

模塊九 回歸實踐

1. 機器學習sklearn庫介紹

2. 線性回歸代碼實現(xiàn)和調(diào)參

3. Softmax回歸代碼實現(xiàn)和調(diào)參

4. Ridge回歸/LASSO/Elastic Net

5. Logistic/Softmax回歸

6. 廣告投入與銷售額回歸分析

7. 鳶尾花數(shù)據(jù)集的分類

8. 交叉驗證

9. 數(shù)據(jù)可視化

模塊十 決策樹和隨機森林

1. 熵、聯(lián)合熵、條件熵、KL散度、互信息

2. 最大似然估計與最大熵模型

3. ID3、C4.5、CART詳解

4. 決策樹的正則化

5. 預剪枝和后剪枝

6. Bagging

7. 隨機森林

8. 不平衡數(shù)據(jù)集的處理

9. 利用隨機森林做特征選擇

10. 使用隨機森林計算樣本相似度

11. 數(shù)據(jù)異常值檢測

模塊十一 隨機森林實踐

1. 隨機森林與特征選擇

2. 決策樹應用于回歸

3. 多標記的決策樹回歸

4. 決策樹和隨機森林的可視化

5. 葡萄酒數(shù)據(jù)集的決策樹/隨機森林分類

6. 波士頓房價預測

模塊十二 提升

1. 提升為什么有效

2. 梯度提升決策樹GBDT

3. XGBoost算法詳解

4. Adaboost算法

5. 加法模型與指數(shù)損失

模塊十三 提升實踐

1. Adaboost用于蘑菇數(shù)據(jù)分類

2. Adaboost與隨機森林的比較

3. XGBoost庫介紹

4. Taylor展式與學習算法

5. KAGGLE簡介

6. 泰坦尼克乘客存活率估計

模塊十四 SVM

1. 線性可分支持向量機

2. 軟間隔的改進

3. 損失函數(shù)的理解

4. 核函數(shù)的原理和選擇

5. SMO算法

6. 支持向量回歸SVR

模塊十五 SVM實踐

1. libSVM代碼庫介紹

2. 原始數(shù)據(jù)和特征提取

3. 葡萄酒數(shù)據(jù)分類

4. 數(shù)字圖像的手寫體識別

5. SVR用于時間序列曲線預測

6. SVM、Logistic回歸、隨機森林三者的橫向比較

模塊十六 聚類(一)

1. 各種相似度度量及其相互關(guān)系

2. Jaccard相似度和準確率、召回率

3. Pearson相關(guān)系數(shù)與余弦相似度

4. K-means與K-Medoids及變種

5. AP算法(Sci07)/LPA算法及其應用

模塊十七 聚類(二)

1. 密度聚類DBSCAN/DensityPeak(Sci14)

2. DensityPeak(Sci14)

3. 譜聚類SC

4. 聚類評價AMI/ARI/Silhouette

5. LPA算法及其應用

模塊十八 聚類實踐

1. K-Means++算法原理和實現(xiàn)

2. 向量量化VQ及圖像近似

3. 并查集的實踐應用

4. 密度聚類的代碼實現(xiàn)

5. 譜聚類用于圖片分割

模塊十九 EM算法

1. 最大似然估計

2. Jensen不等式

3. 樸素理解EM算法

4. 精確推導EM算法

5. EM算法的深入理解

6. 混合高斯分布

7. 主題模型pLSA

模塊二十 EM算法實踐

1. 多元高斯分布的EM實現(xiàn)

2. 分類結(jié)果的數(shù)據(jù)可視化

3. EM與聚類的比較

4. Dirichlet過程EM

5. 三維及等高線等圖件的繪制

6. 主題模型pLSA與EM算法

模塊二十一 主題模型LDA

1. 貝葉斯學派的模型認識

2. Beta分布與二項分布

3. 共軛先驗分布

4. Dirichlet分布

5. Laplace平滑

6. Gibbs采樣詳解

模塊二十二 LDA實踐

1. 網(wǎng)絡爬蟲的原理和代碼實現(xiàn)

2. 停止詞和高頻詞

3. 動手自己實現(xiàn)LDA

4. LDA開源包的使用和過程分析

5. Metropolis-Hastings算法

6. MCMC

7. LDA與word2vec的比較

8. TextRank算法與實踐

模塊二十三 隱馬爾科夫模型HMM

1. 概率計算問題

2. 前向/后向算法

3. HMM的參數(shù)學習

4. Baum-Welch算法詳解

5. Viterbi算法詳解

6. 隱馬爾科夫模型的應用優(yōu)劣比較

模塊二十四 HMM實踐

1. 動手自己實現(xiàn)HMM用于中文分詞

2. 多個語言分詞開源包的使用和過程分析

3. 文件數(shù)據(jù)格式UFT-8、Unicode

4. 停止詞和標點符號對分詞的影響

5. 前向后向算法計算概率溢出的解決方案

6. 發(fā)現(xiàn)新詞和分詞效果分析

7. 高斯混合模型HMM

8. GMM-HMM用于股票數(shù)據(jù)特征提取

模塊二十五 課堂提問與互動討論

張老師

張老師:阿里大數(shù)據(jù)高級專家,國內(nèi)資深的Spark、Hadoop技術(shù)專家、虛擬化專家,對HDFS、MapReduce、HBase、Hive、Mahout、Storm、spark和openTSDB等Hadoop生態(tài)系統(tǒng)中的技術(shù)進行了多年的深入的研究,更主要的是這些技術(shù)在大量的實際項目中得到廣泛的應用,因此在Hadoop開發(fā)和運維方面積累了豐富的項目實施經(jīng)驗。近年主要典型的項目有:某電信集團網(wǎng)絡優(yōu)化、中國移動某省移動公司請賬單系統(tǒng)和某省移動詳單實時查詢系統(tǒng)、中國銀聯(lián)大數(shù)據(jù)數(shù)據(jù)票據(jù)詳單平臺、某大型銀行大數(shù)據(jù)記錄系統(tǒng)、某大型通信運營商全國用戶上網(wǎng)記錄、某省交通部門違章系統(tǒng)、某區(qū)域醫(yī)療大數(shù)據(jù)應用項目、互聯(lián)網(wǎng)公共數(shù)據(jù)大云(DAAS)和構(gòu)建游戲云(Web Game Daas)平臺項目等。

我要報名

在線報名:Python大數(shù)據(jù)核心技術(shù)實戰(zhàn)(上海)

<th id="vtuf8"></th>

<th id="vtuf8"></th>