機器學(xué)習(深度學(xué)習)算法和應用

真實(shí)應用案例 丨 真實(shí)工作成果 丨 連續舉辦20期 丨 評分高達9.9 丨 業(yè)界高口碑標桿課程

經(jīng)典課程限時(shí)活動(dòng)          預約現場(chǎng)體驗票

搶占名額

預約現場(chǎng)體驗票

搶占名額

課程介紹

MSUP金牌經(jīng)典課程,已經(jīng)在各大IT公司巡講超過(guò)20場(chǎng),評分高達9.9 ,已成為業(yè)界高口碑標桿課程
課程內容包含:幻燈片算法講解,結合代碼分析,剖析算法原理;實(shí)際應用舉例和和業(yè)界趨勢分析;成熟開(kāi)源框架介紹和實(shí)例(Numpy, Pandas, Sklearn, Keras, TensorFlow,)。
內容分7大部分:DNN 入門(mén)和基本模型;模型評估、調參和優(yōu)化;卷積神經(jīng)網(wǎng)絡(luò ) CNN 原理和實(shí)踐;循環(huán)神經(jīng)網(wǎng)絡(luò )RNN原理和實(shí)踐;GAN;無(wú)監督學(xué)習;增強學(xué)習
課程適合對深度學(xué)習算法原理和應用感興趣,具有一定編程(Python)和數學(xué)基礎(線(xiàn)性代數、微積分、概率論)的技術(shù)人員。

課程介紹

MSUP金牌經(jīng)典課程,已經(jīng)在各大IT公司巡講超過(guò)100場(chǎng),評分高達9.9 ,已成為業(yè)界高口碑標桿課程
課程內容包含:幻燈片算法講解,結合代碼分析,剖析算法原理;實(shí)際應用舉例和和業(yè)界趨勢分析;成熟開(kāi)源框架介紹和實(shí)例(Numpy, Pandas, Sklearn, Keras, TensorFlow,)。
內容分7大部分:DNN 入門(mén)和基本模型;模型評估、調參和優(yōu)化;卷積神經(jīng)網(wǎng)絡(luò ) CNN 原理和實(shí)踐;循環(huán)神經(jīng)網(wǎng)絡(luò )RNN原理和實(shí)踐;GAN;無(wú)監督學(xué)習;增強學(xué)習
課程適合對深度學(xué)習算法原理和應用感興趣,具有一定編程(Python)和數學(xué)基礎(線(xiàn)性代數、微積分、概率論)的技術(shù)人員。

目標收益

  • 學(xué)員能夠了解深度學(xué)習的流程步驟;

  • 理解用深度學(xué)習方法解決實(shí)際問(wèn)題的方法和思路;

  • 初步掌握基礎深度學(xué)習的算法和實(shí)現方法,并應用于多種項目中。

目標收益

  • 學(xué)員能夠了解深度學(xué)習的流程步驟;

  • 理解用深度學(xué)習方法解決實(shí)際問(wèn)題的方法和思路;

  • 初步掌握基礎深度學(xué)習的算法和實(shí)現方法,并應用于多種項目中。

課程大綱

大量真實(shí)案例,深入分析,讓學(xué)員更好的掌握課程內容

  • 01

    入門(mén)和基本 DNN 模型(略講)

    ? 深度學(xué)習概要 什么是深度學(xué)習 & 與機器學(xué)習的異同
    ? 多層感知器模型 Multi-Layer Perceptron – MLP
    神經(jīng)元 權重和激活 Neurons Weight Activation
    神經(jīng)元網(wǎng)絡(luò ) Neuron Networks
    訓練網(wǎng)絡(luò ) Training Networks
    Back-propagation 算法和計算圖
    多種自適應學(xué)習率算法 Adaptive Learning Rate
    ? 用 Keras 搭建 MLP
    載入數據
    定義-編譯-訓練-測試模型

    02

    評估、調參和優(yōu)化模型(上)

    ? 評估深度學(xué)習模型的性能
    ? 切分數據集合 Data Splitting
    ? 數據集(構建、清洗、評估等)
    ? 模型結構選擇、搭建與調優(yōu)、訓練調參方法技巧等
    ? 通用深度學(xué)習工具集 Keras + Scikit-Learn
    用 cross-validation 評估模型
    用 grid-search 微調超參數

    03

    評估、調參和優(yōu)化模型(下)

    ? MLP例子
    - 用 MLP 進(jìn)行多元分類(lèi) – 植物品種分類(lèi)
    - 用 MLP 進(jìn)行二元分類(lèi) – 聲吶探測物體信號分析
    - 用 MLP 進(jìn)行回歸 – Boston 房屋價(jià)格預測
    ? 序列化保存模型
    ? 通過(guò) check point 機制獲取最佳模型
    ? 通過(guò)繪制模型歷史理解訓練行為
    ? 通過(guò) dropout regularization 降低模型過(guò)擬合
    ? 選取不同的 Learning Rate Schedule 提升模型性能

    04

    卷積神經(jīng)網(wǎng)絡(luò ) CNN

    ? CNN 原理和構造(概述):
    - 核 Filter 和卷積運算 Convolutional Layer
    - 特征圖 Feature Maps、- 池化層 Pooling
    - 全連接層 Full Connected Layer
    - Dropout 和 Batch Normalization、- CNN 最佳實(shí)踐
    CNN 實(shí)踐
    - 項目:用 CNN 進(jìn)行手寫(xiě)體識別
    - 練習:在 CNN 圖像識別中通過(guò) Image Augmentation 技術(shù)提升模型性能
    項目:用 CNN 進(jìn)行圖片物體識別 、XCeption 架構、ResNet
    - 項目:用 CNN電影評論情緒預測

  • 05

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(一)

    ? - RNN 原理一:基本 RNN
    - 處理序列(Sequence)數據的神經(jīng)網(wǎng)絡(luò )
    - 循環(huán)神經(jīng)網(wǎng) RNN 架構
    - RNN訓練:如何在訓練中獲得穩定的梯度下降
    - RNN 網(wǎng)絡(luò )演化歷史:RNN,LSTM,GRU 結構比較和分析

    06

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(二)

    ? RNN 實(shí)踐一:RNN 回歸
    - 項目:用 MLP 進(jìn)行時(shí)間序列預測
    - 項目:用長(cháng)短記憶網(wǎng)絡(luò )(Long-Short Term
    Memory, LSTM)進(jìn)行時(shí)間序列預測
    1) 用LSTM進(jìn)行回歸
    2)用LSTM 序列窗口(Window method)進(jìn)行回歸
    3) 用 LSTM 時(shí)間步長(cháng)(Time Step)進(jìn)行回歸
    4) 用 LSTM記憶(Memory)進(jìn)行回歸 & Stacked LSTM
    ? RNN 實(shí)踐二:RNN 分類(lèi)
    ? Spring Boot 實(shí)戰案例

    07

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(三)

    ? - 項目:對電影評論進(jìn)行序列分類(lèi) Sequence Classification
    - 項目:使用 dropout LSTM
    - 項目:結合使用 CNN 和 RNN 進(jìn)行序列分類(lèi)
    ? RNN 實(shí)踐三:用 RNN 進(jìn)行文本生成 – one char
    - 項目:用LSTM進(jìn)行 one-char生成
    - 項目:用LSTM feature-window進(jìn)行one-char生成
    - 項目:用LSTM time-step進(jìn)行 one-char生成
    - 項目:用 LSTM 批內樣本間保持狀態(tài)進(jìn)行 one-char 生成
    - 項目:有狀態(tài) LSTM進(jìn)行 one-char 生成
    - 項目:變長(cháng)輸入 LSTM

    08

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(四)

    ? RNN 實(shí)踐四:RNN 進(jìn)行文本生成 – sequence?
    - 項目:用 LSTM 生成文本序列
    - 項目:深度 LSTM 生成文本
    - 討論:如何進(jìn)一步提高模型 performance

  • 09

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(五)

    ? RNN 實(shí)踐四:RNN 進(jìn)行文本生成 – sequence?
    - 項目:用 LSTM 生成文本序列
    - 項目:深度 LSTM 生成文本
    - 討論:如何進(jìn)一步提高模型 performance
    ? 更多 RNN 模型:
    - -Sequence-to-Sequence 結構和實(shí)現
    - Attention 機制、- image captioning 圖像字幕
    - machine translation 機器翻譯
    - dialogue generation 對話(huà)生成
    - 神經(jīng)機器翻譯 Neural Machine Translation
    - Query泛化 和 Q&A: multiple perspective 機制

    10

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(六)

    ? 無(wú)監督學(xué)習概念、方法和例子
    無(wú)監督學(xué)習方法
    Word Embedding
    Word2Vec:前生今世 - 起因和效果
    Word2Vec:原理和架構
    Word2Vec 訓練
    Auto-Encoder 、Auto-Encoder 概念和訓練
    全連接 Auto-Encoder
    Variational Auto Encoder (VAE)
    Deep Convolutional VAE

課程大綱

大量真實(shí)案例,深入分析
讓學(xué)員更好的掌握課程內容

  • 01

    入門(mén)和基本 DNN 模型(略講)

    ? 深度學(xué)習概要 什么是深度學(xué)習 & 與機器學(xué)習的異同
    ? 多層感知器模型 Multi-Layer Perceptron – MLP
    神經(jīng)元 權重和激活 Neurons Weight Activation、 神經(jīng)元網(wǎng)絡(luò ) Neuron Networks 、 訓練網(wǎng)絡(luò ) Training Networks 、 Back-propagation 算法和計算圖、 多種自適應學(xué)習率算法 Adaptive Learning Rate、 ? 用 Keras 搭建 MLP
    載入數據、定義-編譯-訓練-測試模型

    02

    評估、調參和優(yōu)化模型(上)

    ? 評估深度學(xué)習模型的性能
    ? 切分數據集合 Data Splitting
    ? 數據集(構建、清洗、評估等)
    ? 模型結構選擇、搭建與調優(yōu)、訓練調參方法技巧等
    ? 通用深度學(xué)習工具集 Keras + Scikit-Learn
    用 cross-validation 評估模型
    用 grid-search 微調超參數

    03

    評估、調參和優(yōu)化模型(下)

    ? MLP例子
    - 用 MLP 進(jìn)行多元分類(lèi) – 植物品種分類(lèi)
    - 用 MLP 進(jìn)行二元分類(lèi) – 聲吶探測物體信號分析
    - 用 MLP 進(jìn)行回歸 – Boston 房屋價(jià)格預測
    ? 序列化保存模型
    ? 通過(guò) check point 機制獲取最佳模型
    ? 通過(guò)繪制模型歷史理解訓練行為
    ? 通過(guò) dropout regularization 降低模型過(guò)擬合
    ? 選取不同的 Learning Rate Schedule 提升模型性能

    04

    卷積神經(jīng)網(wǎng)絡(luò ) CNN

    ? CNN 原理和構造(概述):
    - 核 Filter 和卷積運算 Convolutional Layer
    - 特征圖 Feature Maps、- 池化層 Pooling
    - 全連接層 Full Connected Layer
    - Dropout 和 Batch Normalization、- CNN 最佳實(shí)踐
    CNN 實(shí)踐
    - 項目:用 CNN 進(jìn)行手寫(xiě)體識別
    - 練習:在 CNN 圖像識別中通過(guò) Image Augmentation 技術(shù)提升模型性能
    項目:用 CNN 進(jìn)行圖片物體識別 、XCeption 架構、ResNet
    - 項目:用 CNN電影評論情緒預測

  • 05

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(一)

    ? - RNN 原理一:基本 RNN
    - 處理序列(Sequence)數據的神經(jīng)網(wǎng)絡(luò )
    - 循環(huán)神經(jīng)網(wǎng) RNN 架構
    - RNN訓練:如何在訓練中獲得穩定的梯度下降
    - RNN 網(wǎng)絡(luò )演化歷史:RNN,LSTM,GRU 結構比較和分析

    06

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(二)

    ? RNN 實(shí)踐一:RNN 回歸
    - 項目:用 MLP 進(jìn)行時(shí)間序列預測
    - 項目:用長(cháng)短記憶網(wǎng)絡(luò )(Long-Short Term
    Memory, LSTM)進(jìn)行時(shí)間序列預測
    1) 用LSTM進(jìn)行回歸; 2)用LSTM 序列窗口(Window method)進(jìn)行回歸 ; 3) 用 LSTM 時(shí)間步長(cháng)(Time Step)進(jìn)行回歸; 4) 用 LSTM記憶(Memory)進(jìn)行回歸 & Stacked LSTM
    ? RNN 實(shí)踐二:RNN 分類(lèi)
    ? Spring Boot 實(shí)戰案例

    07

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(三)

    ? - 項目:對電影評論進(jìn)行序列分類(lèi) Sequence Classification
    - 項目:使用 dropout LSTM
    - 項目:結合使用 CNN 和 RNN 進(jìn)行序列分類(lèi)
    ? RNN 實(shí)踐三:用 RNN 進(jìn)行文本生成 – one char
    - 項目:用LSTM進(jìn)行 one-char生成
    - 項目:用LSTM feature-window進(jìn)行one-char生成; 用LSTM time-step進(jìn)行 one-char生成; 用 LSTM 批內樣本間保持狀態(tài)進(jìn)行 one-char 生成;; 有狀態(tài) LSTM進(jìn)行 one-char 生成; 變長(cháng)輸入 LSTM

    08

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(四)

    ? RNN 實(shí)踐四:RNN 進(jìn)行文本生成 – sequence?
    - 項目:用 LSTM 生成文本序列
    - 項目:深度 LSTM 生成文本
    - 討論:如何進(jìn)一步提高模型 performance

  • 09

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(五)

    ? RNN 實(shí)踐四:RNN 進(jìn)行文本生成 – sequence?
    - 項目:用 LSTM 生成文本序列
    - 項目:深度 LSTM 生成文本
    - 討論:如何進(jìn)一步提高模型 performance
    ? 更多 RNN 模型:
    - -Sequence-to-Sequence 結構和實(shí)現
    Attention 機制、- image captioning 圖像字幕; machine translation 機器翻譯; dialogue generation 對話(huà)生成; 神經(jīng)機器翻譯 Neural Machine Translation; Query泛化 和 Q&A: multiple perspective 機制

    10

    循環(huán)神經(jīng)網(wǎng)絡(luò ) Recurrent Neural Networks – RNN(六)

    ? 無(wú)監督學(xué)習概念、方法和例子
    無(wú)監督學(xué)習方法
    Word Embedding
    Word2Vec:前生今世 - 起因和效果
    Word2Vec:原理和架構
    Word2Vec 訓練
    Auto-Encoder 、Auto-Encoder 概念和訓練
    全連接 Auto-Encoder
    Variational Auto Encoder (VAE)
    Deep Convolutional VAE

以下客戶(hù)都曾參加過(guò)該課程

以下客戶(hù)都曾參加過(guò)該課程

助你快速掌握深度學(xué)習的算法和實(shí)現方法

  • 適合人群
  • 講師介紹
  • B. Ma
    前百度 高級算法工程師
    中國原子能科學(xué)研究院理論物理碩士、中國科學(xué)院軟件研究所博士。
    曾領(lǐng)導重構百度搜索引擎核心模塊,實(shí)現了九年歷史四十萬(wàn)行遺留代碼的優(yōu)化;
    作為量化派技術(shù)總監,帶領(lǐng)技術(shù)部開(kāi)發(fā)和重構了基于金融大數據的借貸交易平臺和信審平臺;
    應用機器學(xué)習技術(shù)在丁丁租房多項在線(xiàn)服務(wù)(推薦 信審 反中介 派單策略 定價(jià)模型等);在Baidu AI 度秘團隊負責NLU策略和模型

快速掌握深度學(xué)習的算法和實(shí)現方法

  • 適合人群
  • 講師介紹
  • B. Ma
    ? 前百度 高級算法工程師
    ? 中國原子能科學(xué)研究院理論物理碩士、中國科學(xué)院軟件研究所博士。
    ? 曾領(lǐng)導重構百度搜索引擎核心模塊,實(shí)現了九年歷史四十萬(wàn)行遺留代碼的優(yōu)化;
    ? 作為量化派技術(shù)總監,帶領(lǐng)技術(shù)部開(kāi)發(fā)和重構了基于金融大數據的借貸交易平臺和信審平臺;
    ? 應用機器學(xué)習技術(shù)在丁丁租房多項在線(xiàn)服務(wù)(推薦 信審 反中介 派單策略 定價(jià)模型等);在Baidu AI 度秘團隊負責NLU策略和模型

為什么msup公開(kāi)課你值得選擇

苛刻要求下設計出的課程體系

每門(mén)課程內容都在教學(xué)講師和研究院同事精心設計下完成,保證教學(xué)目標的準確性與課程結構的邏輯性。幫助企業(yè)帶來(lái)技術(shù)改善和培養人才骨干成長(cháng)

緊跟行業(yè)熱點(diǎn)趨勢

攜手國內外眾多一線(xiàn)技術(shù)大咖,從實(shí)戰案例和行業(yè)技術(shù)趨勢出發(fā),不斷更新迭代課程內容,學(xué)習最前沿、最熱門(mén)的IT技術(shù)和經(jīng)驗

知名教練權威認證

擁有2000+客座教練,均來(lái)自全球知名企業(yè)一線(xiàn)技術(shù)帶頭人,具有多年軟件相關(guān)經(jīng)驗涉及全球技術(shù)管理,戰略設計等方面的最新研究成果,實(shí)戰經(jīng)驗,幫助企業(yè)開(kāi)拓眼界,打開(kāi)思維局限,解決核心人才能力進(jìn)階問(wèn)題。

高端舒適的學(xué)習體驗

客戶(hù)成功團隊全程服務(wù),保障與企業(yè)在整個(gè)項目中的及時(shí)溝通,解決現場(chǎng)問(wèn)題;學(xué)習場(chǎng)地選在五星級酒店,每期課程都會(huì )有一線(xiàn)名企加入,為學(xué)員搭建高端舒適的學(xué)習交流環(huán)境

團隊結業(yè)專(zhuān)屬證書(shū)

成績(jì)合格頒發(fā)業(yè)界認可的權威證書(shū)

十一年的企業(yè)培訓經(jīng)驗

十一年的企業(yè)培訓經(jīng)驗,服務(wù)超過(guò)3000+技術(shù)型企業(yè)已檢驗過(guò)的有效實(shí)踐

往期課程



  • 課程現場(chǎng)


  • 課程現場(chǎng)


  • 課程現場(chǎng)


  • 課程現場(chǎng)


  • 課程現場(chǎng)

為什么msup公開(kāi)課你值得選擇

往期課程


  • 課程現場(chǎng)

  • 課程現場(chǎng)

  • 課程現場(chǎng)

  • 課程現場(chǎng)

  • 課程現場(chǎng)

常見(jiàn)問(wèn)題

  • Q:課程費用

    預約報名成功后,課程費用可通過(guò)銀行對公轉賬,和支付寶掃碼支付的形式;2天培訓課程,包含課程費用,課程學(xué)習資料,兩天午餐(中午12點(diǎn)準時(shí))及下午茶歇等。

  • Q:開(kāi)課通知提醒

    A:報名成功后,工作人員會(huì )通過(guò)郵件和短信的形式通知具體開(kāi)課時(shí)間和地點(diǎn),課程開(kāi)課前還會(huì )另行通知提醒。

  • Q:發(fā)票開(kāi)具流程

    A:確認收到課程費用款項
    工作人員與課程報名聯(lián)系人及時(shí)溝通發(fā)票信息,請報名方確認發(fā)票信息100%無(wú)誤
    在無(wú)外力因素的情況下,發(fā)票將在7個(gè)工作日開(kāi)具并快遞
    msup規定,在收到課程報名費用后,方可按照實(shí)際總金額開(kāi)具,發(fā)票類(lèi)別為增值稅發(fā)票;如果您有特殊需求,可及時(shí)與工作人員溝通

常見(jiàn)問(wèn)題

  • Q:課程費用

    A:預約報名成功后,課程費用可通過(guò)銀行對公轉賬,和支付寶掃碼支付的形式;2天培訓課程,包含課程費用,課程學(xué)習資料,兩天午餐(中午12點(diǎn)準時(shí))及下午茶歇等。

  • Q:發(fā)票開(kāi)具流程

    A:確認收到課程費用款項工作人員與課程報名聯(lián)系人及時(shí)溝通發(fā)票信息,請報名方確認發(fā)票信息100%無(wú)誤,在無(wú)外力因素的情況下,發(fā)票將在7個(gè)工作日開(kāi)具并快遞msup規定,在收到課程報名費用后,方可按照實(shí)際總金額開(kāi)具,發(fā)票類(lèi)別為增值稅發(fā)票;如果您有特殊需求,可及時(shí)與工作人員溝通

  • Q:開(kāi)課通知提醒

    A:報名成功后,工作人員會(huì )通過(guò)郵件和短信的形式通知具體開(kāi)課時(shí)間和地點(diǎn),課程開(kāi)課前還會(huì )另行通知提醒。


查看更多

活動(dòng)詳情

提交需求