棒棒生

讓學習變成一種習慣


  • 首頁

  • 分類

  • 關於

  • 歸檔

  • 標籤

TF Notes (5), GRU in Tensorflow

發表於 2018-07-30 | 分類於 ML

小筆記. Tensorflow 裡實作的 GRU 跟 Colah’s blog 描述的 GRU 有些不太一樣. 所以做了一下 TF 的 GRU 結構. 圖比較醜, 我盡力了… XD

TF 的 GRU 結構

u 可以想成是原來 LSTM 的 forget gate, 而 c 表示要在 memory cell 中需要記住的內容. 這個要記住的內容簡單講是用一個 gate (r) 來控制之前的 state 有多少比例保留, concate input 後做 activation transform 後得到. 可以對照下面 tf source codes.

閱讀全文 »

(what is) Probabilistic Graphical Models

發表於 2018-06-16 | 分類於 ML

本篇主要介紹什麼是 PGM, 以及一個很重要的應用 Part-of-Speech tagging. PGM 的部分主要圍繞在 “它是什麼?” 也就是 Koller 課程的 Representation. Inference 不討論, 因為自己也沒讀很深入 (汗), 而 Learning 就相當於 ML 裡的 training, 會在介紹 POS 時推導一下.

文章結構如下:

  • What is Probabilistic Graphical Model (PGM)?
  • What is Bayesian Network (BN)?
  • What is Markov Network (MN)? (or Markov Random Field)
  • What is Conditional Random Field (CRF)?
  • Part-of-Speech (POS) Tagging
  • References

文長…

閱讀全文 »

Kaldi Notes (1), I/O in C++ Level

發表於 2018-05-31 | 分類於 ML

Kaldi I/O C++ Level 筆記, 主要介紹以下幾點, 以及它們在 Kaldi c++ 裡如何關聯:

  1. 標準 low-level I/O for Kaldi Object
  2. XXXHolder類別: 一個符合標準 low-level I/O 的類別
  3. Kaldi Table Object: <key,value> pairs 組成的 Kaldi 格式檔案 (scp, ark), 其中 value 為 XXXHolder 類別
閱讀全文 »

TF Notes (4), Deconvolution

發表於 2018-05-09 | 分類於 ML

這篇是個小練習, 就兩點:

  1. 了解什麼是 deconvolution, 並在 tensorflow 中怎麼用
  2. 實作一個 CNN AutoEncoder, Encoder 用 conv2d, Decoder 用 conv2d_transpose
閱讀全文 »

ROS in Self-driving Car system

發表於 2018-04-15 | 分類於 ML

這是經歷了漫長的時間, 最後的一哩路了….從2016年12月開始, 到2018年4月中, 花了整整一年五個月. 其實我原先打算半年前就畢業的, 但是中途有狀況, 所以只好 term2 完成後停了半年才開始 term3, 也因此到昨天才剛確定畢業! 而昨天剛好也參加了 Udacity 在中國兩周年的會, 見到了 David Sliver 本人, 算是畢業的一個小紀念!

最後的 project 比較有別於以往, 採用 team work 的方式. 我們的 team 共五人, team lead Franz Pucher 德國, Theodore King 美國, 和我. 疑? 另外兩個呢? 對於 project 完全沒貢獻…我不想說了….= =

閱讀全文 »

Udacity-Semantic-Segmentation

發表於 2018-03-06 | 分類於 ML

Udacity SDC term 3 第二個 Project 做的是使用 Deep Learning 學習識別 pixel 等級的路面區域. 簡單講就是有如下的 ground truth data, 標示出哪邊是正確的路面, 然後用 Fully Convolutional Network 去對每個 pixel 做識別.


閱讀全文 »

Mixtures of Factor Analyzers

發表於 2018-02-11 | 分類於 ML

這篇使用 Bishop PRML 的 notations, 同使參考 Zoubin Ghahramani and Geoffrey E. Hinton (沒錯, 就是那位 Hiton, 另外, 第一作者也是神人級別, 劍橋教授, Uber 首席科學家) 1997 年的論文 “The EM Algorithm for Mixtures of Factor Analyzers“, 實作了 Mixtures of Factor Analyzers, 臥槽! 都20年去了! My python implementation, github. 關於 EM 的部分會比較精簡, 想看更多描述推薦直接看 PRML book.

文章主要分三個部分

  1. 什麼是 Factor Analysis, 以及它的 EM 解
  2. 推廣到 mixtures models
  3. 語者識別中很關鍵的 ivector 究竟跟 FA 有什麼關聯?

直接進入正題吧~

閱讀全文 »

Path-Planning-Udacity-Term3-Project1

發表於 2018-02-06 | 分類於 ML

停了半年 的 Udacity Self Driving Car (SDC) Program, 終於又開始了. 做為 Term3 的第一個 Project, 我抱著高度的期待. 不過完成後, 有點小失望. 失望的原因是這個 project 跟課程上的連結感覺不是那麼明顯. 例如課程上有講到 A*, hybrid A* 的算法, 但 project 是模擬 highway drive, 因此 A* 比較不適合 (適合在 parking lot 場景). 另外也有提到怎麼降低 jerk (加速度的微分, 主要是不舒適的來源), 當參考內容是很好, 不過在寫 Project 時感覺也不大需要.

這篇就是個紀錄, 會很水. 方法很簡單, 一張圖解決:

閱讀全文 »

Maximum Mutual Information in Speech Recognition

發表於 2017-12-16 | 分類於 ML

Maximum Mutual Information (MMI) 序列的鑑別性訓練方法從早期的 GMM-HMM, 到現今就算使用了深度學習同樣十分有用, 如 Kaldi chain model 在 DNN-HMM 的基礎上加上序列鑑別訓練, 性能會再進一步提升. 前一陣子讀了俞棟、鄧力的這本 語音識別實踐, 對我來說整理得滿好的, 就是數學部分的推導有點簡潔了些, 所以這篇就基於該書的推導, 補齊了較詳細的步驟, 並且嘗試使用 Computational graph 的方式理解 MMI 的訓練. 那麼就開始吧!

用自己畫的 MMI 的計算圖譜當封面吧 :)

閱讀全文 »

TF Notes (3), Computational Graph in Tensorflow

發表於 2017-11-29 | 分類於 ML

這篇介紹 computational graph (計算圖譜), 主要來源參考自李宏毅教授的課程內容. 並且我們使用 tensorflow 的求導函數 tf.gradients 來驗證 computational graph. 最後我們在 MNIST 上驗證整個 DNN/CNN 的 backpropagation 可以利用 computational graph 的計算方式訓練.

閱讀全文 »
1…8910…12
Chih-Sheng Chen

Chih-Sheng Chen

112 文章
5 分類
231 標籤
© 2025 Chih-Sheng Chen
由 Hexo 強力驅動
主題 - NexT.Mist
[object Object] [object Object]