Matrix Factorization 矩陣分解

wenwu
Apr 30, 2021

免費閱讀文章:Matrix Factorization 矩陣分解

今日的課程來自於: https://youtu.be/iwh5o_M4BNU?t=4670

本文來介紹矩陣分解的方法。通常我們在尋找兩個變項的關係,而他們之間可能受到某種潛在因素(latent factor)的控制,但是我們通常無法直接知道latent factor是甚麼。

比方,我們可以描述購買者和公仔的屬性,如果這個人與某公仔是match的,他們的vector很像(內積值很大),這個人就很容易買這個公仔

但是! 現實是,我們沒辦法知道購買著與公仔的屬性為何? 所以沒有辦法直接使用latent factor

所以我們可以把每個人的屬性用vector r^A ~ r^E表示,而公仔的屬性是r¹、r²、r³、r⁴ 表示,購買的數量可以用 matrix X表示,X裡面每個元素,都是每個人購買的公仔數量

文章已移至:Matrix Factorization 矩陣分解

更多機器學習自學筆記

機器學習的情境 Scenario
機器學習自學筆記02: Regression: Case Study for ML
機器學習自學筆記03: Where does the error come from? 認識error 的來源,並且知道如何調整model
機器學習自學筆記04: Gradient Descent
機器學習自學筆記05: Classification | Probabilistic Generative Model
機器學習自學筆記06: Logistic regression
什麼? 一連串的Logistic regression 就是類神經網路(Neural Network),也就是Deep Learning !
機器學習自學筆記07: Deep Learning
機器學習自學筆記08: Backpropagation
機器學習自學筆記09: Keras2.0
Convolutional Neural network 卷積神經網路(part1)
Deep-learning 是一個黑盒子? CNN是如何運作的呢? (part2)
CNN的應用 What can CNN do? (Part3)
Tips for Deep Learning-如果Training data 的效果不好怎麼辦?
Tips for Deep Learning-如果Testing data 的效果不好怎麼辦?
Why Deep?
Semi-supervised Learning (半監督式學習)
無監督式學習Unsupervised Learning- Introduction
Unsupervised Learning: PCA
Matrix Factorization 矩陣分解
Unsupervised Learning: Word Embedding
Unsupervised Learning: Neighbor Embedding
Unsupervised Learning: Deep Auto-encoder
Unsupervised Learning: Deep Generation

--

--

wenwu
wenwu

Written by wenwu

離開學校之後,需要一點激勵來持續學習的動力。想到什麼寫什麼,趁著還沒忘記之前通通都寫下來。