Machine Learning - Dimensionality Reduction : PCA


Machine Learning - Dimensionality Reduction : PCA

PCA(Principal Component Analysis)는 번역하자면 주성분 분석입니다. PCA's Goal : 데이터의 분산을 최대한 보존하면서 차원을 축소시키는 방법. 다른 말로, 원래 데이터의 분산을 최대한 보존하게 해주는 기저의 집합을 찾는 것. Basis(기저) : 어떤 벡터공간에서 V 벡터들이 선형독립이면서 벡터공간 전체를 생성할 수 있다면 이 V를 기저라합니다. 2차원을 예로 들면 우리는 (1, 0)과 (0, 1)만 있다면 이 두 개에 상수배를 함으로써 모든 2차원 공간을 표현할 수 있습니다. 따라서 (1,0)과 (0, 1)은 bases가 됩니다. 물론 (2, 0), (0, 2)도 bases가 될 수 있고 bases는 다양합니다. 다만, 확실한 건 2차원의 경우 기저는 2개라는겁니다. The number of bases는 정해져있습니다. 우리는 데이터들을 이 bases에 정사영시킬 것이고 그에 따라 한차원 낮춘 데이터가 만들어 질겁니다. 따라서 이 정사영을 시켰을 때...


#DimensionalityReduction #MachineLearing #PCA #PrincipalComponentAnalysis

원문링크 : Machine Learning - Dimensionality Reduction : PCA