[머신러닝] PCA (Principal Component Analysis) 주성분 분석 선형회귀 차이, 주성분 개수 구하기


[머신러닝] PCA (Principal Component Analysis) 주성분 분석 선형회귀 차이, 주성분 개수 구하기

머신러닝 / 딥러닝 기초를 다지고자 coursera에서 Adrew Ng 교수가 진행하는 머신러닝 강의를 수강하게 되었다. 다음은 Dimensionality Reduction 강의 내용을 정리한 것이다. Data Compression 데이터 압축 Feature dimension(데이터 차원)이 쓸데 없이 너무 높아 중복성(redundancy)가 큰 경우, dimension을 줄일 수 있다. 상관관계가 높은 feature를 찾고 그래프를 그려서 두 feature을 동시에 대표할 수 있는 새로운 line을 찾아내는 방법을 쓸 수 있다. Dimensionality reduction(차원 축소)으로 컴퓨터 메모리에 저장되는 데이터 양을 줄이고, 알고리즘 학습 속도를 높일 수 있다. *Dimensionality reduction이란 feature의 개수를 줄이는 것이지 example의 수를 줄이는 것이 아니다. 즉, m은 같은 크기이며, 각 example의 feature 수 n이 줄어드는 것이...


#coursera #코세라 #주성분분석 #주성분 #이웃환영 #비지도학습 #머신러닝 #대학생 #공부블로그 #개수구하기 #PCA #통계학과

원문링크 : [머신러닝] PCA (Principal Component Analysis) 주성분 분석 선형회귀 차이, 주성분 개수 구하기