본문 바로가기

AI_학습노트/관련 용어

(6)
_06. 피어슨 상관 계수(Pearson correlation coefficient 또는 Pearson's r) 변수 사이의 선형 관계 조사(Pearson) 두 계량형 변수 사이의 선형 관계의 강도와 방향을 조사하려면 Pearson 상관 계수를 사용합니다. 강도 상관 계수 값의 범위는 −1부터 +1까지입니다. 계수의 절대값이 클수록 변수 사이에 강한 관계가 있습니다. Pearson 상관의 경우 절대값 1은 완전한 선형 관계를 나타냅니다. 0에 가까운 상관 값은 변수 사이에 선형 관계가 없음을 나타냅니다. 방향 계수의 부호는 관계의 방향을 나타냅니다. 두 변수가 함께 증가하거나 감소하는 경향이 있으면 계수가 양수이며, 상관을 나타내는 선이 위쪽 방향으로 기울어집니다. 한 변수가 증가할 때 다른 변수는 감소하는 경향이 있으면 계수는 음수이며, 상관을 나타내는 선이 아래쪽 방향으로 기울어집니다. 다음 그림은 변수 사이 ..
_05.KDE (커널밀도추정: Kernel Density Estimation) 이유한님 타이타닉 EDA 과제: KDE가 무엇인지 공부해 보자!!!! 내가 이해한 KDE: 바(bar)챠트보다 직관적으로 두 데이터의 분포도로 비교분석할 수 있다. 어떤 변수가 가질 수 있는 값 또는 그 값을 가질 가능성의 정도를 추정하는 것으로 밀도 분포도를 그려주는 plot을 kdeplot이라고 한다. *자세한 설명 링크: 링크[1]: KDE 이해 링크[2]: 그래프 이해
_04.[관련용어]빅오 표기법 빅오 표기법의 종류 1. O(1) 입력값이 아무리 커도 실행 시간은 일정합니다. O(1)에 시행되는 알고리즘으로 해시 테이블의 조회 및 삽입이 이에 해당합니다. 2. O(logn) 실행 시간이 입력값에 영향을 받습니다. 그러나 로그는 매우 큰 입력값에도 크게 영향을 받지 않는 편으로 웬만한 n의 크기에 대해서도 매우 견고합니다. 대표적으로 이진 검색이 이에 해당합니다. 3. O(n) 입력값만큼 실행 시간에 영향을 받으며, 알고리즘을 수행하는 데 걸리는 시간은 입력값이 비례합니다. 이러한 알고리즘을 선형 시간 알고리즘이라고 합니다. 정렬되지 않은 리스트에서 최댓값 또는 최솟값 경우가 이에 해당하며 이 값을 찾기 위해서는 모든 입력값을 적어도 한 번 이상은 살펴봐야 합니다. 4. O(n logn) 병합 정렬..
_03.Normalization/ Standardization/Regularization? [자료퍼옴][realblack0.github.io/2020/03/29/normalization-standardization-regularization.html] 딥러닝을 공부하다 보면 “정규화” 라는 용어를 참 자주 접하게 된다. 그런데 애석하게도 Normalization, Standardization, Regularization 이 세 용어가 모두 한국어로 정규화라고 번역된다. 이 세가지 용어가 다름을 알고 난 뒤로부터 가능한 딥러닝 용어들을 한글이 아닌 영어로 쓰려고 하고 있다. 매번 헷갈리는 Normalization, Standardization, Regularization의 차이에 대해서 간략히 정리해둔다. Normalization 값의 범위(scale)를 0~1 사이의 값으로 바꾸는 것 학습 전..
_02.하이퍼 파라미터hyper parameters (머신러닝) Hyper Parameter란 신경망 학습을 통해서 튜닝 또는 최적화 해야하는 주변수가 아니라, 학습 진도율이나 일반화 변수처럼, 사람들이 선험적 지식으로 설정을 하거나 또는 외부 모델 메커니즘을 통해 자동으로 설정이 되는 변수를 말한다. Learning Rate 학습진도율은 “gradient”의 방향으로 얼마나 빠르게 이동을 할 것인지를 결정한다. (보폭이라고도 표현.) 학습진도율이 너무 작으면 학습의 속도가 너무 느리게 되고, 반대로 너무 크면 학습이 안되고 진동할 수 있다. 학습 진도율도 학습 대상이나 망에 따라 적절히 조절해야한다. Cost function (== Loss function) 일반적인 최소자승법(평균오차제곱)을 사용할수 도 있고, cross-entropy 함수를 사용할 수도 있다. ..
_01.[관련용어]Norm Norm Norm은 벡터의 길이 혹은 크기를 측정하는 방법(함수) 입니다. Norm이 측정한 벡터의 크기는 원점에서 벡터 좌표까지의 거리 혹은 Magnitude라고 합니다. p는 Lorm의 차수를 의미합니다. p가 1이면 L1 Norm이고 p가 2이면 L2 Norm입니다. n은 대상 벡터의 요소 수입니다. Norm은 각 요소별로 요소 절대값을 p번 곱한 값의 합을 p 제곱근한 값입니다. 주로 사용되는 Norm은 L1 Norm과 L2 Norm, Maxium norm입니다. 여기서는 L1, L2 Norm에 대하여 살펴보겠습니다. L1 Norm L1 Norm은 p가 1인 norm입니다. L1 Norm 공식은 다음과 같습니다. L1 Norm을 Taxicab Norm 혹은 맨허튼 노름(Manhattan norm)..