본문 바로가기

AI_학습노트

(25)
_10.[CS231n]Lecture7. CS231 보기전 머신러닝 인스톨하기 DL-CNN을 이용한 이미지 인식의 개념정리 Lecture1. Introduction to Deep Learning for Computer Vision. Lecture2. Image Classification Lecture3. Linear Classifiers Lecture4. Optimization Lecture5. Neural Networks Lecture6.Backpropagation Lecture7.CNN(Convolutional neural network) 7.1 Convolutional Network 7.2 Convolutional Network 7.3 Convolutional Network 7.4 Convolutional Network 7.5 Convol..
_09.[CS231n]Lecture6. CS231 보기전 머신러닝 인스톨하기 DL-CNN을 이용한 이미지 인식의 개념정리 Lecture1. Introduction to Deep Learning for Computer Vision. Lecture2. Image Classification Lecture3. Linear Classifiers Lecture4. Optimization Lecture5. Neural Networks Lecture6.Backpropagation 6.1 How to compute gradients? 6.2 Another Example 6.3 Backprop with vector 6.4 숙명여대 한국어 강의 [링크1] (01:01:00부터) 숙명여대 한국어 강의 [링크2] 6.1 How to compute gradients?..
_08.[CS231N]Lecture5. CS231 보기전 머신러닝 인스톨하기 DL-CNN을 이용한 이미지 인식의 개념정리 Lecture1. Introduction to Deep Learning for Computer Vision. Lecture2. Image Classification Lecture3. Linear Classifiers Lecture4. Optimization Lecture5. Neural Networks 5.1 개요 5.2 Fully-connected neural network 5.3 Space Warping 5.4 Universal Approximation 5.5 Convex Function 숙명여대 한글강의 [링크](55분 부분부터) 5.1 개요 선형분류 모델은 몇가지 문제가 있습니다. 선형분류로 분류되지 않는 문제와 템..
_07.[CS231N] Lecture4. CS231 보기전 머신러닝 인스톨하기 DL-CNN을 이용한 이미지 인식의 개념정리 Lecture1. Introduction to Deep Learning for Computer Vision. Lecture2. Image Classification Lecture3. Linear Classifiers Lecture4. 최적화(Optimization) 4.1 optimization 개요 4.2 Computing Gradients Numeric gradient Analytic gradient 4.3 Stochastic Gradient Descent(SGD) 4.4 SGD 변형 (5가지) 숙명여대 한국어 강의:[링크] 이번 강의부터는 드디어 한국어 강의 영상을 같이 볼 수있게 되었다. 숙명여대 최영근 교수님의 강..
_06.[CS231N] Lecture3. CS231 보기전 머신러닝 인스톨하기 DL-CNN을 이용한 이미지 인식의 개념정리 Lecture1. Introduction to Deep Learning for Computer Vision. Lecture2. Image Classification Lecture3. Linear Classifiers 3.1 선형 분류기(Linear Classification) 3.2 선형분류기 세가지 관점 3.3 손실함수 (Loss Function) 3.3-1 Milticlass SVM Loss 3.3-2 Regularization 3.3-3 Cross-Entropt Loss Assignment2:[링크] *이번 강의부터는 Michigan CS231n강의를 한국 숙명여대 통계학과에서 번역하여 수업하는 슬라이드를 가지고 학습..
_02.하이퍼 파라미터hyper parameters (머신러닝) Hyper Parameter란 신경망 학습을 통해서 튜닝 또는 최적화 해야하는 주변수가 아니라, 학습 진도율이나 일반화 변수처럼, 사람들이 선험적 지식으로 설정을 하거나 또는 외부 모델 메커니즘을 통해 자동으로 설정이 되는 변수를 말한다. Learning Rate 학습진도율은 “gradient”의 방향으로 얼마나 빠르게 이동을 할 것인지를 결정한다. (보폭이라고도 표현.) 학습진도율이 너무 작으면 학습의 속도가 너무 느리게 되고, 반대로 너무 크면 학습이 안되고 진동할 수 있다. 학습 진도율도 학습 대상이나 망에 따라 적절히 조절해야한다. Cost function (== Loss function) 일반적인 최소자승법(평균오차제곱)을 사용할수 도 있고, cross-entropy 함수를 사용할 수도 있다. ..
_01.[관련용어]Norm Norm Norm은 벡터의 길이 혹은 크기를 측정하는 방법(함수) 입니다. Norm이 측정한 벡터의 크기는 원점에서 벡터 좌표까지의 거리 혹은 Magnitude라고 합니다. p는 Lorm의 차수를 의미합니다. p가 1이면 L1 Norm이고 p가 2이면 L2 Norm입니다. n은 대상 벡터의 요소 수입니다. Norm은 각 요소별로 요소 절대값을 p번 곱한 값의 합을 p 제곱근한 값입니다. 주로 사용되는 Norm은 L1 Norm과 L2 Norm, Maxium norm입니다. 여기서는 L1, L2 Norm에 대하여 살펴보겠습니다. L1 Norm L1 Norm은 p가 1인 norm입니다. L1 Norm 공식은 다음과 같습니다. L1 Norm을 Taxicab Norm 혹은 맨허튼 노름(Manhattan norm)..
_05.[CS231N] Lecture2. CS231 보기전 머신러닝 인스톨하기 DL-CNN을 이용한 이미지 인식의 개념정리 Lecture1. Introduction to Deep Learning for Computer Vision. Lecture2. Image Classification 2.1 이미지 분류(Image Classification) 2.2 데이터 기반 접근(Data-Driven Approch) 2.3 Nearest Neighbor Classifier 2.4 k-최근접 이웃 분류기(k-Nearest Neighbor Classifier) 2.5 하이퍼파라미티 조정을 위한 검증셋(Validation sets for Hyperparameter tuning) Assignment1:[링크] 실습 자료: CIFAR10 데이터셋 다운받기 이번 강..