목록Study (5)
JLOG
아래 블로그의 정리글을 참고해 작성되었습니다. 꿈 많은 사람의 이야기 cs231n 강의를 들으면서 공부 기록용으로 작성된 글입니다. Neural Networks를 학습시키는 것에 대해 Part1(6강), Part2(7강)로 나누어서 수업을 진행할 것이다. Activation Functions Activation Function은 Wx에 대해서 input이 들어오면, 다음 노드로 보낼 때 어떻게 보낼지를 결정해주는 역할을 한다. 여기서 중요한 점은 Activation function은 필수적이 요소이고, 비선형 형태여야지 Network를 깊게 쌓을 수 있다는 것이다. -Activation이 없는 경우 -Activation이 선형인 경우 위와 같이 똑같은 형태로 WX+B인 형태가 나옴으로 선형인 경우 Net..
아래 블로그의 정리글을 참고해 작성되었습니다. 꿈 많은 사람의 이야기 cs231n 강의를 들으면서 공부 기록용으로 작성된 글입니다. CNN(Convolution Nerual Network)에 대해서 알아볼 것이다. CNN은 이미지 인식에서 가장 많이 사용하는 구조이다. 고양이 이미지 실험과 같이 어떤 것을 볼 때마다 활성화 되는 부분들을 분석해 적용시킨 것이 CNN의 시초라고 볼 수 있다. LeCun이 소개한 lenet에서 cnn이 제대로 적용되게 된다. CNN은 큰 영역부터 섬세한 영역까지 모두 다룬다. 이후 발전된 형태의 AlexNet도 CNN의 구조이며, ImageNet에서 높은 정확도를 보여주었다. 이런 CNN 구조는 Classification(판별), Retrieval(검색), Detection..
아래 블로그의 정리글을 참고해 작성되었습니다. 꿈 많은 사람의 이야기 cs231n 강의를 들으면서 공부 기록용으로 작성된 글입니다. 전 시간에 Linear score function, loss function(SVM, softmax)+regularization와 optimization에 대해서 알아보았다. Gradient descent(경사하강법)을 계산하는 방법은 Numerical gradient와 Analytic gradient가 있었고 위와 같은 특징들이 존재했다. 보통 gradient check를 할 때 numerical gradient를 사용한다. 지금까지 배웠던 수식을 그림으로 나타내면 위와 같다(Wx → score → loss를 얻는 과정). 이와 같은 그림을 통해 neural network..
아래 블로그의 정리글을 참고해 작성되었습니다. 꿈 많은 사람의 이야기 cs231n 강의를 들으면서 공부 기록용으로 작성된 글입니다. Linear Classifer를 사용할 때 Loss function : score를 이용해 얼마나 적절한지 정량화하기 위해서 Loss function을 정의 Optimization : loss의 값을 최소화하는 parameters를 찾기 위한 효율적인 방법을 정의 Loss function SVM(hinge loss) loss function은 현재 classifier가 얼마나 좋은지 알려준다. SVM loss 추측한 score(sj)가 정답 score(syi)보다 1 이상으로 높을 때, sj-syi+1 값을 Loss로 반환한다. 1 미만일 때는 0 값을 Loss로 반환한다...
강의 영상https://www.youtube.com/watch?v=OoUX-nOEjG0&list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv한글 번역https://github.com/visionNoob/CS231N_17_KOR_SUB/blob/master/kor/Lecture 2 Image Classification.ko.srt 참고 : Python + Numpy 튜토리얼 1. Image Classification컴퓨터가 Image classification을 하려면 입력 이미지, label(고양이, 개 등 카테고리)이 필요하다. 컴퓨터에서 발생되는 문제들1) Semantic Gap (의미론적 차이)컴퓨터에게 이미지는 큰 격자 모양의 숫자 집합으로 이루어져 있어, 객체를 인식하기에는 어..