본문 바로가기

CS231n2

CS231n Lecture 06. Training Neural Network 인공신경망을 학습시키는 방법에 대해 알아보자 목차 - Activation Functions - Data Preprocessing - Weight Initialization - Batch Normalization - Babysitting the Learning Process - Hyperparameter Optimization Activation Functions 입력을 받아 w와 가중치 연산된 후 활성함수가 적용되어 다음 퍼셉트론으로 이동 Activation Function - Sigmoid 각 입력을 받아서 그 입력을 [0, 1] 사이 값이 되도록 해줌 입력의 값이 크면 Sigmoid의 출력은 1에, 작으면 0에 가깝게 됨 0 근방의 모습은 선형성을 띔 sigmoid의 문제점 1. : Saturated.. 2022. 2. 7.
CS231n Lecture 02 Image Classification 첫 강의, 이미지 분류에 대해- A core task in CV 룰 베이스로 이미지 이해하기 - 불가능! 사람과 달리, 컴퓨터에게 이미지는 아주 큰 격자 모양의 숫자 집합으로밖에 보이질 않는다. 과거의 기계는 [둥근 머리에 세모난 귀 = 고양이] 등과 같은 룰 베이스로 이해했다. 그러나 이것은 실용적이지 못하다. 각도에 따라, 조명에따라, 그리고 위치나 자세에 따라 달라지는 고양이사진을 컴퓨터가 룰베이스로 이해할 수 없다.또 다른 객체(다른 고양이사진)를 인식해야한다면, 별도의 룰을 또 만들어야하는 문제 발생하기 때문. -> 다양한 객체에 통용되는 유연한 알고리즘을 만들어야함! 해결방안 : Data-Driven Approach : Amount of Data set 인터넷에 있는 많은 양의 데이터 셋을 이.. 2022. 1. 11.