본문 바로가기

분류 전체보기67

5강- 조건부 확률과 전확률정리 (Conditioning Continued, Law of Total Probability) 본 글은 부스트코스 '[하버드] 확률론 기초 : Statistics 110' 강의를 듣고 정리한 내용입니다. This article was writed after listening to the boost course '[Harvard] Basics of Probability: Statistics 110'. 2022. 5. 2.
4강- 조건부 확률 (Conditional Probability) 본 글은 부스트코스 '[하버드] 확률론 기초 : Statistics 110' 강의를 듣고 정리한 내용입니다. This article was writed after listening to the boost course '[Harvard] Basics of Probability: Statistics 110'. We will know more about conditional probability in next class. 2022. 4. 22.
3강- Birthday Problem과 확률의 특성 (Birthday Problem, Properties of Probability) 본 글은 부스트코스 '[하버드] 확률론 기초 : Statistics 110' 강의를 듣고 정리한 내용입니다. This article was writed after listening to the boost course '[Harvard] Basics of Probability: Statistics 110'. 2022. 4. 22.
2강- 해석을 통한 문제풀이 및 확률의 공리 (Story Proofs, Axioms of Probability) 본 글은 부스트코스 '[하버드] 확률론 기초 : Statistics 110' 강의를 듣고 정리한 내용입니다. This article was writed after listening to the boost course '[Harvard] Basics of Probability: Statistics 110'. 2022. 4. 20.
1강- 확률과 셈 원리 (Probability and Counting) 본 글은 부스트코스 '[하버드] 확률론 기초 : Statistics 110' 강의를 듣고 정리한 내용입니다. This article was writed after listening to the boost course '[Harvard] Basics of Probability: Statistics 110'. We will discuss about why Replace/No order case is like that in next course. 2022. 4. 19.
Introduction of C - Why we should learn C Why we have to learn C? 1. We can learn computer memory architecture by learning and using C. 2. Almost every computer science languages are based on C. So studying C will help to encourage your other language ability. Basic architecture of Computer CPU(Central processing unit) Memory(RAM) All data will be lost when we turn off our PC - For speed Graphics Card GPU - main computer in graphics car.. 2022. 2. 28.
Regularization과 Normalization 모델의 성능을 높이고, 오버피팅을 방지하는 Regularization과 Nomalizaton을 알아보자 Regularization : 정칙화 오버피팅을 해결하기 위한 방법 L1, L2 Regularization, Dropout, Batch normalization 등이 있음 모델이 train set의 정답을 맞히지 못하도록 오버피팅을 방해(train loss가 증가) 하는 역할 train loss는 약간 증가하지만 결과적으로, validation loss나 최종적인 test loss를 감소시키려는 목적 Normalization : 정규화 데이터의 형태를 좀 더 의미 있게, 혹은 트레이닝에 적합하게 전처리하는 과정 데이터를 z-score로 바꾸거나 minmax scaler를 사용하여 0과 1사이의 값으로 .. 2022. 2. 11.
딥러닝 레이어 이해하기 Embedding Layer, Recurrent layer 자연어 처리 분야에 잘 이용되는 embedding, recurrent layer에 대해 알아보자 단어의 희소 표현(Sparse Representation) 벡터의 특정 차원에 단어 혹은 의미를 직접 매핑하는 방식 예) 사과: [ 0, 0 ] , 바나나: [ 1, 1 ] , 배: [ 0, 1 ] 일떄, 첫 번째 요소는 모양(0:둥글다, 1:길쭉하다)을 나타냄 두 번째 모양은 색상(0:빨강, 1:노랑)을 나타냄 배는 모양 기준으로는 사과와 가깝고, 색상 기준으로는 바나나와 가깝다는 것을 표현할 수 있음 단어의 분산 표현(Distributed Representation) 분포 가설(distribution hypothesis)? : 유사한 맥락에서 나타나는 단어는 그 의미도 비슷하다 맥락? - 좌우에 출현하는 .. 2022. 2. 9.
딥러닝 레이어 이해하기 linear, Convolution 딥러닝 모델 속 각 레이어(Linear, Convolution)의 동작 방식을 이해하고, 텐서플로우로 정의해보자 데이터 이미지 데이터 표기법 - Channel, Width, Height의 이니셜로 (C, W, H), (W, H, C)와 같이 표기 Layer? 하나의 물체가 여러 개의 논리적인 객체들로 구성되어 있는 경우, 이러한 각각의 객체를 layer라 칭함 Linear layer? (Fully Connected Layer, Feedforward Neural Network, Multilayer Perceptrons, Dense Layer... 등 다양한 이름으로 불림) 역할 - 선형 변환을 이용해 데이터를 특정 차원으로 변환 저차원화 : 데이터 집약 고차원화 : 데이터 더 풍부하게 표현 변환 코드(Te.. 2022. 2. 8.