CS231n
-
-
-
cs231n 추가자료 activation map, strideCS231n 2022. 1. 24. 11:38
15. Prior probability Prior 확률이란, 파라미터의 확률 분포를 의미한다. 데이터 x는 파라미터 즉, 모델을 통해 나타내어 지는데 이 때 파라미터에 사전 지식을 반영한 것이 prior이다. 16. Likelihood Likelihood란, P(x|θ) 로 데이터 x를 파라미터 θ를 통하여 나타내는 걸 의미한다. 이 값은 파라미터 즉 모델이 예측한 데이터 x의 각 확률을 전부 곱하여 구한다. 감독학습에서의 Likelihood 는 P(y|x; θ) 이며, 이는 모델에 x라는 input을 넣었을 때 예측 되는 y 확률들을 전부 곱한 값을 의미한다.
-
-
cs231n 보충 자료 모아놓은 글CS231n 2022. 1. 17. 10:26
joint 결합확률은 product 와 같다! 이 부분은 몰랐던 부분이다 Many authors use the term “cross-entropy” to identify specifically the negative log-likelihood of a Bernoulli or softmax distribution, but that is a misnomer. Any loss consisting of a negative log-likelihood is a cross-entropy between the empirical distribution defined by the training set and the probability distribution defined by model. For example, mea..
-
Lecture 3~8 | Loss Functions and Optimization---loss function에 대한 단상CS231n 2022. 1. 10. 11:39
(X_T * X )_ -1 = X _-1 * X_T_-1 , X _-1 * X_T_-1 * X_T = X_-1 * I (eigenvector I). = X_ -1 (X의 역행렬) X_ -1 (X의 역행렬) * y = 베타_햇 (예상치 파라미터) y = 정답지 y = X *베타_햇(실제값 * 예상치 파라미터) 예상치 파라미터 베타_햇 이 작아져야 합니다!!! 이건 회귀계수 라고도 부름. 앞으로 햇이 붙은 것은 추정치라고 생각합니다! LOSS 함수의 첫번째 항은 Variance 인데, 이게 최소가 되어야 한다!! 뒤의 항은 BIAS 로, 베타를 이용해 표현한다! 총쏘는데 분산되면 안되니까 분산값은 최소로 하고 베타를 이용해 적이 표적지 다른 데에서 나타나도 표적지만 맞추지않게 바이어스를(거리를) 좀 주는 것..