전체 글
-
p value카테고리 없음 2022. 1. 26. 18:06
https://en.wikipedia.org/wiki/P-value "p 밸류는 확률" 으로 어떤확률이냐면, H_o (귀무가설)가 주어졌을때(참이라고 가정) "알지못하는 분포 T" 가 t(관측된 값,검정통계량,귀무가설에 따른 분포로 계산된 값) 값보다 클 확률 을 말합니다(right tail일 경우), 이 p 값이 작을 경우 귀무가설은 거짓이 됩니다. The p-value is a function of the chosen test statistic {\displaystyle T}T and is therefore a random variable. p밸류는 테스트 통계량 T 를 뽑는 함수입니다. 그래서 p 밸류는 랜덤 베리어블(확률변수)입니다. 통계적 가설은 정의에 따라 분포의 일부 속성을 기술하므로 귀무 ..
-
cs231n 6강 batch normalizatioin + babysitting카테고리 없음 2022. 1. 24. 17:12
이 글은 이 lecture 를 바탕으로 기술되었습니다. 하나의패턴을 보고 파라미터를 조정해 나가는것 베이비 시터--> 얘기 다르게 눕혀보고 잘자나? Batch 단위로 학습을 하게 되면 Batch 단위간에 데이터 분포의 차이가 발생할 수 있습니다. 즉, Batch 간의 데이터가 상이하다고 말할 수 있는데 위에서 말한 Internal Covariant Shift 문제입니다. 공간적 구조를 유지하는게 Conv 의 핵심 batch norm--> 공간적 구조 유지 못함 0으로나누는것을 방지하기 위해 엡실론 추가 높은 학습률 = 카페인 . 이리저리 분산되어 있으면 커피를 아무리 마셔도 시험성적에서 좋은 점수를 받기 힘들다. 집중 정신, 컨텍스트에 집중하는 정도 = batch normalization 학습된 데이터는..
-
cs231n :6강 Jacobian 우리가 알 수 있나? 왜 쓰는 것일까? 역행렬 써도되나?카테고리 없음 2022. 1. 24. 15:53
분모항에 들어가는 ad - bc를 우리는 determinant라고 부르며, 이것을 통해서 invertible한지 안한지 알 수가 있다. 이것이 0이 된다면 invertible하지 않은 것이고, 0이 아니라면 invertible한 것이다. 자주 사용되니 알아두면 좋다. I'll add a pointer to a more specialized result: for harmonic maps between open subsets of ℝ^2, being invertible implies that the Jacobian is invertible at every point. This is a theorem of H. Lewy (1936). Unfortunately it fails in higher dimension..
-
정규화 ridge(L2), lasso(L1) 와 ElasticNet 의 차이확률 및 통계 2022. 1. 24. 14:44
grid Search -->모든 조합 계산 Error 최소화되는 점 찾기 --> lambda 1,2 찾기 Prior Knowledge 를 이용해서 제약을 가해보자 ! 람다가 무한대면 베타에 대해서 제약을 많이 가한다 모든 베타가 0이될수없어서 constant 한 값을 가진다 tunning parameter t -> 0 이 감으로 제약을 가함 중간에 0으로 떨어지는 변수가 있음(빨간색 기준) selection 되는 효과가 있음(lasso에는) solution path lasso 마름모 형태로 나타남 모서리에서 0 이 되서 베타 값이 0 이되는 경우가 발생
-