ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • cs231n>>lecture. 11
    카테고리 없음 2022. 2. 21. 12:08

    행과 열의 개수 ==> 파라미터 수 

    파라미터수는 적게 하고, 결과(out put 벡터 )는 많이 뽑는 연산(Upsampling) 

    a 벡터 = 인풋 벡터 

    https://openaccess.thecvf.com/content_cvpr_2018/papers/Kendall_Multi-Task_Learning_Using_CVPR_2018_paper.pdf

    뉴럴 네트워크의 아웃풋이 fW(x) 라 한다.

    확률을 --> 가우시안으로 continuous 데이터를  받는다.

    discrete 데이터 = 범주형 데이터

    observation NOise 파라미터 --> sigma

    분류문제를 스칼라값으로 squash 할 수 있음

    가우시안 분포의 notation 이 다음과 같다 

     

     

     

     시그마 = trainable param.

    위 의 두 식에서 , 유사성 파악 가능 . 

     

     

     

     

     

    | 는 결합(joint) 확률을 의미하므로, 

    continuous 한 조건들을 받았을때ㅡ y1 을 추정하는 가우시안 우도 함수와

    소프트맥스( fW(x) 와 시그마2를 continuous 한 조건으로 받았을때, y2을 추정하는 softmax) 를 곱한다

    (각각 독립이라 가정, 시행수 충분--> 독립)

     

    왜 diagonal 만?????????

     

     

Designed by Tistory.