자율주행스터디
-
자율주행스터디 0212자율주행스터디 2022. 2. 12. 11:05
20 *80 bird eye view -- hidden layer 회전할때 localization =-> view 가 많을수록 무거워짐 교차로에서 최대한 수집(1도마다 -->90개) --> 교차로인지 어떻게 알아? --> spatial RNN 이 좋은 이유 초록색: radar 하늘색: 비디오 모듈 uncertainty가 높다가 왜 낮아지다가 어떻게 확정되는지가 궁금했던건데, 들어오는 비디오 입력 시퀀스를 가지고 예측을 하면, 차량 버드아이뷰 앞쪽으로 멀리 있는 곳은 uncertainty가 높다가 차량에 가까워지면 uncertainty가 낮아지다가, 최종적으로 버드아이뷰 영역에 들어오면 불분명한곳이 확정되는 것이 아닐까 생각을 해봤었습니다. 입,출력 순차적일때 : many to many 영화 긍정,부정 -..
-
PR-366: A ConvNet for the 2020s자율주행스터디 2022. 1. 24. 13:36
64채널인데 4채널로 만들고 32개로 만들어서 채널을 늘리고, 그룹을 더 늘림 "Use more groups, expand width" 연산량 줄어듦 96개로 키워줌(채널수 너무 적어서) 연산량 5.3G 로 좀 늘어남 --> inverted bottleneck 으로 연산량 줄어들게 함 4배로 키웠다가 줄이는 형태로 inverted 1*1 conv --> FC 층이랑 동일 transformer 안의 MLP 구조는 4배 키웠다가 줄임 똑같이 사용한다(b 그림) Skip Connection Resnet Conv 5.3G --> 4.6G 로 줄어듦. 보라색인 Depthwise Conv Layer 보라색의 순서를 위로 올린다 커널사이즈를 7*7 로 바꾸게 됨 이게 제일 퍼포먼스가 나음. 겔루를 쓰자 렐루 대신에 ..
-
PR-304: Pretrained Transformers As Universal Computation Engines자율주행스터디 2022. 1. 21. 15:46
일부만 이용--> fpt lstm 보다 좋음? 파라미터는 0.1퍼밖에 되지 않음 자연어 데이터-->pretraining --> vision 으로 시퀀스 길이 1000개 비트 인풋 15 512개의 벡터를 먹임 그레이스케일, 4*4로 자르면 8*8 로 64개의 토큰이 생김 4*4 이미지니까 16짜리 디멘션(시퀀스 랭스가 64) 컬러 이미지 Long Range A gray scale --> 하나하나 bit string 처럼 넣어주는 것 1*1 d이니까 1024개의 토큰 (랭스가 긺) 단백질 접힘 예측 이미지 데이터--> 학습 --> 자연어에 적용? 될 것인가???? transfer 가 잘 될것인지? feedforward 만 추가했을 때 퍼포먼스 올라감 다 추가하면 오버핏 아웃풋 레이어는 반드시 fine tun..
-
PR-243: Designing Network Design Spaces자율주행스터디 2022. 1. 21. 13:43
디자인 스페이스 --> 샘플링 --> 학습--> 에러 분포도 보면 좋은 디자인 스페이스 내에서 있음--> 에러 낮은 데를 찾자! 에러 평균, variance 낮게 하는게 목표 샘플링 에러율이 50프로미만인얘가 60프로이다 복원추출 ( bootstrap ) 파란색연한부분이 베스트 모델(신뢰도 90프로) 구간 body 부분 집중 바디를 4개의 stage로 구성(4가 제일 좋았음) 하나의 스테이지 안에 d 개의 block 존재 1 by 1 bottleneck block 안의 구조에 대한 이미지 group conv 쓴다. 전체채널 100 개 그룹 이 20개다 --> 5개 채널이 한 그룹에 (g_i) g = 그룹 하나에 들어가는 채널의 개수 b_i = 몇분의1로 줄일건지 -- > bottle neck ratio ..
-
자율주행스터디_2_0121(BiFPN)자율주행스터디 2022. 1. 21. 13:01
– While previous works mainly rely on bigger backbone networks [24, 35, 34, 10] or larger input image sizes [13, 45] for higher accuracy, we observe that scaling up feature network and box/class prediction network is also critical when taking into account both accuracy and efficiency 지금까지 더 높은 정확도를 위해 인풋사이즈를 키우거나 백본 네트워크를 크게 하였지만 우리는 이러한 것이 정확도와 효율성을 동시에 생각했을 때 별로라는 생각이 들었다. 서로다른 해상도에서 피쳐들을 강조하는..
-
PyTorch "ShortFormer" - RoBERTa w/Chunks(kaggle study__2)자율주행스터디 2022. 1. 21. 11:29
트랜스포머 모델은 훌륭합니다. 우리 모두는 그들을 사랑합니다. 그러나 Transformer 아키텍처의 핵심인 self-attention 메커니즘에는 메모리 측면에서 (적어도) 입력 시퀀스 길이에 따라 2차적으로 확장되는 행렬 곱셈이 있습니다. 이 연산은 비용이 많이 듭니다. 그리고 이것은 바닐라 트랜스포머 를 긴 시퀀스에서 금지하게 만듭니다. 이것은 우리가 지속적으로 보고 사용하는 BERT와 같은 모델에서 최대 512개의 토큰으로 이어집니다. import os import gc import time from tqdm import tqdm from collections import defaultdict import numpy as np import pandas as pd from sklearn.metric..
-
자율주행 스터디_yolo_0117~자율주행스터디 2022. 1. 17. 22:35
https://www.youtube.com/watch?v=eTDcoeqj1_w 에러가 50프로 일때 0.6 --> 50프로인 얘가 60프로이다 네트웤 디자인을 하는데에 EDF 가 쓰인다 왼쪽으로 갈수록 좋은 것이다 EDF depth wise conv 안좋다 Swish 을 쓰면 depthwise 에서 RELU 보다 좋아진다 숫자4개로 바운딩 박스 표현 클래스 개수에 맞춰서 각 클래스가 얼마만큼 나타날수 있는지? 초록 * 왼쪽 빨강 = Pr(Class_i) P(A|B)P(B) = P(B|A)P(A) 이기 때문에 그리드셀을 중심으로 클래스에 대해 계산하여 두 개 의 바운딩박스로 뭐가 더 큰지 확인(바운딩박스의 개수는 늘릴 수 있음) 한개의 바운딩 박스 안의 데이터는 다음과 같다 이같은 경우 0.5, 0.5 의..