Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 연산량 감소
- outer join
- 1x1 Convolution
- SQL
- get_dummies()
- 정규화
- bottleneck
- SQLD
- mobilenet
- 식별자
- CROSS JOIN
- 데이터모델링
- dfs
- feature map
- pytorch
- Depthwise Separable Convolution
- resnet
- depthwise convolution
- 인접리스트
- 그래프
- numpy
- Two Pointer
- BFS
- 인접행렬
- skip connection
- 백준
- SQLD 후기
- Inductive Bias
- 엔터티
- dp
Archives
- Today
- Total
목록pointwise convolution (1)
SJ_Koding
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/d66K8k/btsGkpxINyi/ah40uEmqypYG8IVoMoVKck/img.png)
- 부제: ConvNeXt이해하기 3편 - Xception에서 제시된 컨셉으로 유명해졌다. 쉽게 이해할 수 있다. 먼저 Depthwise convolution을 알기 전에 일반적인 Convolution 연산을 알아보자. 기본적인 개념으로 Input channel수는 filter channel수와 동일해야하고, filter의 개수는 output channel이 된다. 이것이 일반적인 convolution의 본질이다. 3x3 filter를 기준으로 모든 채널과 인접한 3x3 feature들을 하나의 scalar값으로 바꾸게 된다. Depthwise convolution Depthwise convolution은 convolution 연산을 '채널별로 독립적으로' 수행한다. 즉 다음 그림과 같다. 그림을 보면 ..
Deep Learning
2024. 4. 3. 11:24