본문 바로가기

머신러닝 읽어주는 남자

모바일넷

반응형

mnasnet, 셔플넷

 

 

기존 컨볼루션

기존 컨볼루션

 

모바일넷 v1에서 제안된 depth-wise, point-wise 컨볼루션(separable convolution)

입력: h*w*d(d는 채널수)

커널: k*k*d*d'(d'는 필터수)

 

기존 연산량: h*w*d*k*k*d'

separable 연산량: h*w*d*(k^2+d')

1/d'+1/(k^2)  보통 1/8, 1/9 수준으로 줄어들음

 

Width multiplier: 채널을 일정한 비율로 줄이기

resolution mutilplier: 이미지 크기를 일정 수준으로 줄이기

 

v2

separable

linear bottleneck layer

relu 쓰면 성능 떨어짐

inverted resudual blocks

 

기존 residual

inverted residual block : 메모리 효율이 많음

 

bottleneck residual block 

기존 연산량: h*w*d*k*k*d'

separable 연산량: h*w*d*(k^2+d')

v2 연산량:  h*w*d*t*(k^2+d'+d") where t=expansion factor, d" output channel, d': input ch

 

실제로 연산량 60프로 수준임

 

나스넷, 셔플넷에 비하면 근소하게 좋음.

반응형