Efficient Architecture Design(+AutoML;Neural Architecture Search(NAS))
Network Pruning
중요도가 낮은 파라미터를 제거하는 것
e.g) L2 norm이 크면, loss gradient크면 등등
structured/unstructured pruning으로 나뉨
Knowledge Distillation
이미 학습된 큰 네트워크를 작은 네트워크의 학습 보조로 사용하는 방법
soft targets(soft outputs)에는 ground truth보다 더 많은 정보를 담고 있다.
e.g) 차와 자전거 구분하는데, 자전거 달린 차가 있다면 teacher는 각각을 하드 레이블이 아닌 소프트 레이블로 확률값을 가진다. (g.t보다 많은 정보량)
Matrix/Tensor Decomposition
학습이 완료된 네트워크를 배포하려는 타겟 하드웨어에서 inference가 가능하도록 컴파일하는 것(최적화 동반)
레이어 퓨전
일련의 과정을 따라가 보자! - 경량화 컬렉션