AI
[Mnemonics Training]CVPR'2020
아인샴
2024. 6. 2. 12:09
목적 : 이것도 AAnet Introduction 에서 existing CIL methods로 소개했다. 빨리 읽고 12시이후부터는 코딩해봐야한다.
Mnemonics Training: Multi-Class Incremental Learning without Forgetting
Abstract
- Multi-Class Incremental Learning(MCIL) 목표 :이전 개념에 대해 trained model을 incrementally 갱신하여 새로운 개념을 학습시키는 것
- inherent trade-off : Catastrophic forgetting vs learning new concepts
- representativeness of these examples에 크게 좌우된다. 본 논문에서는 mnemonics라는 novel and automactic framework를 제시하는데 examplars를 parametize하고 그것을 end-to-end 방식으로 최적화 할 수 있도록 한다.
- bi-level optimization을 통해 프레임워크를 훈련하고 세가지 실험(CIFAR100,ImageNet-Subset, ImageNet)에서 실험하니 mnemonics exemplars를 쓰는 것이 최첨단 기법보다 큰 폭으로 성능을 향상시켰다.
- 신기하게도 mnemonics exemplars는 boundaries beween classes 근처에 자주 위치한다. (신기하네)
- Random : exemplars들이 early phase에 무작위적으로 샘플링 됨.
- Herding : exemplars들이 early phase에 mean sample의 최근접 이웃들임.