티스토리 뷰

AI

0325 papers + CI-UDA

아인샴 2024. 3. 25. 21:21

https://www.sciencedirect.com/science/article/abs/pii/S0893608024001540

https://arxiv.org/pdf/2301.00265.pdf

Source-free unsupervised domain adaptation: A survey (Neural Network)

  • 선정이유 : from 2024, 인용수 24!
  • 실제 데이터를 다루는ImageNet같은 경우 민감한 정보보호가 잘 되지 않고 경제적(디스크,전송)이지도 않다.
  • Thus, there is a high demand for source-free unsupervised domain adaptation (SFUDA) methods that transfer a pre-trained source model to the unlabeled target domain without accessing any source data (Huang et al., 2021, Kundu, Venkat, Babu, et al., 2020, Nayak et al., 2021, Yang, van de Weijer, et al., 2021).
  • 화이트박스 SFUDA vs 블랙박스 SFUDA : 
    • whether the model parameters of the pre-trained source model are available or not. 
  • 화이트박스와 블랙박스 SFUDA 방법을 비교한 다음, summarize strategies to improve model generalizability.
  • SFUDA 연구를 화이트/블랙박스로 그룹핑했고 각 그룹에서 다양한 학습 전략기반으로 학습을 진행했다. 그 전략들에 대한 insight를 제공하며, 각 methods를 비교하며 DA 성능향상을 위한 테크닉에 대해 토론하고자 한다.

 

 


  • 레이블이 지정되지 않은 대상 도메인으로 지식 전달을 수행하는 많은 소스 없는 비지도 도메인 적응(SFUDA) 방법이 제안되었다.
  •  many source-free unsupervised domain adaptation (SFUDA) methods have been proposed recently, which perform knowledge transfer from a pre-trained source model to unlabeled target domain with source data inaccessible.
  • Tian et al : 설계된 sample transport rule guidance에 따라 제공된 target 샘플로 부터 pseudo source amples를 직접 구성했다. The adaptation 단계와 sample transport learning 단계는 approximated 소스 도메인을 정제하고 target data에 대한 신뢰할 수 있는 레이블을 달성하기 위해 교대로 수행되어 효과적인 도메인 간 지식 적응을 달성한다.
  • Ding et al : prototype similarity measurement를 기반으로 pseudolabeled target 샘플을 사용하여 category-balanced surrogate source domain를 구축했다. 모델 적응 중에 intra-domain과 interdomain mixup regularizations을 도입하여 프록시 소스 도메인에서 target domain로 레이블 정보를 transfer 할 뿐만 아니라 노이즈가 많은 레이블에 의해 발생하는 부정적인 영향을 동시에 제거한다
  • Ye et al : high prediction confidence과 target samples을 선택하여 source distribution을 모방한  virtual source 세트를 구성한다.
    • Ye et al. select target samples with high prediction confidence to construct a virtual source set that mimics source distribution. To align the target and virtual domains, they develop a weighted adversarial loss based on distribution and an uncertainty measurement to achieve cross-domain adaptation. Moreover, an uncertaintyaware self-training mechanism is proposed to iteratively produce the pseudo-labeled target set to further enhance adaptation performance.
  • Du et al : 먼저 entropy criterion를 기반으로 source prototypes 근처의 대상 샘플을 선택한 다음 혼합 augmentation strategy 으로 확장하여 surrogate source domain을 구성한다[35]. 그런 다음 adversarial training을 사용하여 도메인 간 distribution gap을 명시적으로 완화한다.
  • Yao et al : source model을 동결하고 최적화를 위한 supervised objective function을 최소화함으로써 proxy source domain을 시뮬레이션한다.(?)

 

일단 여기까지만 보자. 

--------------

저녁은 의성마늘 닭갈비였다.  두부랑 약간의 밥+ 통파랑 어슷썬 파를 넣어서 볶아 먹었다. 소화가 얼마나 잘되는지 안먹은것 같음

--------------

A comprehensive survey on source-free domain adaptation

https://arxiv.org/pdf/2302.11803.pdf

  • 선정이유 : IEEE 인용수 16 (근데 읽다보니 이것도 survey 인듯) -survey 가 중간에 숨어있었다. 
  • 민감한 도메인관련 데이터에는 접근을 못하니 최근 소스가 없는 source-free Domain Adaptation(SFDA) 연구의 관심이 늘고 있다. 
  • 관련 survey도 없으니 접근 방식과 각 방법의 여러 구성요소를 모듈화 해 메커니즘을 잘 설명하여 Transfer learning 학습프레임워크 기반으로 분류할 것이다. 그리고 SFDA 관련분야의 응용프로그램을 간략하게 소개한다. 
  • 독립적인 균질 분포의 조건하에서 domain adaptation의 가장 큰 과제는 the domain shift을 어떻게 줄일 것인가 하는 것인데, 이는 주로 conditional shift, covariate shift, label shift 및 concept shift로 분류될 수 있다.
  •   
  • SFDA와 UDA(Unsupervised Domain Adaptation)의 가장 중요한 차이점 :  UDA 모델은 Src domain 데이터와 Target Domain 데이터를 모두 사용해 학습가능한 반면 SFDA는 소스 모델을 통해 대상 모델을 초기화한 다음 Unlabeled target data 로 업데이트 한다
  • UDA 두가지 주류 : those that align the source and target domain distributions by designing specific metrics, and those that learn domain-invariant feature representations through adversarial learning 
  • 그러나 이러한 방법은 Src Domain 데이터가 없는 시나리오에는 부적합하여  Source free DA방법을 찾아봅니다. We depict the overall topology of SFDA methods in Fig. 2.
  •  

  • 모델 중심 관점에서 볼 때 대부분의 접근 방식은 source-pretrained model이  target domain에 대해 어느 정도 generalization되어 있다고 가정한다. 소스 도메인과 대상 도메인이 유사하기 때문이다. -> fine-tuning 가능
  • 이러한 학습방식 : 준지도학습, 의사라벨링,엔트로피 최소화 및 대조 학습
  • Pseudo Labeling은 SFDA에서 가장 일반적으로 사용되는 방법이기에 주목된다. target domain에서 신뢰도가 높은 샘플을 먼저 Pseudo Labeling 하고 이후에 얻은 Pseudo Label을 사용하여 모델을 최적화함으로써 달성된다. 따라서 고품질 의사 라벨을 얻는 방법이 이 방법 범주의 주요 관심사입니다
  • 여기선 프로토타입 생성, pseudo-label assignment 및 pseudo-label filtering.에서 각 프로세스를 기반으로 이 기술 경로를 포괄적으로 논의한다. 
  • 30개 이상의 대표적인 작업을 모듈화하고 데이터셋 Office-31, Office-home 및 VisDA에 대한 결과를 비교한다. 
  •  

완전 유용해 보이는 표

  • 도메인은 일반적으로 데이터 셋Φ 과 이에 상응하는 라벨 셋L을 포함한다. 
  • SFDA에서 소스 도메인 Ds = {{Xs,P(Xs),ds},Ls}는 일반적으로 complete 하지만 pre-training 중에만 사용할 수 있음에 유의한다. P(x)는 x의 marginal distribution , X는 intance set, Ds는 source domian, 
  • Dt = {{X t ,P (X t ), dt}} 에서 Lbel set은 쓸 수 없다. 그리고 P(Xt)인 marginal distribution 또한 source도메인과 다르다. 
  •  

  • 이것도 survey라서 여기까지만 보자. (점점 집중력이 짧아지는 듯)

Class-Incremental Unsupervised Domain Adaptation via Pseudo-Label Distillation

https://ieeexplore.ieee.org/abstract/document/10416303

 

 

  • 선정 이유 : 증분학습에 관심이 있어서 더해봤다. (IEEE)그리고 확실히 pseudo-label은 인기가 맞는것 같구나. 

Abstract : 

class-level 에서는 confident  한 target sample과 src domain 간의 feature representation 을 맞추고(align), instance-level에서는 unconfident target sample의 robust featrue representation을 활용하는 Contrastive Algignment를 제안한다. 이를 통해 domain adaptation의 performance을 향상시키고자 한다.

더보기
  • CU-UDA (Class-Incremental Unsupervised Domain Adaptation) : 모델이 src 라벨 데이터셋을 계속 사용하는 동안 언라벨 타겟도메인 샘플을 포함시킨 상태도  여러 step 학습을 재개할 수 있어야 한다. CI-UDA에서 이 문제의 중점은 src domain에서 target domain으로 domain-invariant knowledge를 transfer 하고 continual adaptation process의 이전 단계 knowlege를 보존하는 것이다. 
  • 그러나 기존 방법은 현재 step에 대해 훨씬 biased source knowledge 를 전하며 이는 negative transfer 과 불만족스러운 성능을 야기한다. 이러한 문제를 해결하기 위해 Pseudo-Label Distillation Continual Adaptation (PLDCA)라는 방법을 제안한다. 

  • target domain 의 discriminative information 을 활용하여 class 및 instance 수준에서 biased knowledge를 필터링하기 위해  Pseudo-Label Distillation 모듈을 설계한다. 또한 confident target samples와 source domain의 class-level feature representation을 align하여 domain discrepancy을 줄이고  instance 수준에서 unconfident target samples의 robust feature representation을 활용하기 위해  Contrastive Alignment을 제안한다. 광범위한 실험을 통해 PLDCA의 효과와 우수성을 입증한다.
  • Introduction  : 문단별로 한두문장씩만 요약해보자. 

1. UDA 목적 :
labeld source domain+unlabeld target domain 정렬(algin)하는 것인데, src에서 tgt 도메인으로 지식을 전달하고 Domain discrepancy를 완화하기 위해 현존하는 UDA methods들은 domain-invariant representation으로 Srg-Tgt domain algin을 시도한다.

  

2. catatrophic forgetting :

현존 UDA 은 predefined dataset을 DA하기 위해 한 번만 학습하는데 반해 실제 상황에서는 데이터가 다른 클래스로 streaming 되는 경우가 있다. 이를 위해 클래스를 늘리는 것을 고려하고 원래는 new labeled data가 오면 src domain 이 먼저 knwoledge를 미세조종하여 target class학습을 돕는 과정인데, 새로 학습하다가 model parameters를 시켰기 때문에 이전 class를 예측할 때 성능이 저하되었고 이를 catatrophic forgetting이라 한다. 

 

3. negative transfer과의 균형 :

이 문제해결에 라벨 src data를 항상사용하고 언라벨 target data가 class overaps(중복?)없이 제공되는 CI-UDA( ClassIncremental Unsupervised Domain Adaptation)를 제안한 ProCA란 곳이 있다. prototype memory bank란 것을 통해 클래스 레벨 discriminatvie samples를 저장하고 mini-batch에서 sample을 replay 했으며, negative transfer이라 부르는 target domain 관련 discriminatvie representation 활용하기 위해 biased src information 을 적용했다. 문제는 완화되었는데, current target class가 심각한 영향을 받았다. 그래서 CI-UDA를 다룰 때 negative transfer과 catastrophic forgetting간의 균형을 잘 맞춰야 할 것이다. 

 

4. PLDCA(Pseudo-Label Distillation Continual Adaptation) :

src pretrained model를 계승해 target class 검출하고 각 target sample에 대한 pseudo label 생성한 것 까지는 좋은데, noise label이 발생해 target model adaptation을 방해한다. 이유는 src domain의 biased information 과 오검출클래스 때문이다. -> wrong target class필터링하는 class-level label distillation 을, wrong pseudo label 보정하는 instance-level label distillation 을 설계했다. 그리고 추측값도 confident/unconfident로 나눠 노이즈 label의 빈도를 줄였다. 어떻게 줄였냐면 pseudo label과 src sample로 class-level contrastive alginment를 이용했다.  마지막으로 이전 클래스 discriminative sample을 저장하기 위해 memory bank를 구성하여 PLDCA의 catastrophic forgetting을 완화했고 이는 PLDCA가 DA와 CI learning을 효과적으로 달성했음을 입증했다. 

 

5. 요약 

  • continual adaptation 과정의 negative transfer 완화를 위해 클래스-인스턴스 두 수준 모두에서 src domain의 biase knowledge를 필터링하는 Pseudo-Label Distrillation 을 제안한다. 
  • Domain discrepancy 를 줄이기 위해 domain-invariant feature는 target domain 표현을 얻고 discriminative 와 generalized 표현을 위해 Contrastive Alginment를 이용하도록 구성한다. 
  • 5개 평가지표에 대한 광범위한 실험결과가 있다. 

 

RELATED WORK

A. Unsupervised Domain Adaptation : 

  • UDA는 labeled src domain이 사용가능할 때 pretrained model을 언라벨된 target domain에게 적응시키는 learning paradigm이다.src/tgt 도메인이 같은 label 공간은 공유해도 data distribution는 달라 tgt 안의 src 사전학습모델은 성능이 나쁘다. 그래서 두 도메인 사이에 feature representation algin하려는 다양한 정규화 방법이 있다. adversarial learning으로 이득을 본 방법은 feature representation 을 algin 하고 적응 퍼포먼스를 개선한 것으로, feature extracter VS discriminator로 적대적 설계를 했다. 다른 방법은 샘플간의 관계를 얻는 인스턴스레벨 alginment과 최근의 contrastive learning은 다양한 데이터를 표현하는 powerful한 능력을 보여줘서 UDA의 감초다. 이러한 methods는 샘플들간의 대조적인 관계를 잡아내고, discriminative domain invariant feature도 잡아낸다. 다른 방법은 wrong pseudo labels with less information을 제거하는 특징 전략을 설계해  biased source information 악영향을 완화하기도 했다. 

2024.03.26 - [AI] - Class-Incremental Unsupervised Domain Adaptation via Pseudo-Label Distillation