KL divergence란?
https://hyunw.kim/blog/2017/10/27/KL_divergence.html
초보를 위한 정보이론 안내서 - KL divergence 쉽게 보기
사실 KL divergence는 전혀 낯선 개념이 아니라 우리가 알고 있는 내용에 이미 들어있는 개념입니다. 두 확률분포 간의 차이를 나타내는 개념인 KL divergence가 어디서 나온 것인지 먼저 파악하고, 이
hyunw.kim
이 블로그가 설명을 무지 잘한 것 같은데 뭔가 따라가기가 어렵다. 차근차근 따라가보자.
https://yonghyuc.wordpress.com/2019/09/26/elbo-evidence-of-lower-bound/comment-page-1/#respond
여기도 좋았다.
https://ratsgo.github.io/generative%20model/2017/12/19/vi/
변분추론(Variational Inference) · ratsgo's blog
이번 글에서는 Variational Inference(변분추론, 이하 VI)에 대해 살펴보도록 하겠습니다. 이 글은 전인수 서울대 박사과정이 2017년 12월에 진행한 패스트캠퍼스 강의와 위키피디아 등을 정리했음을 먼
ratsgo.github.io
참조 링크로 갔더니 켤레 분포( conjugate distributions)에서 부터 쉽지 않다..

EM이 나오는 걸 보니 GMM 과 연관이 있을텐데 좀 더 자세히 보자.
VAE학습과정 같은데 넘신기해
via GIPHY
그래서 VAE란~
https://process-mining.tistory.com/161