MCMC = Markov Chain + Monte Carlo2026.03.07 - [AI] - 슈뢰딩거 브릿지를 이해하기 위한 버둥거림(4) 여기 나와있던 것처럼 MCMC를 좀 더 자세히 살펴보고 마르코프 체인, 몬테카를로, 마르코프 프로세스 등을 알아보자. 그리고 그것들이 GLASS Flow에 나오는 transition kernel과 어떤 관계가 있는지 알아볼 것이다. 몬테 카를로 방법은 수학적으로 계산하기 복잡하거나 불가능한 값을, Random Sampling을 통해 통계적으로 추정하는 기법이다. 기댓값 추정 : 어떤 복잡한 적분값이나 확률분포의 기댓값 $E[F(X)]$를 구할 때, 직접 적분하는 대신 해당 분포에서 많은 수의 Random Sampling을 통해 그 값의 평균으로 정답에 근사한다...
2026.03.05 - [AI/Baseline] - 슈뢰딩거 브릿지를 이해하기 위한 버둥거림(2) 슈뢰딩거 브릿지를 이해하기 위한 버둥거림(2)2026.02.25 - [AI/Baseline] - 슈뢰딩거 브릿지를 이해하기 위한 버둥거림 Euler’s method(오일러 기법) 오일러 기법은 초기조건을 알고 있는 ODE의 해를 근사하기 위한 가장 심플한 형태의 수치해석 기법이cho-akashic-records.tistory.com저번에 배웠던 ODE는 생략SDE란? SDE(Stochastic Diffentail Equation) 확률미분방정더보기Wt(x∣x′)p(x′,t)">Wt(x∣x′)p(x′,t): Inflow (다른 상태 x′x'x′에서 xxx로 들어오는 확률 ..
2026.02.25 - [AI/Baseline] - 슈뢰딩거 브릿지를 이해하기 위한 버둥거림 Euler’s method(오일러 기법) 오일러 기법은 초기조건을 알고 있는 ODE의 해를 근사하기 위한 가장 심플한 형태의 수치해석 기법이다.ODE에 의해 결정되는 벡터장의 방향을 따라 작은 스텝 이동함으로써 전체 해(curve)를 단계적으로 근사해 나가는 방식Diffusion 모델이나 Score-based Generative Model을 이해하기 위해서는 reverse process를 해석할 때 ODE(or SDE)에 대한 수치해석이 중요하다. (나중에는 SDE해법인 오일러-마루야마 기법에도 쓰인다) ODE에서 쓴다고 하니 전에 쓴 거 가져옴더보기- $\frac{dx(t)}{dt}$ : $x(t)$가 $..
(링크 갔더니 글씨 다 깨져서 붙임)1. ODE란? 상미분 방정식. - ODE(Ordinary Differential Equation)는 어떤 변수(미지함수) $\mathbf{x}(t)$ 와 그 미분 $\frac{d\mathbf{x}(t)}{dt}$ 이 등장하는 미분방정식을 의미한다. 가장 기본적인 형태는 다음과 같다고 한다. $$\frac{d\mathbf{x}(t)}{dt} = f(\mathbf{x}(t), t)$$$\mathbf{x}(t)$: 시간 $t$에서의 함수값$\frac{d\mathbf{x}(t)}{dt}$: $\mathbf{x}(t)$ 가 $t$에 따라 변하는 비율즉, "ODE를 푼다"는 것은 "위 식을 만족하는 함수 $\mathbf{x}(t)$ 를 찾는 것"과 같다. 1-2 ML..
더보기 Fine Tuning (세부 조정) 개념과 목적: 사전에 학습된 모델을 새로운 작업이나 도메인에 적용하기 위해 추가 학습을 수행하는 방법입니다. 목적은 특정 작업에 대한 모델의 성능을 최적화하는 것입니다. 등장 시기: 2010년대 초반, 딥러닝이 급속히 발전하면서 널리 사용되기 시작했습니다. 장단점: 장점: 사전 학습된 모델을 재사용하여 학습 시간을 단축하고, 적은 양의 데이터로도 높은 성능을 달성할 수 있습니다. 단점: 새로운 작업이나 도메인과 원래 모델이 학습된 도메인 간의 차이가 클 경우 성능이 제한될 수 있습니다. 학습 난이도: 상대적으로 낮음. 사전 학습된 모델에 의존하므로, 적절한 사전 학습 모델을 선택하고, 세부 조정 과정을 이해하는 것이 중요합니다. 환경: 딥러닝 프레임워크(Tens..
딥 빌리프 네트워크(Deep Belief Networks, DBN)는 여러 겹의 비지도 학습 단위인 제한된 볼츠만 머신(Restricted Boltzmann Machine, RBM)으로 구성된 심층 신경망입니다. DBN은 레이블이 없는 데이터를 사용하여 효과적으로 특징을 학습할 수 있으며, 이를 통해 높은 수준의 추상화를 달성할 수 있습니다. DBN은 데이터에서 복잡한 표현을 학습하기 위해 계층적 구조를 사용합니다. 각 계층은 데이터의 특징을 점점 더 높은 수준으로 추상화하며, 이러한 과정을 통해 모델은 데이터의 중요한 특징을 효율적으로 인코딩하고 재구성할 수 있게 됩니다. DBN의 주요 특징: 비지도 학습: DBN은 초기 학습 단계에서 레이블이 없는 데이터를 활용할 수 있습니다. 이는 대량의 레이블이 ..
더보기 2024.03.20 - [AI/Baseline] - Domain Adaptation 이란? https://www.youtube.com/watch?v=dPSSMLhFGpI 아래 개념은 내가 정리한 것으로 영상과는 차이가 있다. OOD(Out-Of-Distribution) 데이터 OOD 데이터는 학습 데이터 분포와 다른 분포에서 온 데이터를 의미합니다. 즉, 모델이 학습하는 동안 접하지 않았던, 완전히 새로운 형태의 데이터입니다. OOD 데이터는 모델의 일반화 능력을 테스트하거나, 예상치 못한 상황에 모델이 어떻게 반응하는지 평가하는 데 사용됩니다. 예를 들어, 고양이와 개를 구별하기 위해 학습된 모델에 말이나 코끼리 사진을 입력하는 경우가 OOD에 해당합니다. 초점: OOD 데이터는 모델이 학습한 ..
Sensitivity Specificity - Sensitivity는 민감도. 민감도를 높이면 무엇이든 참이라고 추론할 것이다. (참은 잘맞추겠지만 거짓이 많이 나올 것) - Specificity는 특이성. 특이성을 높이면 무엇이든 거짓이라고 추론할 것이다. (거짓을 잘 맞추겠지만.. ) - sensitivity와 1-Specificity 는 비례한다. ROC (Receiver Operating Characteristic) curve -FPR과 TPR을 각각 x,y축으로 놓은 그래프라고 한다. 기계 실제 -False Positive Rate : 참 (거짓) 의 비율 (분모는 실제 거짓) =Sensitivity -True Positive Rate : (참) 참 의 비율 (분모는 실제 참 ) = 1-Spec..
2024.03.04 - [AI] - YOLO v1~v8까지 정리 해보자 -Yolov4에서 도입했다고 하길래 나도 한 번 알아보자. CSPDarknet53 -CSPDarknet은 Cross Stage Densenet의 Densenet부분을 Darknet으로 바꾼 것이라고 한다. 그냥 Densenet과 CSP Densenet의 구조적 차이는 아래와 같다. X0전체를 처리하지 않았기 때문에 (처리하지 않은 x0가 그대로 적용되었음), Partial DenseNet이라고 한다. 출처 : https://yonghoney.github.io/YOLOv4/ CSP란 네트워크 일부 계측에서 feature map을 두 부분으로 나누고 한 부분을 직접 다음 계층으로 전달, 나머지는 여러 계층을 통과시킨 후 이전에 분리된 부..
보기는 했는데.. 에.. 본 것 맞아? https://arxiv.org/abs/2103.00020 https://drive.google.com/file/d/1lBfCllCl9WVioYJmlzYVGq2iCUwdDXT1/view?usp=sharing https://youtu.be/7UMmKm0hzho https://youtu.be/vCsrk5teBs8 https://youtu.be/WaPZLMDrguM https://youtu.be/zPWi6dSHe0g https://youtu.be/kRmv8_i2A_4
- Total
- Today
- Yesterday
- max-margin_loss
- textual guidance
- Deformable Convolutional Networks
- batch란
- markov_transition
- ctfloader
- StyleCLIP
- 오일러기법
- tf version porting
- 샴네트워크
- /var/log/alternatives.log
- Group Acitivty Recognition
- Arbitrary image stylization
- torchmodel
- DetectoRS
- /var/log/faillog
- Source-free unsupervised domain adaptation
- /var/log/fontconfig.log
- 딥페이크탐지
- alternatives.log
- Sufficient_Statistic
- TransferLearning
- neural network applications
- yolov3 #tensorflow_convert
- tensorflow convert
- Chatgpt4
- 도메인 어댑테이션
- 전이학습
- /var/log/tallylog
- 첫논문
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | |||||
| 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| 10 | 11 | 12 | 13 | 14 | 15 | 16 |
| 17 | 18 | 19 | 20 | 21 | 22 | 23 |
| 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| 31 |
