[논문]
- Diffusion posterior sampling for general noisy inverse problems
- ICLR 2023
- Citations: 737
- [https://arxiv.org/abs/2209.14687]
- Diffusion model을 통해 inverse problems을 해결하는 가장 기초적인 method
- General forward model
- $n\sim N(0,\sigma^2I)$
1. Approximation of the likelihood
- $p(y|x_t)$를 직접 계산하기 어려움 ⇒ 아래의 factorization을 통해 계산
- $p(x_0|x_t)$는 일반적으로 intractable ⇒ Diffusion model의 경우 unique posterior mean을 가짐
-
- VP-SDE or DDPM, $p(x_0|x_t)$의 unique posterior mean
- Approx. version with score estimate $s_\theta$
-
- Approx. $p(y|x_t)=E_{x_0 \sim p(x_0|x_t)}[p(y|x_0)]$
- 기존 posterior $p(x_0|x_t)$에 대해 $p(y|x_0)$를 expectation
- outer expectation을 posterior mean $\hat x_0$에서의 inner expectation으로 approx
- ⇒ $x_0$의 posterior dist.를 고려하지 않고 mean $\hat x_0$만 고려
- Jensen gap - approx. error를 quantify
- Theorem 1. Jensen gap for $y=A(x)+n, n\sim N(0,\sigma^2I)$
- $E_{x_0}[p(y|x_0)]-p(y|\hat x_0)$
- d: data dim.
- $||\nabla_xA(x)||$: $A(x)$의 gradient 최댓값
- $m1$: $\hat x_0$, $x_0$의 dist. distance
- Remark 2.
- $m1$이 finite & $\sigma$→$\infty$일 때, Jensen gap → 0
- ⇒ noisy inverse problems에서 DPS가 작동 잘하는 이유
- $m1$이 finite & $\sigma$→$\infty$일 때, Jensen gap → 0
- Leveraging Theorem 1
- approx. gradient of the log likelihood ⇒ tractable (measurement dist.가 given일 때)
2. Model dependent likelihood of the measurement
- Likelihood ft. with Gaussian noise
- $y\in R^n$
- $x_t$로 미분 & Theorem 1 적용
- $\hat x_0:=\hat x_0(x_t)$ ⇒ $\hat x_0$는 function of $x_t$
- Reverse diffusion sampler from the posterior dist.
- $\nabla_{x_t}logp(x_t|y)=\nabla_{x_t}logp(x)+\nabla_{x_t}logp(y|x_t)$
- Proposed reverse diffusion sampler
- $\rho \triangleq \frac{1}{\sigma^2}$: step size
- Diffusion Posterior Sampling (DPS)
- proposed reverse diffusion sampler를 ancestral sampling(DDPM)에 적용
- 기존 DDPM 방식에 measurement y를 적용하여 posterior sampling 가능하게 함
- 기존 methods들과 다르게 nonlinear operators $A(.)$에도 적용 가능
- DPS & Manifold constrained gradient (MCG)
- 기존 MCG - projection 단계에서 $y=A(x$)로 orthogonal projection 수행
- Gradient step이 매번 projection 단계로 강제적으로 수정됨
- noisy measurement에서는 오히려 manifold를 벗어나는 경우 발생
- ⇒ noiseless measurement에서는 유용
- DPS - gradient step을 직접적 진행하여 별도 projection없이 진행
- noisy measurement에서도 안정적인 성능
- ⇒ 기존 방법에 비해 성능이 우수하고 general함