본문 바로가기
Paper Review/Inverse Problem

[논문 리뷰] DPS: Diffusion posterior sampling for general noisy inverse problems

by kongshin 2025. 4. 2.

[논문]

  • Diffusion posterior sampling for general noisy inverse problems
  • ICLR 2023
  • Citations: 737
  • [https://arxiv.org/abs/2209.14687]
  • Diffusion model을 통해 inverse problems을 해결하는 가장 기초적인 method

  • General forward model
    • $n\sim N(0,\sigma^2I)$                                                  

 

1. Approximation of the likelihood

  • $p(y|x_t)$를 직접 계산하기 어려움 ⇒ 아래의 factorization을 통해 계산
  • $p(x_0|x_t)$는 일반적으로 intractable ⇒ Diffusion model의 경우 unique posterior mean을 가짐
    •  

       
    • VP-SDE or DDPM, $p(x_0|x_t)$의 unique posterior mean
    • Approx. version with score estimate $s_\theta$

 

  • Approx. $p(y|x_t)=E_{x_0 \sim p(x_0|x_t)}[p(y|x_0)]$
    •  
    • 기존 posterior $p(x_0|x_t)$에 대해 $p(y|x_0)$를 expectation
    • outer expectation을 posterior mean $\hat x_0$에서의 inner expectation으로 approx
      • ⇒ $x_0$의 posterior dist.를 고려하지 않고 mean $\hat x_0$만 고려

 

  • Jensen gap - approx. error를 quantify
  • Theorem 1. Jensen gap for $y=A(x)+n, n\sim N(0,\sigma^2I)$
    • $E_{x_0}[p(y|x_0)]-p(y|\hat x_0)$
    • d: data dim.
    • $||\nabla_xA(x)||$: $A(x)$의 gradient 최댓값
    • $m1$: $\hat x_0$, $x_0$의 dist. distance

 

  • Remark 2.
    • $m1$이 finite & $\sigma$→$\infty$일 때, Jensen gap → 0
      • ⇒ noisy inverse problems에서 DPS가 작동 잘하는 이유

 

  • Leveraging Theorem 1
    • approx. gradient of the log likelihood ⇒ tractable (measurement dist.가 given일 때)

 

2. Model dependent likelihood of the measurement

  • Likelihood ft. with Gaussian noise
    • $y\in R^n$

 

  • $x_t$로 미분 & Theorem 1 적용

    • $\hat x_0:=\hat x_0(x_t)$ ⇒ $\hat x_0$는 function of $x_t$

 

  • Reverse diffusion sampler from the posterior dist.
    • $\nabla_{x_t}logp(x_t|y)=\nabla_{x_t}logp(x)+\nabla_{x_t}logp(y|x_t)$

 

  • Proposed reverse diffusion sampler
    • $\rho \triangleq \frac{1}{\sigma^2}$: step size

 

  • Diffusion Posterior Sampling (DPS)
    • proposed reverse diffusion sampler를 ancestral sampling(DDPM)에 적용
    • 기존 DDPM 방식에 measurement y를 적용하여 posterior sampling 가능하게 함
    • 기존 methods들과 다르게 nonlinear operators $A(.)$에도 적용 가능 

 

 

  • DPS & Manifold constrained gradient (MCG)
    • 기존 MCG - projection 단계에서 $y=A(x$)로 orthogonal projection 수행
    • Gradient step이 매번 projection 단계로 강제적으로 수정됨
      • noisy measurement에서는 오히려 manifold를 벗어나는 경우 발생
    • ⇒ noiseless measurement에서는 유용
    • DPS - gradient step을 직접적 진행하여 별도 projection없이 진행
      • noisy measurement에서도 안정적인 성능
    • ⇒ 기존 방법에 비해 성능이 우수하고 general함