Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Differentiable Annealed Importance Sampling and the Perils of Gradient Noise #11

Open
Kashalpha opened this issue Apr 11, 2022 · 1 comment
Labels
Machine Learning 機械学習

Comments

@Kashalpha
Copy link
Owner

Kashalpha commented Apr 11, 2022

一言でいうと

Annealed importance sampling (AIS)とHamiltonian Monte Carlo (HMC)を合体させた手法(Differentiable AIS, DAIS)を提案することで、AISによる周辺尤度の推定量が微分不可能となる問題を回避した。

論文リンク

https://proceedings.neurips.cc/paper/2021/hash/a1a609f1ac109d0be28d8ae112db1bbb-Abstract.html

概要

  • DAISではHMCのように運動量を補助変数として導入し、AISにおけるMetropolis-Hastings法による受容判断を行わずに、leapfrog法による決定論的な遷移と運動量のrefreshmentにより状態の変化を行う。この状態の変化に加えて、AISでの逆温度のアニーリングを行う。DAISによるLower boundは順過程と逆過程のKL divergenceとして得られる。
  • 推定量が微分可能となったことで、変分推論に活用することができる。

先行研究

コメント

@Kashalpha Kashalpha added the Machine Learning 機械学習 label Apr 11, 2022
@Kashalpha
Copy link
Owner Author

Accelerated Jarzynski Estimator with Deterministic Virtual Trajectories
確率的熱力学の文脈で同じようなことをした研究

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
Machine Learning 機械学習
Projects
None yet
Development

No branches or pull requests

1 participant