Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Reliable Estimation of KL Divergence using a Discriminator in Reproducing Kernel Hilbert Space #13

Open
Kashalpha opened this issue Apr 13, 2022 · 0 comments
Labels
Machine Learning 機械学習

Comments

@Kashalpha
Copy link
Owner

一言でいうと

ニューラルネットワークによる識別器(Discriminator)を利用したullback–Leibler (KL) divergenceの変分推論について、識別器の空間として再生格ヒルベルト空間を考えることで、識別器の複雑性とエラーの関係を示した。

論文リンク

https://proceedings.neurips.cc/paper/2021/hash/54a367d629152b720749e187b3eaa11b-Abstract.html

概要

  • GAN-type objectiveを利用したKL divergenceの推定を議論
  • 識別器を深層ニューラルネットワークにより構築、再生格ヒルベルト空間で議論

先行研究

コメント

@Kashalpha Kashalpha added the Machine Learning 機械学習 label Apr 13, 2022
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
Machine Learning 機械学習
Projects
None yet
Development

No branches or pull requests

1 participant