Daily Arxiv

μ „ μ„Έκ³„μ—μ„œ λ°œκ°„λ˜λŠ” 인곡지λŠ₯ κ΄€λ ¨ 논문을 μ •λ¦¬ν•˜λŠ” νŽ˜μ΄μ§€ μž…λ‹ˆλ‹€.
λ³Έ νŽ˜μ΄μ§€λŠ” Google Geminiλ₯Ό ν™œμš©ν•΄ μš”μ•½ μ •λ¦¬ν•˜λ©°, λΉ„μ˜λ¦¬λ‘œ 운영 λ©λ‹ˆλ‹€.
논문에 λŒ€ν•œ μ €μž‘κΆŒμ€ μ €μž 및 ν•΄λ‹Ή 기관에 있으며, 곡유 μ‹œ 좜처만 λͺ…κΈ°ν•˜λ©΄ λ©λ‹ˆλ‹€.

Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

Created by
  • Haebom
Category
Empty

μ €μž

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng

πŸ’‘ κ°œμš”

λ³Έ 논문은 λΉ„μ„ ν˜• 차원 μΆ•μ†Œ 및 κ²°μΈ‘ 데이터 볡ꡬ에 널리 μ‚¬μš©λ˜λŠ” Gaussian Process Latent Variable Models (GPLVMs)의 μ„±λŠ₯을 ν–₯μƒμ‹œν‚€κΈ° μœ„ν•΄, Annealed Importance Sampling (AIS) 기반의 μƒˆλ‘œμš΄ ν•™μŠ΅ 방법을 μ œμ•ˆν•©λ‹ˆλ‹€. μ œμ•ˆν•˜λŠ” 방법은 AISλ₯Ό ν™œμš©ν•˜μ—¬ λ³΅μž‘ν•œ λ°μ΄ν„°μ—μ„œλ„ 효율적인 μƒ˜ν”Œλ§μ„ κ°€λŠ₯ν•˜κ²Œ ν•˜μ—¬, 더 높은 μ„±λŠ₯의 λ³€λΆ„ ν•˜ν•œκ³Ό 둜그 μš°λ„λ₯Ό μ–»μŠ΅λ‹ˆλ‹€. μ‹€ν—˜ κ²°κ³Ό, μ œμ•ˆν•˜λŠ” 방법이 κΈ°μ‘΄ SOTA 방법둠듀보닀 μš°μˆ˜ν•œ μ„±λŠ₯을 λ³΄μž„μ„ ν™•μΈν–ˆμŠ΅λ‹ˆλ‹€.

πŸ”‘ μ‹œμ‚¬μ  및 ν•œκ³„

β€’
Annealed Importance Sampling을 톡해 λ³΅μž‘ν•œ 데이터 κ΅¬μ‘°μ—μ„œλ„ GPLVMs의 μ„±λŠ₯을 ν–₯μƒμ‹œν‚¬ 수 μžˆμŒμ„ μž…μ¦ν–ˆμŠ΅λ‹ˆλ‹€.
β€’
λ³€λΆ„ ν•˜ν•œ κ°œμ„  및 둜그 μš°λ„ ν–₯상을 톡해, λͺ¨λΈμ˜ μ •ν™•μ„±κ³Ό μΌλ°˜ν™” λŠ₯λ ₯을 높일 수 μžˆμŒμ„ λ³΄μ˜€μŠ΅λ‹ˆλ‹€.
β€’
λ³Έ μ—°κ΅¬λŠ” AIS 기반의 μ ‘κ·Ό 방식을 μ œμ•ˆν•˜μ§€λ§Œ, 계산 λΉ„μš©μ΄ 증가할 수 μžˆλ‹€λŠ” 점을 κ³ λ €ν•˜μ—¬, ν–₯ν›„ 효율적인 κ΅¬ν˜„ 및 μ΅œμ ν™” 연ꡬ가 ν•„μš”ν•©λ‹ˆλ‹€.
πŸ‘