모끼의 딥러닝 공부

  • 홈
  • 태그
  • 방명록


rejection sampling 1

[4-1] Model Inference: Sampling Methods(MCMC, Gibbs sampling)

아래 references의 강의 및 자료들을 공부하고 짧게 정리한 내용입니다! 저도 공부하면서 정리한 내용이라 틀린 것이 있다면 언제든 댓글 달아주신다면 감사하겠습니다~ :D____ 만약 왼쪽 그림과 같은 변수들 간의 관계가 주어지고 분포 p(x)를 inference해야 한다면, 먼저 joint probability p(x, y, z) = p(x|y,z) p(z|y) p(y)를 계산한 뒤 y, z에 대해 marginalize하는 방식을 사용한다. 이 때 각각의 conditional probability를 모두 구할 수 있고 y,z에 대한 marginalization(적분)을 연산할 수 있다면 exact inference가 가능하다. 주로 p(x)가 gaussian과 같이 연산 가능한 형태를 가지고 있다고..

Courses/Probabilistic Graphical Model 2024.09.23
1
더보기


프로필사진

딥러닝/머신러닝 관련 논문 또는 지식 정리, 그 외 개발 관련 글

  • 분류 전체보기 (20)
    • paper review (5)
      • information theory (1)
      • GAN (1)
      • vision language (1)
      • memory network (1)
      • attention (1)
    • Courses (15)
      • cs231n (2)
      • GCN(Graph Convolution Netwo.. (2)
      • Probabilistic Graphical Mod.. (7)
      • ML(PRML,cs229) (4)


Tag

probabilistic graphical model, exponential family, gaussian, 딥러닝, Generative Model, Attention, CS231n, reparameterization trick, Deeplearning, mutual information, deep learning, 논문읽기, GCN, VAE, gaussian mixture, Bernoulli, MCMC, variational inference, gan, GNN,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바