모끼의 딥러닝 공부

  • 홈
  • 태그
  • 방명록


Bayesian Networks 1

[3-1] Model Learning: Maximum likelihood estimation (MLE)

아래 references의 강의 및 자료들을 공부하고 짧게 정리한 내용입니다! 저도 공부하면서 정리한 내용이라 틀린 것이 있다면 언제든 댓글 달아주신다면 감사하겠습니다~ :D____  이번 및 다음 포스팅에서는 fully-observed graphical model일 때와 partially-observed graphical model일 때의 learning방법에 대해 살펴보려고 한다. fully-observed GM의 경우 일반적으로 우리가 사용하는 classification model과 유사하게 생각하면 되는데, input random variable x1, ..., xn을 모두 관측할 수 있는 경우이다. paritally-observed GM의 경우 VAE와 같이 hidden variable을 사용하..

Courses/Probabilistic Graphical Model 2024.09.16
1
더보기


프로필사진

딥러닝/머신러닝 관련 논문 또는 지식 정리, 그 외 개발 관련 글

  • 분류 전체보기 (20)
    • paper review (5)
      • information theory (1)
      • GAN (1)
      • vision language (1)
      • memory network (1)
      • attention (1)
    • Courses (15)
      • cs231n (2)
      • GCN(Graph Convolution Netwo.. (2)
      • Probabilistic Graphical Mod.. (7)
      • ML(PRML,cs229) (4)


Tag

CS231n, MCMC, Attention, probabilistic graphical model, exponential family, Generative Model, reparameterization trick, mutual information, 논문읽기, GCN, GNN, variational inference, deep learning, gaussian, Deeplearning, 딥러닝, gan, VAE, gaussian mixture, Bernoulli,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바