기존 데이터 $D$가 존재하고, $\theta$라는 parameter가 존재할 때, $\alpha$가 새로운 parameter라고 하면,
기존 데이터 $D$를 $\alpha$가 예측할 확률이 Marginal Likelihood $ P(D | \alpha)$이다.
즉, $\alpha$가 기존 데이터를 얼마나 잘 표현할 수 있는지에 대한 지표이다.
출처 : https://mambo-coding-note.tistory.com/entry/Statistics-Marginal-Likelihood
Statistics : Marginal Likelihood
Marginal Likelihood는 두 가지 관점에서 이야기할 수 있는데, 첫 번째는 말그대로 marginalize 하여 가능도를 구한다는 개념으로 어떠한 파라미터를 지정해서 그것에 대한 가능도를 구하면서 나머지 파
mambo-coding-note.tistory.com

출처 : https://donghwa-kim.github.io/Pred_-baye.html
Prior & Posterior Predictive Distributions
Observed Case Prior distribution($p(\theta)$): 데이터를 알기 전에 분포 Posterior distribution($p(\theta | y)$): 데이터를 알고 난 후의 분포 앞서 배운 위의 분포들은 현재 학습데이터에 대한 분포로, unobserved data에
donghwa-kim.github.io
728x90
'AI > bayesian optimization' 카테고리의 다른 글
| 인공지능 및 기계학습 심화 | [2-12] Mean and Covariance of P(t|T) (0) | 2024.11.07 |
|---|---|
| 인공지능 및 기계학습 심화 | [2-10] Marginal and Conditional Distribution of P(T) (0) | 2024.11.07 |
| 그래서 BO에 Bayes' Rule이 어디에 적용되는가? (0) | 2024.10.27 |
| Peng Liu | 4. GP Regression with GPyTorch (1) (0) | 2024.10.27 |
| 인공지능 및 기계학습 심화 | [2-8] Marginal Gaussian Distribution (1) | 2024.10.27 |
댓글