데이터 사이언스 이야기/수학1 마르코프 체인 (Markov Chain) 정의 및 예시 마르코프 체인 (Markov Chain) 정의 및 사례 마르코프 체인이란 한 상태(State)에서 다른 상태로 이전을 할때 특정한 확률적인 특성을 따르는 것을 의미하는데, 마르코프 체인을 대표하는 가장 중요한 성질은 현재 상태에서 다음 상태로 넘어갈때 현재 시점보다 이전의 과거 상태에는 의존을 하지 않는 다는 것이다. 추상적으로 느껴지는 개념이지만 사실 사례를 통해서 살펴보면 꽤나 간단한 원리이고, 이 특성을 이용하면 복잡한 Joint Distribution을 계산을 손쉽게 할 수 있다. 강화 학습을 공부하거나 베이지안 통계학을 공부하면 이 마르코프 체인(Markov Chain)이라는 개념이 많이 등장하는데, 흔히 쓰이는 MCMC (Markov Chain Monte Carlo)를 이해하는 것에도 필수적인.. 2020. 12. 12. 이전 1 다음