第一步,modeling,设计一个大的概率分布,描述所有随机变量之间的关系。 图模型的精髓是把一个大的,包含很多随机变量的复杂分布,写成若干个小的,相对简单的factor的乘积,其中每个factor仅仅包含一小部分随机变量。 想想高票答案里面的那个类比图(tutorial里的Fig 2.4),每个节点代表什么?有向图的每一个边代表什么?无向图呢?里面的小黑方块是什么意思?第二步,training,parameter estimation, 也就是根据数据,找到模型的参数的最佳估计。这是一个将模型fit进data的过程。我们在第一步中定义了一些变量,假设了这些变量之间的关系,比如我们假设A和B是线性关系,但在training之前,我们并不知道A是B的多少倍。请回忆线性回归的参数估计是怎么做的。从更电子工程的角度来说,这一步骤可以理解为一个system identification的过程。第三步, inference,prediction, 作预测,在这个已经确定好参数的系统里,有了新的输入,
隐马尔可夫(HMM)好讲,简单易懂不好讲。我认为 @者也的回答没什么错误,不过我想说个更通俗易懂的例子。 还是用最经典的例子,掷骰子。假设我手里有三个不同的骰子。第一个骰子是我们平常见的骰子(称这个骰子为D6),6个面