這兩天把樸素貝葉斯算法熟悉了一遍,這個算法應用較多的領域是文本分類;
算法本質是利用先驗概率去估計后驗概率,但有個假設是樣本各屬性是單獨對類別產生影響的,也就是說樣本屬性之間是相互獨立的,互不影響。這個假設簡化了類條件概率的計算。同時對于未出現的屬性值對其他屬性造成的影響使用拉普拉斯進行修正
極大似然估計是用來求類條件概率的,EM 期望最大化算法用于隱變量的估計。
通過這兩天的學習,逐漸找到學習的節奏 ,以周志華的機器學習為理論藍本,再結合機器學習實戰進行算法實踐,循序漸進地學習。同時在學習的過程要把握整體脈絡,兼顧重點難點,不可囫圇吐糟,提高學習效率。