entropy、mutual information

如何量化,用數學語言去表述信息(information)這個概念?這似乎是一個很難的問題,因為信息所包含的概念太廣了。人們從概率論角度出發,找到了Entropy,其性質和我們所理解的information具有很多相似之處。基于entropy,我們又找到了mutual information。MI用來評價一個隨機變量與另一個隨機變量的包含關系。如果將entropy理解為一個隨機變量的self-information,那么MI可以理解為relative entropy,形象的說就是兩個概率分布之間的距離。

? ? self-information? ------>? entropy

mutual information ------> relative entropy

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容

  • 本系列文章面向深度學習研發者,希望通過Image Caption Generation,一個有意思的具體任務,深入...
    imGeek閱讀 1,860評論 0 8
  • 每年都會給自己定點小目標,實現一個之后,接著下一個。這是我2017年倒數第二個目標:去一趟泰國。 自從看了《泰囧》...
    弦凝靜雪閱讀 760評論 1 2
  • 昨日秋風夜請辭,竟飛南海會相思; 青山默默生寒韻,碧水幽幽棄暖詞; 幸喜梅侯花漸醒,不憂雪帝凍先枝; 待得春舞冬深...
    文竹居士閱讀 332評論 2 6
  • 午夜被一場虐心的夢驚醒,男主是你,你呵護的女主卻不是我,心口隱隱作痛…… 阿文和佳宇相識于大學一個雙截棍社團,那時...
    Y妖妖閱讀 941評論 8 2