はてなブログ トップ
相互情報量
このタグでブログを書く
言葉の解説
ネットで話題
関連ブログ
相互情報量
(サイエンス)
【そうごじょうほうりょう】
→
エントロピー
このタグの解説について
この解説文は、
すでに終了したサービス「はてなキーワード」内で有志のユーザーが作成・編集
した内容に基づいています。その正確性や網羅性をはてなが保証するものではありません。問題のある記述を発見した場合には、
お問い合わせフォーム
よりご連絡ください。
解説の続きを読む
ネットで話題
もっと見る
167
ブックマーク
教師あり学習の精度を超えた!?相互情報量の最大化による教師なし学習手法IICの登場!
ai-scholar.tech
27
ブックマーク
情報理論の基礎~情報量の定義から相対エントロピー、相互情報量まで~ | Logics of Blue
最終更新:2017年6月12日 この記事では「情報量をどのように定義するか」という問題への回答としての、情報エントロピー、そして、相対エントロピー(別名:カルバック・ライブラーの情報量)や相互情報量の導入とその解釈の仕方を説明します。 統計学や機械学習を学ぶ際に、どうしても必要となる考え方ですので、ある程...
logics-of-blue.com
22
ブックマーク
相互情報量を用いた特徴選択 - 人工知能に関する断創録
aidiary.hatenablog.com
15
ブックマーク
相互情報量 - Wikipedia
相互情報量(そうごじょうほうりょう、英: mutual information)または伝達情報量(でんたつじょうほうりょう、英: transinformation)は、確率論および情報理論において、2つの確率変数の相互依存の尺度を表す量である。最も典型的な相互情報量の物理単位はビットであり、2 を底とする対数が使われることが多い。 形式...
ja.wikipedia.org
14
ブックマーク
相互情報量
相互情報量 Mutual information ホーム 情報通信のハイパーテキストは下記へ移動しました。 http://www.mnc.toho-u.ac.jp/v-lab/ お探しの内容は、下記の目次にあります。 http://www.mnc.toho-u.ac.jp/v-lab/yobology/index.htm
www.yobology.info
11
ブックマーク
自然言語処理における自己相互情報量 (Pointwise Mutual Information, PMI)
自己相互情報量とは, 2つの事象の間の関連度合いを測る尺度である(負から正までの値をとる). 自然言語処理では自己相互情報量が相互情報量と呼ばれることがある. しかし, 情報理論で定義される相互情報量(後述する)とは全く異なるため, 自己相互情報量と呼ぶのが賢明である. 自然言語処理に関する本や論文では略称のPMI...
camberbridge.github.io
5
ブックマーク
[DL輪読会]相互情報量最大化による表現学習
www.slideshare.net