1-3:情報理論
要点まとめ
自己情報量は情報の価値を数値化したもので、 と定義される。積を和差で扱える logを取り、情報の価値に対応するように負の値をとっている。
情報の価値の期待値、シャノンエントロピーは、 。
情報量の距離をカルバック・ライブラーダイバージェンスと言い、式は、。
自己情報量
定義
どのくらい珍しいか = 情報としての価値が高いか を示す。 例えば、20面体のサイコロで4以下が出るという情報は、10以下が出るという情報よりも価値がある。
シャノンエントロピー
定義
自己情報量の期待値
カルバック・ライブラー ダイバージェンス
定義
考え方・・・情報量の差を考える 情報量の距離のようなもの
また、
なので、
交差エントロピー
- KLダイバージェンスの一部分を取り出したもの
- Qについての自己情報量をPの分布で平均している