台風のせいで頼んでおいたスマホが届くのが遅れています。暇なので関係ないことを書きます。
情報理論のエントロピー・・・
昔、そこそこの学力がある後輩が彼の後輩に対して、エントロピーの説明をしているのを聞くとはなく聞いていたのですが、その説明がチンプンカンプンだったのを思い出しました。どう説明するのかを考えたので・・
ここでは、情報量とエントロピーという言葉だけを使います。
エントロピーというのは不確実さを表します。
Aさんがサイコロを転がして出た目をBさんがそれを見ずに当てる状況を想像してみてください。
Bさんには6個の選択肢があります。
ここで、Aさんが出た目は偶数だということをBさんに伝えるとどうなるでしょうか?
Bさんには3個の選択肢だけが残ります。
BさんはAさんの情報を得たことによって、サイコロの目を当てる上での不確実さが減りました。
Bさんが取得した情報の量は、不確実さが減った分と解釈できます。
これを数値化したものが情報量。
数値化のためには不確実さを数値化すれば良いのですが、
情報理論では、各事象が起こる情報量の期待値とされています。
数式にするとこうなります。
エントロピー(不確実さ) H = -Σpi log(pi)
pi : 事象iが起こる確率、Σpi = 1 です。
不確実さが大きいほどエントロピーHは大きな値をとります。
一般に、起こりえる事象の数が増えるほど大きくなります。
- log(1)=0 < -log(1/2)=log2 < -log(1/3)=log3 < ・・・< -log(1/100)=log100 < ・・・
また、各事象の起こる確率が均等になる(どれが起こるかよりわからない)ほど大きな値になります。いかさまサイコロで、1の目が90%出るということだと、エントロピーは小さくなります。
さて、Aさんから情報を受け取る前の状態について考えると、1から6までの可能性があります。
6個の事象があり、それらの起こる確率は1/6です。
エントロピーはlog6になります。
H1 = -1/6log(1/6) + -1/6log(1/6) + -1/6log(1/6) + -1/6log(1/6) + -1/6log(1/6) + -1/6log(1/6) = log6
次に、Aさんから情報を受け取った後の状態について考えます。
出た目が偶数だということが分かっているので、2,4,6の選択肢があります。
3個の事象があり、それらの起こる確率は1/3です。
エントロピーは
H2 = -1/3log(1/3) + -1/3log(1/3) + -1/3log(1/3) = log3
さて、不確実さが減った分が情報量なので、不確実さの差分をとってみます。
H1 - H2 = log6 - log3 = log(6/3) = log2
受け取った情報量はlog2ということになります。
ちなみに、情報量 I は下記の式で表されます。
I = -log(pi)
pi: 事象iが起こる確率
サイコロの目が偶数という情報に上の式を適用すると、
サイコロの目が偶数になる確率が 1/2 なので、- log(1/2)=log2となります。
先述のH1-H2の結果と一致します。