ハートリーの情報論とは?シャノンに先駆けた「情報量の原型」理論を理解する

哲学

はじめに:情報はどう「量れる」のか?

現代は“情報の時代”と言われますが、そもそも情報はどのように測定されるべきか、という問いに最初に理論的に取り組んだのが、1928年に論文を発表した**ラルフ・ハートリー(R.V.L. Hartley)**です。

彼の理論は、その後のシャノンによる情報理論の出発点ともなった、**「情報を数値化する」**という画期的なアイデアでした。


ハートリーの情報量の定義

ハートリーは、「情報」とは選択肢の中から1つを選ぶことで得られる量であると考えました。
そしてその情報量 HH を次の式で定義しました:

H=log⁡b(N)H = \log_{b}(N)

  • HH:情報量

  • NN:可能な選択肢の数(記号数)

  • bb:対数の底(通常は2, 10, またはe)

つまり、「選択肢が多ければ多いほど、得られる情報量は大きい」という直感的で強力な原理です。


例:選択肢と情報量の関係

  • コイン投げ(表・裏) → 選択肢 2 → 情報量 log⁡2(2)=1\log_2(2) = 1 ビット

  • サイコロ(1〜6) → 選択肢 6 → 情報量 log⁡2(6)≒2.58\log_2(6) ≒ 2.58 ビット

このように、不確実性が大きいほど、情報量も増えるのです。


ハートリーの着眼点の革新性

1. 意味を切り捨てた情報定義

ハートリーの重要な視点は、「情報の意味ではなく、構造や選択の幅に注目した」点です。
つまり、情報の“意味”は個人や文脈によって変わるが、“量”は客観的に測れるという前提を初めて明確にしたのです。

これは後のシャノンの情報理論にも引き継がれ、通信・符号理論・計算機科学の基礎となりました。


シャノンとの違いと関係

ハートリーの理論は、すべての選択肢が等確率で発生する前提で成り立っています。一方、クロード・シャノンは1948年に、

H=−∑pilog⁡2(pi)H = -\sum p_i \log_2(p_i)

という確率に基づいた情報エントロピーの定義を提示し、より現実的かつ応用的な理論へと進化させました。

しかし、情報を「選択肢の数」で測る」という発想そのものは、ハートリーの理論が原点です。


現代におけるハートリー情報量の応用

1. デジタルマーケティング

  • A/Bテストの設計:選択肢が多いほど得られる**知見(情報量)**が増える

  • フォーム設計やUI選択肢の最適化にも、情報密度の考慮が必要

2. 情報設計(情報アーキテクチャ)

  • ナビゲーションやメニュー構成:ユーザーが何を選び、何を除外するかが情報体験を左右する

  • 選択肢が多すぎると「情報過多」、少なすぎると「情報不足」になるため、ちょうどいい情報量の設計が鍵

3. データ圧縮と通信

  • 基本的なビット数の見積もりに、ハートリー式は今なお有効

  • IoTや組み込み系のデータ転送量制御に応用されることもある


ハートリーの理論が教えてくれる本質

ハートリーは、情報の定義において「客観性と構造性」を徹底しました。

彼の理論は次の問いを私たちに投げかけます:

・この選択肢は本当に意味あるものか?
・この選択肢の数は、最適か?
・情報とは“内容”だけでなく“形式”でもあるのでは?

これは、UX設計・ビジネス意思決定・ブランド戦略など、すべての“選択設計”に通底する問いです。


まとめ:選択の幅=情報の本質

ハートリーの情報論は、現代の複雑な情報社会においても極めてシンプルで本質的です。

  • 「情報」とは、不確実性の解消量である

  • 選択肢の数とその設計が、情報の意味と重みを左右する

  • テクノロジーが高度化しても、選択という人間的行為が情報の核であることは変わらない

関連記事

特集記事

コメント

この記事へのコメントはありません。

TOP