Contents
はじめに:情報はどう「量れる」のか?
現代は“情報の時代”と言われますが、そもそも情報はどのように測定されるべきか、という問いに最初に理論的に取り組んだのが、1928年に論文を発表した**ラルフ・ハートリー(R.V.L. Hartley)**です。
彼の理論は、その後のシャノンによる情報理論の出発点ともなった、**「情報を数値化する」**という画期的なアイデアでした。
ハートリーの情報量の定義
ハートリーは、「情報」とは選択肢の中から1つを選ぶことで得られる量であると考えました。
そしてその情報量 HH を次の式で定義しました:
H=logb(N)H = \log_{b}(N)
-
HH:情報量
-
NN:可能な選択肢の数(記号数)
-
bb:対数の底(通常は2, 10, またはe)
つまり、「選択肢が多ければ多いほど、得られる情報量は大きい」という直感的で強力な原理です。
例:選択肢と情報量の関係
-
コイン投げ(表・裏) → 選択肢 2 → 情報量 log2(2)=1\log_2(2) = 1 ビット
-
サイコロ(1〜6) → 選択肢 6 → 情報量 log2(6)≒2.58\log_2(6) ≒ 2.58 ビット
このように、不確実性が大きいほど、情報量も増えるのです。
ハートリーの着眼点の革新性
1. 意味を切り捨てた情報定義
ハートリーの重要な視点は、「情報の意味ではなく、構造や選択の幅に注目した」点です。
つまり、情報の“意味”は個人や文脈によって変わるが、“量”は客観的に測れるという前提を初めて明確にしたのです。
これは後のシャノンの情報理論にも引き継がれ、通信・符号理論・計算機科学の基礎となりました。
シャノンとの違いと関係
ハートリーの理論は、すべての選択肢が等確率で発生する前提で成り立っています。一方、クロード・シャノンは1948年に、
H=−∑pilog2(pi)H = -\sum p_i \log_2(p_i)
という確率に基づいた情報エントロピーの定義を提示し、より現実的かつ応用的な理論へと進化させました。
しかし、情報を「選択肢の数」で測る」という発想そのものは、ハートリーの理論が原点です。
現代におけるハートリー情報量の応用
1. デジタルマーケティング
-
A/Bテストの設計:選択肢が多いほど得られる**知見(情報量)**が増える
-
フォーム設計やUI選択肢の最適化にも、情報密度の考慮が必要
2. 情報設計(情報アーキテクチャ)
-
ナビゲーションやメニュー構成:ユーザーが何を選び、何を除外するかが情報体験を左右する
-
選択肢が多すぎると「情報過多」、少なすぎると「情報不足」になるため、ちょうどいい情報量の設計が鍵
3. データ圧縮と通信
-
基本的なビット数の見積もりに、ハートリー式は今なお有効
-
IoTや組み込み系のデータ転送量制御に応用されることもある
ハートリーの理論が教えてくれる本質
ハートリーは、情報の定義において「客観性と構造性」を徹底しました。
彼の理論は次の問いを私たちに投げかけます:
・この選択肢は本当に意味あるものか?
・この選択肢の数は、最適か?
・情報とは“内容”だけでなく“形式”でもあるのでは?
これは、UX設計・ビジネス意思決定・ブランド戦略など、すべての“選択設計”に通底する問いです。
まとめ:選択の幅=情報の本質
ハートリーの情報論は、現代の複雑な情報社会においても極めてシンプルで本質的です。
-
「情報」とは、不確実性の解消量である
-
選択肢の数とその設計が、情報の意味と重みを左右する
-
テクノロジーが高度化しても、選択という人間的行為が情報の核であることは変わらない
コメント