趣味の研究

趣味の数学を公開しています。初めての方はaboutをご覧ください。

エントロピーに関する予想、素数密度

エントロピーに関する性質を考えました。

証明は容易かもしれません。連続な場合はヤコビアンだけずれる気がします。

【予想】

ある変数群\{X_k\}\{Y_l\}を考え、

Y_l=f_l(X_1,X_2,\cdot\cdot\cdot)

のように、変数Yは変数X_kで記述可能(説明可能)であるとする。さらに、

X_k=g_k(Y_1,Y_2,\cdot\cdot\cdot)

も成立すると仮定する。

このとき、\{X_k\}の持つ情報量と\{Y_l\}の持つ情報量は等しくなり、エントロピーをHで表すと、

H(X_1,H_2,\cdot\cdot\cdot)=H(Y_1,Y_2,\cdot\cdot\cdot)

が成立する。

Hは結合エントロピーです。


この予想を用いて、素数の密度を算出します。

エントロピーを用いた素数密度算出は、既に紹介されているようです。

N以下の自然数の集合を考え、自然数は一様分布しているものとみなします。

自然数を一つ選ぶ確率は

\frac{1}{N}

となります。

よって、Nまでの自然数エントロピーは、

H_N=\log(N)となります。


通常エントロピーの対数の底は2でとりますが、ここでは自然対数とします。

自然数は、素数で一意に記述可能であり、自然数から素数を記述することも可能なので、

上の予想を適用してみます。

自然数についての情報は、どの素数の倍数になっているかを調べることで得ることができます。

ある素数p_kの倍数になる確率は、\frac{1}{p_k}なので、素数に関するエントロピーの総和は、

\sum_k \frac{1}{p_k}\log(p_k)となります。

予想を適用すると、

\log(N)=\sum_k \frac{1}{p_k}\log(p_k)

右辺の和は、素数密度p_\pi(x)を用いて、

\log(N)\sim \int_2^N \frac{p_\pi(x)}{x}\log(x)dx

と近似できます。

Nについて微分すると、

\frac{1}{N}\sim\frac{p_\pi(x)}{N}\log(N)

よって、

p_\pi(x)\sim \frac{1}{\log(x)}

これは、素数定理の結果とほぼ一致します。

ガウス素数の場合も、同様の計算が可能です。


この他にも、エントロピーの予想を関数やベクトルの基底変換にも適用できないか、考えています。