In breve definiamo la complessità c(n) di un numero n come il numero di bit necessari a scrivere un programma che dia n come output. Questo dipende dal linguaggio che scegliamo, ma solo a meno di una costante additiva. Diremo che n è casuale se
$ c(n) > [ \log n ] $
dove prendiamo il logaritmo in base 2, cioè il numero di bit necessari a scrivere esplicitamente il numero.
Intuitivamente n è casuale se il più breve programma che dà n come output è
Codice: Seleziona tutto
print n;
Visto che siamo su un forum di matematica può essere carino dimostrare
1) Per ogni k abbastanza grande esistono numeri casuali di k cifre
e da questo dedurre
2) Per infiniti n vale la stima (ok, è una stima stupida, però l'approccio è carino)
$ \pi(n) \geq \frac{\log n}{\log \log n} $
dove $ \pi(n) $ è il numero di primi fino ad n.