
Diamo di seguito alcune dimostrazioni della disuguaglianza media aritmetica-media quadratica:
"Dati $ n $ numeri reali $ x_1,x_2,...x_n $ , allora la seguente disuguaglianza è sempre valida: $ \frac{x_1+x_2+...+x_n}{n} \le \sqrt{\frac{x_1^2+x_2^2+...+x_n^2}{n}} $, con uguaglianza se e solo se $ x_1=x_2=...=x_n $".
(Da notare che non è necessario che le variabili siano strettamente positive in quanto $ \frac{x_1+x_2+...x_n}{n} \le \frac{|x_1|+|x_2|+...+|x_n|}{n} $ e anche per tale sequenza la disuguaglianza deve essere verificata)
1. (Induzione) Verifichiamo la tesi per $ n=2 $: $ \frac{x_1+x_2}{2} \le \sqrt{\frac{x_1^2+x_2^2}{2}} \leftrightarrow (x_1+x_2)^2 \le 2(x_1^2+x_2^2) $ $ \leftrightarrow 2x_1x_2 \le x_1^2+x_2^2 \leftrightarrow (x_1-x_2)^2 \ge 0 $, sempre verificata.
Supponiamo adesso che la tesi sia vera per $ n \in \mathbb{N} $, e verifichiamola per $ n+1 $: $ \frac{\sum_{i=1}^n{x_1}+x_{n+1}}{n+1} \le \sqrt{\frac{\sum_{i=1}^n{x_i^2}+x_{n+1}^2}{n+1}} $ $ \leftrightarrow (\sum_{i=1}^n{x_i})^2 + x_{n+1}^2+2x_{n+1}\sum_{i=1}^n{x_i} \le $ $ n(\sum_{i=1}^n{x_i^2})+ (\sum_{i=1}^n{x_i^2})+(n+1)x_{n+1}^2 $. Ma dall'ipotesi induttiva sappiamo che $ (\sum_{i=1}^n{x_i})^2 \le n(\sum_{i=1}^n{x_i^2}) $ per cui è sufficiente dimostrare che: $ x_{n+1}^2+2x_{n+1}\sum_{i=1}^n{x_i} \le (\sum_{i=1}^n{x_i^2})+(n+1)x_{n+1}^2 $$ \leftrightarrow nx_{n+1}^2-2x_{n+1}(\sum_{i=1}^n{x_i})+(\sum_{i=1}^n{x_i^2}) \ge 0 $. Ma questa è una quadratica in $ x_{n+1} $ ed è sempre verificata se ha delta non negativo (si fa lo stesso con il completamento dei quadrati): infatti $ \delta/4= \sum_{i=1}^n{x_i}-n (\sum_{i=1}^n{x_i^2}) \ge 0 $ che guarda caso è di nuovo l'ipotesi induttiva.
2. (Medie p-esime) Dati n numeri reali positivi $ x_1,x_2,...x_n $ e dato $ p $ reale si definisce media $ p- $esima la quantità: $ \displaystyle M(p)=(\frac{x_1^p+x_2^p+...x_n^p}{n})^{\frac{1}{p}} $; si verifica facilmente che $ M(a) \le M(b), \forall a<b $, con uguaglianza se e solo se $ x_i=x_{i+1}, \forall 1 \le i \le n-1 $. Ma la disuguaglianza da verificare è solo un corollario in quanto puo essere riscritta come $ M(1) \le M(2) $.
3. (Chebycheff) Date due $ n- $ uple $ a_1 \le a_2 \le ...\le a_n $ e $ b_1 \le b_2 \le ...\le b_n $ (reali qualunque) allora la seguente disuguaglianza è valida: $ \displaystyle (\sum_{i=1}^n{a_i})(\sum_{i=1}^n{b_i}) \le n(\sum_{i=1}^n{a_ib_i}) $ con uguaglianza se e solo se almeno una delle due sequenze è costante. Ponendo $ na_i = nb_i = x_i, \forall 1 \le i \le n $ si ha la tesi.
4. (Cauchy-Schwarz) Date due $ n- $ uple $ a_1 \le a_2 \le ...\le a_n $ e $ b_1 \le b_2 \le ...\le b_n $ (reali qualunque) allora la seguente disuguaglianza è valida: $ \displaystyle (\sum_{i=1}^n{a_ib_i})^2 \le (\sum_{i=1}^n{a_i^2}) (\sum_{i=1}^n{b_i^2}) $ con uguaglianza se e solo se esiste un reale $ \alpha $ tale che $ a_i=\alpha b_i, \forall 1 \le i \le n $. Ponendo $ b_1 =b_2=...=b_n=1 $ e $ a_i=x_i $ si ha direttamente la tesi.
5. (Karamata) Diciamo che una sequenza di n reali positivi $ a_i $ maggiorizza una sequenza $ b_i $ se soddisfa le seguenti condizioni:
*) $ \displaystyle a_1+a_2+...+a_j \ge b_1+b_2+...b_j, \forall 1 \le j \le n-1 $
**)$ \displaystyle a_1+a_2+...+a_n \ge b_1+b_2+...b_n $.
Allora data una qualunque funzione $ f(x) $ convessa (in un intervallo che comprende tutti i numeri delle due sequenza precedenti) risulta che:
$ f(a_1)+f(a_2)+...+f(a_n) \ge f(b_1)+f(b_2)+...+f(b_n) $.
Ponendo $ f(x)=x^2 $ si ha la tesi.
(Da notare che ponendo $ nb_i=nb_{i+1}=a_1+a_2+...+a_n, \forall 1 \le i \le n-1 $ si ha come corollario la celebre disuguaglianza di Jensen).
6. (Prodotto scalare di vettori) Dati due vettori $ \vec{a}, \vec{b} \in \mathbb{R}^n $ e detto $ \alpha $ l'angolo tra essi compreso allora il prodotto scalare $ \sum_{i=1}^n{a_i}{b_i}=\vec{a}*\vec{b} = |\vec{a}| |\vec {b}| \cos{\alpha} \le |\vec{a}| |\vec{b}| $. Ponendo $ na_i=x_i $ e $ b_i=1, \forall 1 \le i \le n $ si ha la tesi.
7. (Lagrange) Dato che la disuguaglianza è omogenea possiamo porre wlog $ \sum_{i=1}^n{x_i}=1 $ per cui la disuguaglianza da verificare diventa: $ n\sum_{i=1}^n{x_i^2} \ge 1 $. Ponendo $ f(\vec{x})=\sum_{i=1}^n{x_i^2}-\frac{1}{n} $ sotto il vincolo di omogeneità (chiamiamolo $ g(\vec{x})=\sum_{i=1}^n{x_i}-1=0 $, otteniamo dall'equazione $ \nabla f = \lambda \nabla g \implies 2=n\lambda $. Dato che anche le derivate seconde sono positive, il punto di minimo di f è quello in cui tutte le coordinate sono uguali.
8. (Identità) Consideriamo l'identità $ \displaystyle n \sum_{i=1}^n{x_i^2}=(\sum_{i=1}^n{x_i})^2+\sum_{1 \le i<j \le n}{(x_i-x_j)^2} \ge (\sum_{i=1}^n{x_i})^2 $ da cui la tesi.
9. (Segno di una quadratica) Dato che $ \displaystyle \sum_{i=1}^n( \lambda x_i+1)^2 \ge 0, \forall \lambda \in \mathbb{R} $, possiamo considerare tale equazione come una quadratica in $ \lambda $, per cui il delta deve risultare sempre non positivo da cui direttamente la tesi.
10. (trasformare una sequenza) Sia $ x_1,x_2,...,x_n $ una sequenza con somma $ n $ (per omogeneità), allora volendo minimizzare $ x_1^2+x_2^2+...+x_n^2 $ si può notare che presi (se esistono) due elementi distinti $ x_i $ e $ x_j $ e sostituendolo con $ 1 $ e $ x_i+x_j-1 $ tale funzione diminuisce strettamente fin quando tutti gli elementi saranno uguali a 1.
11. (In $ \mathbb{R}^n $) Chiamato $ H $ l'iperpiano in $ \mathbb{R}^n $ di equazione $ \sum_{i=1}^n{x_i}=1 $ il nostro obiettivo è minimizzare la distanza dell'origine $ 0 $ dal piano. Ma la perpendicolare da $ 0 $ interseca il piano proprio nel baricentro dei vettori canonici di $ \mathbb{R}^n $ da cui la tesi.



Fine?..

