A dieci a questo post ci siamo arrivati, ora mantengo il mio impegno con NonnoBassotto, sperando che sia utile ai nuovi
Diamo di seguito alcune dimostrazioni della disuguaglianza media aritmetica-media quadratica:
"Dati $ n $ numeri reali $ x_1,x_2,...x_n $ , allora la seguente disuguaglianza è sempre valida: $ \frac{x_1+x_2+...+x_n}{n} \le \sqrt{\frac{x_1^2+x_2^2+...+x_n^2}{n}} $, con uguaglianza se e solo se $ x_1=x_2=...=x_n $".
(Da notare che non è necessario che le variabili siano strettamente positive in quanto $ \frac{x_1+x_2+...x_n}{n} \le \frac{|x_1|+|x_2|+...+|x_n|}{n} $ e anche per tale sequenza la disuguaglianza deve essere verificata)
1. (Induzione) Verifichiamo la tesi per $ n=2 $: $ \frac{x_1+x_2}{2} \le \sqrt{\frac{x_1^2+x_2^2}{2}} \leftrightarrow (x_1+x_2)^2 \le 2(x_1^2+x_2^2) $ $ \leftrightarrow 2x_1x_2 \le x_1^2+x_2^2 \leftrightarrow (x_1-x_2)^2 \ge 0 $, sempre verificata.
Supponiamo adesso che la tesi sia vera per $ n \in \mathbb{N} $, e verifichiamola per $ n+1 $: $ \frac{\sum_{i=1}^n{x_1}+x_{n+1}}{n+1} \le \sqrt{\frac{\sum_{i=1}^n{x_i^2}+x_{n+1}^2}{n+1}} $ $ \leftrightarrow (\sum_{i=1}^n{x_i})^2 + x_{n+1}^2+2x_{n+1}\sum_{i=1}^n{x_i} \le $ $ n(\sum_{i=1}^n{x_i^2})+ (\sum_{i=1}^n{x_i^2})+(n+1)x_{n+1}^2 $. Ma dall'ipotesi induttiva sappiamo che $ (\sum_{i=1}^n{x_i})^2 \le n(\sum_{i=1}^n{x_i^2}) $ per cui è sufficiente dimostrare che: $ x_{n+1}^2+2x_{n+1}\sum_{i=1}^n{x_i} \le (\sum_{i=1}^n{x_i^2})+(n+1)x_{n+1}^2 $$ \leftrightarrow nx_{n+1}^2-2x_{n+1}(\sum_{i=1}^n{x_i})+(\sum_{i=1}^n{x_i^2}) \ge 0 $. Ma questa è una quadratica in $ x_{n+1} $ ed è sempre verificata se ha delta non negativo (si fa lo stesso con il completamento dei quadrati): infatti $ \delta/4= \sum_{i=1}^n{x_i}-n (\sum_{i=1}^n{x_i^2}) \ge 0 $ che guarda caso è di nuovo l'ipotesi induttiva.
2. (Medie p-esime) Dati n numeri reali positivi $ x_1,x_2,...x_n $ e dato $ p $ reale si definisce media $ p- $esima la quantità: $ \displaystyle M(p)=(\frac{x_1^p+x_2^p+...x_n^p}{n})^{\frac{1}{p}} $; si verifica facilmente che $ M(a) \le M(b), \forall a<b $, con uguaglianza se e solo se $ x_i=x_{i+1}, \forall 1 \le i \le n-1 $. Ma la disuguaglianza da verificare è solo un corollario in quanto puo essere riscritta come $ M(1) \le M(2) $.
3. (Chebycheff) Date due $ n- $ uple $ a_1 \le a_2 \le ...\le a_n $ e $ b_1 \le b_2 \le ...\le b_n $ (reali qualunque) allora la seguente disuguaglianza è valida: $ \displaystyle (\sum_{i=1}^n{a_i})(\sum_{i=1}^n{b_i}) \le n(\sum_{i=1}^n{a_ib_i}) $ con uguaglianza se e solo se almeno una delle due sequenze è costante. Ponendo $ na_i = nb_i = x_i, \forall 1 \le i \le n $ si ha la tesi.
4. (Cauchy-Schwarz) Date due $ n- $ uple $ a_1 \le a_2 \le ...\le a_n $ e $ b_1 \le b_2 \le ...\le b_n $ (reali qualunque) allora la seguente disuguaglianza è valida: $ \displaystyle (\sum_{i=1}^n{a_ib_i})^2 \le (\sum_{i=1}^n{a_i^2}) (\sum_{i=1}^n{b_i^2}) $ con uguaglianza se e solo se esiste un reale $ \alpha $ tale che $ a_i=\alpha b_i, \forall 1 \le i \le n $. Ponendo $ b_1 =b_2=...=b_n=1 $ e $ a_i=x_i $ si ha direttamente la tesi.
5. (Karamata) Diciamo che una sequenza di n reali positivi $ a_i $ maggiorizza una sequenza $ b_i $ se soddisfa le seguenti condizioni:
*) $ \displaystyle a_1+a_2+...+a_j \ge b_1+b_2+...b_j, \forall 1 \le j \le n-1 $
**)$ \displaystyle a_1+a_2+...+a_n \ge b_1+b_2+...b_n $.
Allora data una qualunque funzione $ f(x) $ convessa (in un intervallo che comprende tutti i numeri delle due sequenza precedenti) risulta che:
$ f(a_1)+f(a_2)+...+f(a_n) \ge f(b_1)+f(b_2)+...+f(b_n) $.
Ponendo $ f(x)=x^2 $ si ha la tesi.
(Da notare che ponendo $ nb_i=nb_{i+1}=a_1+a_2+...+a_n, \forall 1 \le i \le n-1 $ si ha come corollario la celebre disuguaglianza di Jensen).
6. (Prodotto scalare di vettori) Dati due vettori $ \vec{a}, \vec{b} \in \mathbb{R}^n $ e detto $ \alpha $ l'angolo tra essi compreso allora il prodotto scalare $ \sum_{i=1}^n{a_i}{b_i}=\vec{a}*\vec{b} = |\vec{a}| |\vec {b}| \cos{\alpha} \le |\vec{a}| |\vec{b}| $. Ponendo $ na_i=x_i $ e $ b_i=1, \forall 1 \le i \le n $ si ha la tesi.
7. (Lagrange) Dato che la disuguaglianza è omogenea possiamo porre wlog $ \sum_{i=1}^n{x_i}=1 $ per cui la disuguaglianza da verificare diventa: $ n\sum_{i=1}^n{x_i^2} \ge 1 $. Ponendo $ f(\vec{x})=\sum_{i=1}^n{x_i^2}-\frac{1}{n} $ sotto il vincolo di omogeneità (chiamiamolo $ g(\vec{x})=\sum_{i=1}^n{x_i}-1=0 $, otteniamo dall'equazione $ \nabla f = \lambda \nabla g \implies 2=n\lambda $. Dato che anche le derivate seconde sono positive, il punto di minimo di f è quello in cui tutte le coordinate sono uguali.
8. (Identità) Consideriamo l'identità $ \displaystyle n \sum_{i=1}^n{x_i^2}=(\sum_{i=1}^n{x_i})^2+\sum_{1 \le i<j \le n}{(x_i-x_j)^2} \ge (\sum_{i=1}^n{x_i})^2 $ da cui la tesi.
9. (Segno di una quadratica) Dato che $ \displaystyle \sum_{i=1}^n( \lambda x_i+1)^2 \ge 0, \forall \lambda \in \mathbb{R} $, possiamo considerare tale equazione come una quadratica in $ \lambda $, per cui il delta deve risultare sempre non positivo da cui direttamente la tesi.
10. (trasformare una sequenza) Sia $ x_1,x_2,...,x_n $ una sequenza con somma $ n $ (per omogeneità), allora volendo minimizzare $ x_1^2+x_2^2+...+x_n^2 $ si può notare che presi (se esistono) due elementi distinti $ x_i $ e $ x_j $ e sostituendolo con $ 1 $ e $ x_i+x_j-1 $ tale funzione diminuisce strettamente fin quando tutti gli elementi saranno uguali a 1.
11. (In $ \mathbb{R}^n $) Chiamato $ H $ l'iperpiano in $ \mathbb{R}^n $ di equazione $ \sum_{i=1}^n{x_i}=1 $ il nostro obiettivo è minimizzare la distanza dell'origine $ 0 $ dal piano. Ma la perpendicolare da $ 0 $ interseca il piano proprio nel baricentro dei vettori canonici di $ \mathbb{R}^n $ da cui la tesi.
Fine?..
Alcuni modi per dimostrare la AM-QM
Alcuni modi per dimostrare la AM-QM
The only goal of science is the honor of the human spirit.
Re: Alcuni modi per dimostrare la AM-QM
Eh beh, non esageriamo... E' molto più difficile di quello che vogliamo dimostrare!jordan ha scritto:si verifica facilmente che $ M(a) \le M(b), \forall a<b $
La 6) è ridondante. Cioè, la disuguaglianza di Cauchy-Schwarz è proprio la seguente:
$ |\langle v,w \rangle| \leq \| v \| \| w \| $ per ogni $ v,w \in \mathbb R^n $. Poi, il fatto è che l'angolo tra due vettori è in generale definito come quel numero reale $ \theta $ tra $ 0 $ e $ 2\pi $ tale che $ \displaystyle \cos \theta = \frac{ \langle v,w \rangle}{\| v \| \| w \|} $. Quindi, a parte che ripete la 4), non ha molto senso la 6) così come è scritta, perché sembra che sia calata dal cielo la definizione dell'angolo tra due vettori di $ \mathbb R^n $, e non si capisce come mai dovrebbe essere, in $ \mathbb R^n $, che $ \langle v,w \rangle = \| v \| \| w \| \cos \theta $, quando invece, come ho detto, quell'uguaglianza è data per definizione (definizione che è buona proprio per la disuguaglianza di Schwarz!). Questo, sempre a meno che non esista un altro modo (equivalente e che io ignoro!) per dire cos'è l'angolo tra due vettori di $ \mathbb R^n $...
$ |\langle v,w \rangle| \leq \| v \| \| w \| $ per ogni $ v,w \in \mathbb R^n $. Poi, il fatto è che l'angolo tra due vettori è in generale definito come quel numero reale $ \theta $ tra $ 0 $ e $ 2\pi $ tale che $ \displaystyle \cos \theta = \frac{ \langle v,w \rangle}{\| v \| \| w \|} $. Quindi, a parte che ripete la 4), non ha molto senso la 6) così come è scritta, perché sembra che sia calata dal cielo la definizione dell'angolo tra due vettori di $ \mathbb R^n $, e non si capisce come mai dovrebbe essere, in $ \mathbb R^n $, che $ \langle v,w \rangle = \| v \| \| w \| \cos \theta $, quando invece, come ho detto, quell'uguaglianza è data per definizione (definizione che è buona proprio per la disuguaglianza di Schwarz!). Questo, sempre a meno che non esista un altro modo (equivalente e che io ignoro!) per dire cos'è l'angolo tra due vettori di $ \mathbb R^n $...
Ultima modifica di Ani-sama il 12 dic 2008, 01:54, modificato 3 volte in totale.
...
Si credo che hai ragione..
Sia $ M(p) $ la $ p- $ esima media generalizzata con pesi $ w_1,w_2,...w_n $, vogliamo dimostrare che $ M(a) \ge M(b), \forall a>b $ con uguaglianza se e solo se tutti gli $ x_i $ sono uguali tra loro.
Consideriamo dapprima il caso $ 0<a<b $ (in modo analogo si fanno i casi $ a<0<b $ e $ a<b<0 $) e si consideri la funzione convessa $ f(x)=x^{\frac{b}{a}} $. Dato che per jensen si ha $ \displaystyle f(\sum_{i=1}^n{w_ix_i^a}) \le \sum_{i=1}^n{w_1f(x_i^a)} $ da cui direttamente la tesi.
Il caso in cui p tende a zero è molto simpatico e fattibile davvero per cui se qualcuno vuole provarci, magari senza cercare la soluzione.. (hint:usare i logaritmi)
@Ani-Sama: molte sono ridondanti in fondo, e comunque quella palese che dici tu l'avevo gia fatto notare al link..
Sia $ M(p) $ la $ p- $ esima media generalizzata con pesi $ w_1,w_2,...w_n $, vogliamo dimostrare che $ M(a) \ge M(b), \forall a>b $ con uguaglianza se e solo se tutti gli $ x_i $ sono uguali tra loro.
Consideriamo dapprima il caso $ 0<a<b $ (in modo analogo si fanno i casi $ a<0<b $ e $ a<b<0 $) e si consideri la funzione convessa $ f(x)=x^{\frac{b}{a}} $. Dato che per jensen si ha $ \displaystyle f(\sum_{i=1}^n{w_ix_i^a}) \le \sum_{i=1}^n{w_1f(x_i^a)} $ da cui direttamente la tesi.
Il caso in cui p tende a zero è molto simpatico e fattibile davvero per cui se qualcuno vuole provarci, magari senza cercare la soluzione.. (hint:usare i logaritmi)
@Ani-Sama: molte sono ridondanti in fondo, e comunque quella palese che dici tu l'avevo gia fatto notare al link..
The only goal of science is the honor of the human spirit.
Quale scusa? Non ho mai detto nulla di simile. E comunque la ridondanza è forse il minor problema, visto che quello più grosso è, a mio avviso, la vaghezza nella definizione di "angolo tra due vettori di $ \mathbb R^n $".jordan ha scritto:[...] e comunque quella palese che dici tu l'avevo gia fatto notare al link..
...