Alcuni modi per dimostrare la AM-QM

Cosa sono il pigeonhole e l'induzione? Cosa dice il teorema di Ceva? 1 è un numero primo?
Rispondi
Avatar utente
jordan
Messaggi: 3988
Iscritto il: 02 feb 2007, 21:19
Località: Pescara
Contatta:

Alcuni modi per dimostrare la AM-QM

Messaggio da jordan » 12 dic 2008, 00:50

A dieci a questo post ci siamo arrivati, ora mantengo il mio impegno con NonnoBassotto, sperando che sia utile ai nuovi :D

Diamo di seguito alcune dimostrazioni della disuguaglianza media aritmetica-media quadratica:

"Dati $ n $ numeri reali $ x_1,x_2,...x_n $ , allora la seguente disuguaglianza è sempre valida: $ \frac{x_1+x_2+...+x_n}{n} \le \sqrt{\frac{x_1^2+x_2^2+...+x_n^2}{n}} $, con uguaglianza se e solo se $ x_1=x_2=...=x_n $".

(Da notare che non è necessario che le variabili siano strettamente positive in quanto $ \frac{x_1+x_2+...x_n}{n} \le \frac{|x_1|+|x_2|+...+|x_n|}{n} $ e anche per tale sequenza la disuguaglianza deve essere verificata)


1. (Induzione) Verifichiamo la tesi per $ n=2 $: $ \frac{x_1+x_2}{2} \le \sqrt{\frac{x_1^2+x_2^2}{2}} \leftrightarrow (x_1+x_2)^2 \le 2(x_1^2+x_2^2) $ $ \leftrightarrow 2x_1x_2 \le x_1^2+x_2^2 \leftrightarrow (x_1-x_2)^2 \ge 0 $, sempre verificata.
Supponiamo adesso che la tesi sia vera per $ n \in \mathbb{N} $, e verifichiamola per $ n+1 $: $ \frac{\sum_{i=1}^n{x_1}+x_{n+1}}{n+1} \le \sqrt{\frac{\sum_{i=1}^n{x_i^2}+x_{n+1}^2}{n+1}} $ $ \leftrightarrow (\sum_{i=1}^n{x_i})^2 + x_{n+1}^2+2x_{n+1}\sum_{i=1}^n{x_i} \le $ $ n(\sum_{i=1}^n{x_i^2})+ (\sum_{i=1}^n{x_i^2})+(n+1)x_{n+1}^2 $. Ma dall'ipotesi induttiva sappiamo che $ (\sum_{i=1}^n{x_i})^2 \le n(\sum_{i=1}^n{x_i^2}) $ per cui è sufficiente dimostrare che: $ x_{n+1}^2+2x_{n+1}\sum_{i=1}^n{x_i} \le (\sum_{i=1}^n{x_i^2})+(n+1)x_{n+1}^2 $$ \leftrightarrow nx_{n+1}^2-2x_{n+1}(\sum_{i=1}^n{x_i})+(\sum_{i=1}^n{x_i^2}) \ge 0 $. Ma questa è una quadratica in $ x_{n+1} $ ed è sempre verificata se ha delta non negativo (si fa lo stesso con il completamento dei quadrati): infatti $ \delta/4= \sum_{i=1}^n{x_i}-n (\sum_{i=1}^n{x_i^2}) \ge 0 $ che guarda caso è di nuovo l'ipotesi induttiva.

2. (Medie p-esime) Dati n numeri reali positivi $ x_1,x_2,...x_n $ e dato $ p $ reale si definisce media $ p- $esima la quantità: $ \displaystyle M(p)=(\frac{x_1^p+x_2^p+...x_n^p}{n})^{\frac{1}{p}} $; si verifica facilmente che $ M(a) \le M(b), \forall a<b $, con uguaglianza se e solo se $ x_i=x_{i+1}, \forall 1 \le i \le n-1 $. Ma la disuguaglianza da verificare è solo un corollario in quanto puo essere riscritta come $ M(1) \le M(2) $.

3. (Chebycheff) Date due $ n- $ uple $ a_1 \le a_2 \le ...\le a_n $ e $ b_1 \le b_2 \le ...\le b_n $ (reali qualunque) allora la seguente disuguaglianza è valida: $ \displaystyle (\sum_{i=1}^n{a_i})(\sum_{i=1}^n{b_i}) \le n(\sum_{i=1}^n{a_ib_i}) $ con uguaglianza se e solo se almeno una delle due sequenze è costante. Ponendo $ na_i = nb_i = x_i, \forall 1 \le i \le n $ si ha la tesi.

4. (Cauchy-Schwarz) Date due $ n- $ uple $ a_1 \le a_2 \le ...\le a_n $ e $ b_1 \le b_2 \le ...\le b_n $ (reali qualunque) allora la seguente disuguaglianza è valida: $ \displaystyle (\sum_{i=1}^n{a_ib_i})^2 \le (\sum_{i=1}^n{a_i^2}) (\sum_{i=1}^n{b_i^2}) $ con uguaglianza se e solo se esiste un reale $ \alpha $ tale che $ a_i=\alpha b_i, \forall 1 \le i \le n $. Ponendo $ b_1 =b_2=...=b_n=1 $ e $ a_i=x_i $ si ha direttamente la tesi.

5. (Karamata) Diciamo che una sequenza di n reali positivi $ a_i $ maggiorizza una sequenza $ b_i $ se soddisfa le seguenti condizioni:
*) $ \displaystyle a_1+a_2+...+a_j \ge b_1+b_2+...b_j, \forall 1 \le j \le n-1 $
**)$ \displaystyle a_1+a_2+...+a_n \ge b_1+b_2+...b_n $.
Allora data una qualunque funzione $ f(x) $ convessa (in un intervallo che comprende tutti i numeri delle due sequenza precedenti) risulta che:
$ f(a_1)+f(a_2)+...+f(a_n) \ge f(b_1)+f(b_2)+...+f(b_n) $.
Ponendo $ f(x)=x^2 $ si ha la tesi.
(Da notare che ponendo $ nb_i=nb_{i+1}=a_1+a_2+...+a_n, \forall 1 \le i \le n-1 $ si ha come corollario la celebre disuguaglianza di Jensen).

6. (Prodotto scalare di vettori) Dati due vettori $ \vec{a}, \vec{b} \in \mathbb{R}^n $ e detto $ \alpha $ l'angolo tra essi compreso allora il prodotto scalare $ \sum_{i=1}^n{a_i}{b_i}=\vec{a}*\vec{b} = |\vec{a}| |\vec {b}| \cos{\alpha} \le |\vec{a}| |\vec{b}| $. Ponendo $ na_i=x_i $ e $ b_i=1, \forall 1 \le i \le n $ si ha la tesi.

7. (Lagrange) Dato che la disuguaglianza è omogenea possiamo porre wlog $ \sum_{i=1}^n{x_i}=1 $ per cui la disuguaglianza da verificare diventa: $ n\sum_{i=1}^n{x_i^2} \ge 1 $. Ponendo $ f(\vec{x})=\sum_{i=1}^n{x_i^2}-\frac{1}{n} $ sotto il vincolo di omogeneità (chiamiamolo $ g(\vec{x})=\sum_{i=1}^n{x_i}-1=0 $, otteniamo dall'equazione $ \nabla f = \lambda \nabla g \implies 2=n\lambda $. Dato che anche le derivate seconde sono positive, il punto di minimo di f è quello in cui tutte le coordinate sono uguali.

8. (Identità) Consideriamo l'identità $ \displaystyle n \sum_{i=1}^n{x_i^2}=(\sum_{i=1}^n{x_i})^2+\sum_{1 \le i<j \le n}{(x_i-x_j)^2} \ge (\sum_{i=1}^n{x_i})^2 $ da cui la tesi.

9. (Segno di una quadratica) Dato che $ \displaystyle \sum_{i=1}^n( \lambda x_i+1)^2 \ge 0, \forall \lambda \in \mathbb{R} $, possiamo considerare tale equazione come una quadratica in $ \lambda $, per cui il delta deve risultare sempre non positivo da cui direttamente la tesi.

10. (trasformare una sequenza) Sia $ x_1,x_2,...,x_n $ una sequenza con somma $ n $ (per omogeneità), allora volendo minimizzare $ x_1^2+x_2^2+...+x_n^2 $ si può notare che presi (se esistono) due elementi distinti $ x_i $ e $ x_j $ e sostituendolo con $ 1 $ e $ x_i+x_j-1 $ tale funzione diminuisce strettamente fin quando tutti gli elementi saranno uguali a 1.

11. (In $ \mathbb{R}^n $) Chiamato $ H $ l'iperpiano in $ \mathbb{R}^n $ di equazione $ \sum_{i=1}^n{x_i}=1 $ il nostro obiettivo è minimizzare la distanza dell'origine $ 0 $ dal piano. Ma la perpendicolare da $ 0 $ interseca il piano proprio nel baricentro dei vettori canonici di $ \mathbb{R}^n $ da cui la tesi. :D :D :D

Fine?.. :shock: :lol:
The only goal of science is the honor of the human spirit.

Pigkappa
Messaggi: 1208
Iscritto il: 24 feb 2005, 13:31
Località: Carrara, Pisa

Re: Alcuni modi per dimostrare la AM-QM

Messaggio da Pigkappa » 12 dic 2008, 01:04

jordan ha scritto:si verifica facilmente che $ M(a) \le M(b), \forall a<b $
Eh beh, non esageriamo... E' molto più difficile di quello che vogliamo dimostrare!

Avatar utente
jordan
Messaggi: 3988
Iscritto il: 02 feb 2007, 21:19
Località: Pescara
Contatta:

Messaggio da jordan » 12 dic 2008, 01:07

Non che ci voglia molto..
The only goal of science is the honor of the human spirit.

Pigkappa
Messaggi: 1208
Iscritto il: 24 feb 2005, 13:31
Località: Carrara, Pisa

Messaggio da Pigkappa » 12 dic 2008, 01:11

Sarebbe molto istruttivo far vedere come si fa... Anche perchè non credo ci sia da qualche parte sul forum. :) .

Avatar utente
Ani-sama
Messaggi: 418
Iscritto il: 19 feb 2006, 21:38
Località: Antwerpen (BE)
Contatta:

Messaggio da Ani-sama » 12 dic 2008, 01:36

La 6) è ridondante. Cioè, la disuguaglianza di Cauchy-Schwarz è proprio la seguente:

$ |\langle v,w \rangle| \leq \| v \| \| w \| $ per ogni $ v,w \in \mathbb R^n $. Poi, il fatto è che l'angolo tra due vettori è in generale definito come quel numero reale $ \theta $ tra $ 0 $ e $ 2\pi $ tale che $ \displaystyle \cos \theta = \frac{ \langle v,w \rangle}{\| v \| \| w \|} $. Quindi, a parte che ripete la 4), non ha molto senso la 6) così come è scritta, perché sembra che sia calata dal cielo la definizione dell'angolo tra due vettori di $ \mathbb R^n $, e non si capisce come mai dovrebbe essere, in $ \mathbb R^n $, che $ \langle v,w \rangle = \| v \| \| w \| \cos \theta $, quando invece, come ho detto, quell'uguaglianza è data per definizione (definizione che è buona proprio per la disuguaglianza di Schwarz!). Questo, sempre a meno che non esista un altro modo (equivalente e che io ignoro!) per dire cos'è l'angolo tra due vettori di $ \mathbb R^n $...
Ultima modifica di Ani-sama il 12 dic 2008, 01:54, modificato 3 volte in totale.
...

Avatar utente
jordan
Messaggi: 3988
Iscritto il: 02 feb 2007, 21:19
Località: Pescara
Contatta:

Messaggio da jordan » 12 dic 2008, 01:38

Si credo che hai ragione..

Sia $ M(p) $ la $ p- $ esima media generalizzata con pesi $ w_1,w_2,...w_n $, vogliamo dimostrare che $ M(a) \ge M(b), \forall a>b $ con uguaglianza se e solo se tutti gli $ x_i $ sono uguali tra loro.

Consideriamo dapprima il caso $ 0<a<b $ (in modo analogo si fanno i casi $ a<0<b $ e $ a<b<0 $) e si consideri la funzione convessa $ f(x)=x^{\frac{b}{a}} $. Dato che per jensen si ha $ \displaystyle f(\sum_{i=1}^n{w_ix_i^a}) \le \sum_{i=1}^n{w_1f(x_i^a)} $ da cui direttamente la tesi.
Il caso in cui p tende a zero è molto simpatico e fattibile davvero per cui se qualcuno vuole provarci, magari senza cercare la soluzione.. (hint:usare i logaritmi) :D

@Ani-Sama: molte sono ridondanti in fondo, e comunque quella palese che dici tu l'avevo gia fatto notare al link..
The only goal of science is the honor of the human spirit.

Avatar utente
Ani-sama
Messaggi: 418
Iscritto il: 19 feb 2006, 21:38
Località: Antwerpen (BE)
Contatta:

Messaggio da Ani-sama » 12 dic 2008, 01:42

jordan ha scritto:[...] e comunque quella palese che dici tu l'avevo gia fatto notare al link..
Quale scusa? :shock: Non ho mai detto nulla di simile. :shock: E comunque la ridondanza è forse il minor problema, visto che quello più grosso è, a mio avviso, la vaghezza nella definizione di "angolo tra due vettori di $ \mathbb R^n $".
...

Avatar utente
jordan
Messaggi: 3988
Iscritto il: 02 feb 2007, 21:19
Località: Pescara
Contatta:

Messaggio da jordan » 12 dic 2008, 01:46

:shock: Sono andato al link per autocitarmi e la cosa dell'angolo tra vettori non l'ho detta :shock: la memoria inizia a farmi brutti scherzi :lol: :lol:
comunque, niente da dire, hai pienamente ragione
The only goal of science is the honor of the human spirit.

Rispondi