Dimostrare che, dati $n$ reali positivi $x_1,x_2,...,x_n$, vale:
$$\prod_{i=1}^n (1+x_i)\leq \sum_{j=0}^n \frac{\left({\sum_{k=1}^n x_k}\right)^j}{j!}$$
e stabilire i casi di uguaglianza.
Prodotti e somme
Prodotti e somme
"Una funzione generatrice è una corda da bucato usata per appendervi una successione numerica per metterla in mostra" (Herbert Wilf)
"La matematica è la regina delle scienze e la teoria dei numeri è la regina della matematica" (Carl Friedrich Gauss)
Sensibilizzazione all'uso delle potenti Coordinate Cartesiane, possano seppellire per sempre le orride baricentriche corruttrici dei giovani: cur enim scribere tre numeri quando se ne abbisogna di due?
PRIMA FILA TUTTI SBIRRI!
"La matematica è la regina delle scienze e la teoria dei numeri è la regina della matematica" (Carl Friedrich Gauss)
Sensibilizzazione all'uso delle potenti Coordinate Cartesiane, possano seppellire per sempre le orride baricentriche corruttrici dei giovani: cur enim scribere tre numeri quando se ne abbisogna di due?
PRIMA FILA TUTTI SBIRRI!
Re: Prodotti e somme
Passa per delle cose un po' scolastiche, ma tant' è.
Setto: $$ y_i:=\log(1+x_i)>0$$ e, detta $\sigma>0$ la somma degli $y_i$, riscrivo il LHS come:
$$
\mbox{LHS}=\prod_{i=1}^n (1+x_i)=\exp(\sigma)<\sum_{k=0}^n\frac{\sigma^k}{k!}
$$
dove ho usato la definizione di esponenziale e il fatto che la successione delle ridotte della serie esponenziale è strettamente crescente. Ora spero che valga la disuguaglianza termine-termine tra quest' ultima serie e quella del RHS, cioè:
$$
\frac{\sigma^k}{k!}\leq \frac{\left({\sum_{i=1}^n x_i}\right)^k}{k!}\qquad \Leftrightarrow \qquad \sigma= \sum_{i=0}^{n}y_i=\sum_{i=0}^{n}\log(1+x_i)\leq \sum_{i=0}^{n}x_i=\mbox{RHS}
$$
ma anche quest' ultima disuguaglianza è vera termine-termine per la disguaglianza fondamentale $\log (1+x)<x$.
Per avere l' uguaglianza si deve almeno avere che quando tronchiamo la serie esponenziale non perdiamo nulla, ciò avviene solo se $\sigma=0$, cioè se tutti gli $x_i$ sono nulli.
Setto: $$ y_i:=\log(1+x_i)>0$$ e, detta $\sigma>0$ la somma degli $y_i$, riscrivo il LHS come:
$$
\mbox{LHS}=\prod_{i=1}^n (1+x_i)=\exp(\sigma)<\sum_{k=0}^n\frac{\sigma^k}{k!}
$$
dove ho usato la definizione di esponenziale e il fatto che la successione delle ridotte della serie esponenziale è strettamente crescente. Ora spero che valga la disuguaglianza termine-termine tra quest' ultima serie e quella del RHS, cioè:
$$
\frac{\sigma^k}{k!}\leq \frac{\left({\sum_{i=1}^n x_i}\right)^k}{k!}\qquad \Leftrightarrow \qquad \sigma= \sum_{i=0}^{n}y_i=\sum_{i=0}^{n}\log(1+x_i)\leq \sum_{i=0}^{n}x_i=\mbox{RHS}
$$
ma anche quest' ultima disuguaglianza è vera termine-termine per la disguaglianza fondamentale $\log (1+x)<x$.
Per avere l' uguaglianza si deve almeno avere che quando tronchiamo la serie esponenziale non perdiamo nulla, ciò avviene solo se $\sigma=0$, cioè se tutti gli $x_i$ sono nulli.
Spargi il defoliante
sulla cassa dirigente
[anonimo]
sulla cassa dirigente
[anonimo]
-
- Messaggi: 486
- Iscritto il: 01 lug 2011, 22:52
Re: Prodotti e somme
Altra dimostrazioncina. Sia \(A_n = \{1,\ldots, n\}\). Per ogni \(S \subseteq A_n\), siano \(l_s, r_s\) rispettivamente i coefficienti di \( y_s = \displaystyle \prod_{ i \in S} x_i\) nel LHS e nel RHS. Evidentemente \(l_s = 1\) per ogni \(S\), perchè c'è uno e un solo modo di scegliere quel prodotto dalle parentesi.
Sia \(S_k\) il \(k\)-esimo elemento dell'insieme \(S\), e sia \(j=|S|\). Per ogni permutazione \(\rho\) di \(S\) esiste un modo di ottenere \(y_s\), scegliendo nella \(k\)-esima parentesi del \(j\)-esimo addendo in RHS il termine \(x_{\rho(S_k)}\). Perciò, considerando il \(j!\) al denominatore, \(r_s=1\).
Dunque, visto che
\[LHS = \sum_{S \subseteq A_n} y_s\]
tutto LHS si semplifica. Ci sono però anche altri termini (tutti non-negativi) in RHS: ad esempio, consideriamo i termini
\[ T = \frac{1}{2} \sum_{k=1}^n x_k^2 \]
che vengono fuori da \(j=2\) in RHS. La dimostrazione si conclude notando che \(T >0\) perchè somma di quadrati, a meno che \(x_1 = \ldots = x_k = 0\). Inoltre vale l'uguaglianza anche se \( n=0,1\), perchè T non c'è.
Sia \(S_k\) il \(k\)-esimo elemento dell'insieme \(S\), e sia \(j=|S|\). Per ogni permutazione \(\rho\) di \(S\) esiste un modo di ottenere \(y_s\), scegliendo nella \(k\)-esima parentesi del \(j\)-esimo addendo in RHS il termine \(x_{\rho(S_k)}\). Perciò, considerando il \(j!\) al denominatore, \(r_s=1\).
Dunque, visto che
\[LHS = \sum_{S \subseteq A_n} y_s\]
tutto LHS si semplifica. Ci sono però anche altri termini (tutti non-negativi) in RHS: ad esempio, consideriamo i termini
\[ T = \frac{1}{2} \sum_{k=1}^n x_k^2 \]
che vengono fuori da \(j=2\) in RHS. La dimostrazione si conclude notando che \(T >0\) perchè somma di quadrati, a meno che \(x_1 = \ldots = x_k = 0\). Inoltre vale l'uguaglianza anche se \( n=0,1\), perchè T non c'è.
Ultima modifica di Gottinger95 il 07 mag 2014, 12:56, modificato 1 volta in totale.
\( \displaystyle \sigma(A,G) \ \ = \sum_{Y \in \mathscr{P}(A) } \dot{\chi_{|G|} } (Y) \) bum babe
-
- Messaggi: 486
- Iscritto il: 01 lug 2011, 22:52
Re: Prodotti e somme
Rilancio: dimostrare che la disuguaglianza vale lo stesso con \(\displaystyle \binom{n}{j} \frac{1}{n^j} \) al posto di \( \dfrac{1}{j!} \). É migliorata? Quali sono i casi di uguaglianza?
\( \displaystyle \sigma(A,G) \ \ = \sum_{Y \in \mathscr{P}(A) } \dot{\chi_{|G|} } (Y) \) bum babe
Re: Prodotti e somme
@machete: non mi è chiaro questo punto:
Oppure non ho capito bene quello che hai scritto?Confesso di non aver mai usato la scrittura $\textrm{exp}(\sigma)$ ed ho pensato intendessi $e^{\sigma}$, ma magari volevi dire una cosa diversa .
@Gottinger95: questa mi sembra ok, anche se mi sono un po' fidato dei conti e della parte "combinatorica" .
Qui la disuguaglianza non dovrebbe avere il verso contrario (perché al LHS abbiamo gli stessi termini del RHS, più infiniti altri), facendo saltare la maggiorazione e la conclusione?machete ha scritto:$$\textrm{exp}(\sigma)<\sum_{k=0}^n \frac{\sigma^k}{k!}$$
Oppure non ho capito bene quello che hai scritto?Confesso di non aver mai usato la scrittura $\textrm{exp}(\sigma)$ ed ho pensato intendessi $e^{\sigma}$, ma magari volevi dire una cosa diversa .
@Gottinger95: questa mi sembra ok, anche se mi sono un po' fidato dei conti e della parte "combinatorica" .
"Una funzione generatrice è una corda da bucato usata per appendervi una successione numerica per metterla in mostra" (Herbert Wilf)
"La matematica è la regina delle scienze e la teoria dei numeri è la regina della matematica" (Carl Friedrich Gauss)
Sensibilizzazione all'uso delle potenti Coordinate Cartesiane, possano seppellire per sempre le orride baricentriche corruttrici dei giovani: cur enim scribere tre numeri quando se ne abbisogna di due?
PRIMA FILA TUTTI SBIRRI!
"La matematica è la regina delle scienze e la teoria dei numeri è la regina della matematica" (Carl Friedrich Gauss)
Sensibilizzazione all'uso delle potenti Coordinate Cartesiane, possano seppellire per sempre le orride baricentriche corruttrici dei giovani: cur enim scribere tre numeri quando se ne abbisogna di due?
PRIMA FILA TUTTI SBIRRI!
Re: Prodotti e somme
No volevo proprio dire quello. C' hai ragione è proprio sbagliata! che svarione, chiedo venia sembrava venisse troppo liscia!
Spargi il defoliante
sulla cassa dirigente
[anonimo]
sulla cassa dirigente
[anonimo]
Re: Prodotti e somme
Dunque speriamo di mettere le disuguaglianze giuste 'sto giro:)
La versione Gottinger95, che se ho ben capito chiede di provare (sia $\sigma$ la somma delle $x_i$):
$$
\prod_{i=1}^n (1+x_i)\leq \sum_{j=0}^n \binom{n}{j} \frac{\sigma^j}{n^j}= \left (\frac{\sigma}{n}+1\right)^n
$$
che è AM-GM sulle $\{1+x_i\}$ (:D) e che è migliore come stima poichè per ogni termine della serie vale:
$$
\binom{n}{j} \frac{\sigma^j}{n^j}<\frac{\sigma^j}{j!}\qquad \Leftrightarrow\qquad \frac{n}{n}\cdot\frac{n-1}{n}\cdot \ldots\cdot\frac{n-j+1}{n}<1
$$
quindi questo in effetti dimostra il problema originario. Che peraltro veniva anche per induzione su $n$, il passo induttivo suona più o meno così (usando $(a+b)^j \geq a^j+ja^{j-1}b$) :
$$
\mbox{RHS}_{n+1}=\sum_{j=0}^{n+1}\frac{(\sigma_n+x_{n+1})^j}{j!}\geq\frac{\sigma_n ^{n+1}}{(n+1)!}+\sum_{j=0}^{n}\frac{\sigma_n ^j}{j!}+x_{n+1}\cdot \sum_{j=1}^{n+1}\frac{\sigma_n ^{j-1}}{(j-1)!}\geq \mbox{RHS}_n+x_{n+1}\cdot \mbox{RHS}_n\geq (1+x_{n+1})\mbox{LHS}_n=\mbox{LHS}_{n+1}
$$
o sbaglio?
La versione Gottinger95, che se ho ben capito chiede di provare (sia $\sigma$ la somma delle $x_i$):
$$
\prod_{i=1}^n (1+x_i)\leq \sum_{j=0}^n \binom{n}{j} \frac{\sigma^j}{n^j}= \left (\frac{\sigma}{n}+1\right)^n
$$
che è AM-GM sulle $\{1+x_i\}$ (:D) e che è migliore come stima poichè per ogni termine della serie vale:
$$
\binom{n}{j} \frac{\sigma^j}{n^j}<\frac{\sigma^j}{j!}\qquad \Leftrightarrow\qquad \frac{n}{n}\cdot\frac{n-1}{n}\cdot \ldots\cdot\frac{n-j+1}{n}<1
$$
quindi questo in effetti dimostra il problema originario. Che peraltro veniva anche per induzione su $n$, il passo induttivo suona più o meno così (usando $(a+b)^j \geq a^j+ja^{j-1}b$) :
$$
\mbox{RHS}_{n+1}=\sum_{j=0}^{n+1}\frac{(\sigma_n+x_{n+1})^j}{j!}\geq\frac{\sigma_n ^{n+1}}{(n+1)!}+\sum_{j=0}^{n}\frac{\sigma_n ^j}{j!}+x_{n+1}\cdot \sum_{j=1}^{n+1}\frac{\sigma_n ^{j-1}}{(j-1)!}\geq \mbox{RHS}_n+x_{n+1}\cdot \mbox{RHS}_n\geq (1+x_{n+1})\mbox{LHS}_n=\mbox{LHS}_{n+1}
$$
o sbaglio?
Spargi il defoliante
sulla cassa dirigente
[anonimo]
sulla cassa dirigente
[anonimo]
-
- Messaggi: 486
- Iscritto il: 01 lug 2011, 22:52
Re: Prodotti e somme
Si, mi sembra che siano giuste entrambe Dalla tua induzione si vede pure che i casi di uguaglianza sono \(\sigma = 0\) oppure \(j=1\) (per il quale vale l'uguale nella mini-disuguaglianza). Come applicazione di questo "lemma" sulle radici di un polinomio, mi è venuta in mente questa cosa:
Se \(p(x)\) ha tutti radici reali dello stesso segno con \(\deg(p)=n\) allora vale
\[ e_p^n p(e_p) \le (1+ \frac{e_p a_{n-1} }{n} )^n\]
dove \(|e_p| = 1\), e \(e_p\) è discorde con le soluzioni.
E mi sono chiesto: vale anche il contrario? Cioè, se ho almeno due radici complesse oppure radici di segni diversi, vale la disuguaglianza inversa?
Sarebbe un criterio abbastanza fico!
Se \(p(x)\) ha tutti radici reali dello stesso segno con \(\deg(p)=n\) allora vale
\[ e_p^n p(e_p) \le (1+ \frac{e_p a_{n-1} }{n} )^n\]
dove \(|e_p| = 1\), e \(e_p\) è discorde con le soluzioni.
E mi sono chiesto: vale anche il contrario? Cioè, se ho almeno due radici complesse oppure radici di segni diversi, vale la disuguaglianza inversa?
Sarebbe un criterio abbastanza fico!
\( \displaystyle \sigma(A,G) \ \ = \sum_{Y \in \mathscr{P}(A) } \dot{\chi_{|G|} } (Y) \) bum babe