Sommatorie infinite difficilotte [own]

Polinomi, disuguaglianze, numeri complessi, ...
Avatar utente
Maioc92
Messaggi: 778
Iscritto il: 21 apr 2009, 21:07
Località: REGGIO EMILIA

Messaggio da Maioc92 »

comunque scusate se sono tedioso ma riuscite a spiegare nel modo più semplice possibile perchè se per ogni n vale $ \displaystyle\sum_{i=1}^n\frac i {2^i}=\sum_{i=1}^n(\sum_{k=i}^n\frac 1 {2^k}) $, non vale più per $ n\rightarrow\infty $?Comunque mi sono accorto adesso che volendo posso portare avanti i conti con la n e poi sostituire alla fine. Anche in questo caso sarebbe sbagliato? Scusate se la domanda per voi è stupida però mi piacerebbe capirci qualcosa...
Il tempo svela ogni cosa......ma allora perchè quel maledetto problema non si risolve da solo?!
Avatar utente
kn
Messaggi: 508
Iscritto il: 23 lug 2007, 22:28
Località: Sestri Levante (Genova)
Contatta:

Messaggio da kn »

No, la tua dimostrazione funziona (la serie è a termini positivi) :wink:
Wikipedia ha scritto:Given a series $ ~\sum_{n=0}^{\infty} a_n $ with values in a normed abelian group $ ~G $ and a permutation σ of the natural numbers, one builds a new series $ ~\sum_{n=0}^\infty a_{\sigma(n)} $, said to be a rearrangement of the original series. A series is said to be unconditionally convergent if all rearrangements of the series are convergent to the same value.

When $ ~G $ is complete, absolute convergence implies unconditional convergence.
(da qui)
Viviamo intorno a un mare come rane intorno a uno stagno. (Socrate)
Rispondi