Pagina 1 di 2

Prod_{cyc} (x_1 + 1/x_1) >= Prod_{cyc} (x_1 + 1/x_s(1))

Inviato: 17 set 2005, 20:55
da HiTLeuLeR
Problema: siano $ n\in\mathbb{N}_0 $ e $ \sigma(\cdot) $ una qualunque permutazione di $ \{1, 2, \ldots, n\} $ in se stesso. Mostrare allora che, per ogni $ x_1, x_2, \ldots, x_n \in \mathbb{R}^+ $: $ (x_1 + x_1^{-1})(x_2 + x_2^{-1})\ldots (x_n + x_n^{-1}) $ $ \geq (x_1 + x_{\sigma(1)}^{-1})(x_2 + x_{\sigma(2)})\ldots (x_n + x_{\sigma(n)}^{-1}) $.

Inviato: 17 set 2005, 22:52
da moebius
Si può usare il fatto che ogni permutazione è prodotto di trasposizioni?

Inviato: 18 set 2005, 07:10
da HiTLeuLeR
Di sicuro non si può impedirtelo, moebius! Che d'altro canto v'è pure chi si diverte a smontare le disuguaglianze con l'analisi. :wink: Non ch'io personalmente abbia nulla in contrario, sia ben inteso. Certo è però che, trattandosi di problemi rivolti innanzitutto ai problem solver olimpici, parlare di derivate parziali, moltiplicatori di Lagrange o permutazioni come prodotto di trasposizioni non è che sia poi in fondo così coerente ed appropriato... :roll:

.::Dalle news dell'ultim'ora::.

Pare che le trasposizioni siano argomento olimpico, dacché compaiono (coff coff) sulle schede del Gobbino. Quindi fa' come ti pare, moebius, adesso hai pure la benedizione dell'ecclesia.

Inviato: 18 set 2005, 13:07
da EvaristeG
Guarda che il fatto che una permutazione sia prodotto di trasposizioni è cosa nota a chi abbia frequentato uno stage senior (pisa a settembre) e non è un argomento di analisi, ma una facile dimostrazione di combinatoria.

Inviato: 18 set 2005, 17:20
da elianto84
Solo qualche considerazione.

Riscrivo la tesi:
H1.: $ \prod_{i=1}^n (x_i^2+1) \geq \prod_{i=1}^n (x_i x_{\sigma(i)} + 1) $

Se una permutazione è tale da massimizzare il membro dx, posto

$ g(j,k)=\frac{x_k}{x_j x_k+1} $
$ h(i)=2g(i,i)-g(i,\sigma(i))-g(i,\sigma^{-1}(i)) $

(calcolate le derivate parziali della differenza tra i logaritmi dei due membri di H1)
si deve avere

H2.: $ \forall i \quad h(i)=0 $

tutto sta a dimostrare che l'unica permutazione che gode della proprietà H2
è la permutazione identica...

Piccolo excursus, ovvero: principi di riarrangiamento
$ \sum_{j=1}^n x_j^2 \geq \sum_{j=1}^n x_j x_{\sigma(j)} $
il massimo del membro destro, per derivate parziali, si ha quando
J $ \forall i \quad 2x_i=x_{\sigma(i)}+x_{\sigma^{-1}(i)} $
a meno di piccole perturbazioni (da intendersi analiticamente, cioè come
"arbitrariamente piccole") si può supporre che J non sia MAI verificata
per permutazioni differenti dall'identica, e questa brillante considerazione
rende banale la disuguaglianza. Nel nostro caso, dato che g(j,k),
fissato j oppure k, è una funzione iniettiva, possiamo ragionare in modo
estremamente simile.

Inviato: 18 set 2005, 17:40
da HiTLeuLeR
elianto84 ha scritto:Se una permutazione è tale da massimizzare il membro dx, posto
$ g(j,k)=x_j/(x_j x_k+1) $
$ h(i)=2g(i,i)-g(i,\sigma(i))-g(i,\sigma^{-1}(i)) $
Boh! Con le tue notazioni, a me viene (semmai) che dev'essere $ 2g(i,i)-g(\sigma(i),i)-g(i,\sigma^{-1}(i)) = 0 $. In quanto al resto siamo d'accordo, anche se qualcuno (ne sono certo!) non prenderà troppo bene questo tuo ripetuto ricorrere all'uso delle derivate parziali (e quindi dell'analisi) per risolvere problemi che si possono smontare tranquillamente con il ricorso a qualche timida conoscenza da olimpiade... :roll: E che sia chiaro: quel qualcuno, di certo, non son io. :?

Inviato: 18 set 2005, 17:45
da HiTLeuLeR
elianto84 ha scritto:Piccolo excursus, ovvero: principi di riarrangiamento [...]
E infatti questa, una volta riportata in forma della relazione da te indicata come (H.1), è una banale conseguenza della disuguaglianza di riarrangiamento, Jack... :wink: Ok, problema risolto!

Inviato: 19 set 2005, 14:03
da enomis_costa88
Non è troppo differente da quella proposta da Elianto..comunque:

Uso la notazione $ \sigma(x_i) $ in luogo di $ x_{\sigma(i)} $ per brevità.

Per Cauchy-Schwarz:
$ (x_i^2+1)(\sigma(x_i)^2+1) $ $ \ge $ $ (x_i \sigma(x_i) +1)^2 $ ovvero dividendo per $ \sigma(x_i)^2 $

$ \frac{(x_i^2+1)(\sigma(x_i)^2+1)}{\sigma(x_i)^2} $ $ \ge $ $ \frac{(x_i \sigma(x_i) +1)^2 }{\sigma(x_i)^2} $ = $ (x_i+ \sigma(x_i)^{-1})^2 $

applicando questa disuguaglianza a tutti gli x_i e moltiplicando membro membro le n diseguaglianze trovate (tutti i membri sono positivi) ottengo:
$ \prod_{i=1}^n (x_i+ \sigma(x_i)^{-1})^2 $ $ \leq $ $ \prod_{i=1}^n \frac{(x_i^2+1)(\sigma(x_i)^2+1)}{\sigma(x_i)^2} $ =$ \prod_{i=1}^n \frac{(x_i^2+1)^2}{x_i^2} $ = $ \prod_{i=1}^n (x_i+x_i^{-1})^2 $ ed estraendo la radice ottengo la tesi.

Spero torni tutto :wink:
PS @moebius trasposizioni dici? potresti postare please :D

Inviato: 19 set 2005, 15:22
da HiTLeuLeR
enomis_costa88 ha scritto:Per Cauchy-Schwarz:
$ (x_i^2+1)(\sigma(x_i)^2+1) $ $ \ge $ $ (x_i \sigma(x_i) +1)^2 $ ovvero dividendo per $ \sigma(x_i)^2 $ [...]
Dunque, enomis... Se vuoi che dia un'occhiata alla tua soluzione, allora devi innanzitutto rivedere le tue notazioni! Una scrittura del tipo $ \sigma(x_i) $, peraltro ripetuta più e più volte nel corso del tuo intervento, non ha alcun significato, per quanto renda chiaramente quel che di certo tu volevi intendere... Edita perciò il tuo post e scrivici semmai $ x_{\sigma(i)} $, in vece di $ \sigma(x_i) $, com'è giusto (d'altro canto) che sia. Poi ne riparliamo, ciao!

Inviato: 19 set 2005, 15:29
da EvaristeG
enomis_costa88 ha scritto: Uso la notazione $ \sigma(x_i) $ in luogo di $ x_{\sigma(i)} $ per brevità.
Beh, mi sembra che, previa opportuna dichiarazione di intenti, ognuno possa alterare le notazioni per suo comodo a piacere ... tu, caro Hit, hai fatto mesi a scrivere $ \mathfrak{P} $ senza dire nulla e ce n'è voluta a capire che era l'insieme dei primi (io pensavo che fosse un buffo modo per scrivere l'insieme dei naturali, all'inizio). Quindi non fare storie e leggi la sol di enomis così com'è!

Inviato: 19 set 2005, 15:34
da HiTLeuLeR
enomis_costa88 ha scritto:Uso la notazione $ \sigma(x_i) $ in luogo di $ x_{\sigma(i)} $ per brevità.
D'oooh... Giuro sul bene che mi voglio - e credetemi, me ne voglio un sacco!!! 8) - che non l'avevo letto... :shock:

Inviato: 19 set 2005, 15:41
da HiTLeuLeR
Ehmmm... :oops: Sì, temo abbia ragione tu, Ev. :lol: Dunque la enomis va benissimo! :roll:

Inviato: 19 set 2005, 15:43
da EvaristeG
Oggi non è giornata, eh?
Chiamiamo $ a=x_i $ e $ b=x_{\sigma(i)} $ ... enomis sta dicendo che
$ \displaystyle{\frac{(ab+1)^2}{b^2}=\left(\frac{ab+1}{b}\right)^2=\left(a+\frac{1}{b}\right)^2} $
che mi sembra giusto...

Inviato: 19 set 2005, 16:42
da Simo_the_wolf
Procediamo per induzione su $ n $:

Base induttiva: $ n=2 $

Ci sono due possibili permutazioni: quella identica e la trasposizione $ (1,2) -> (2,1) $. Per quella identica ovviamente la disuguaglianza è vera, per la trasposizione:
$ (x_1+x_1^{-1})(x_2+x_2^{-1}) \geq (x_1+x_2^{-1})(x_2+x_1^{-1}) $

svolgendo i conti si arriva a:
$ x_1/x_2+x_2/x_1 \geq 2 $

che è vera per AM-GM

Supponiamolo ora vero per $ n $ e lo vogliamo dimostrare per $ n+1 $. Consideriamo il maggiore tra gli $ x_i $ e assumiamo senza perdità di generalità che queto sia $ x_1 $. Ora ci sono 2 casi: se $ \sigma(1)=1 $ allora eliminiamo i due termini uguali e ci resta una disuguaglianza valida per ipotesi induttiva. altrimenti supponiamo che $ \sigma(1)=a $ e che $ \sigma(b)=1 $.

Ora, dimostriamo che:

$ (x_b+x_a^{-1})(x_1+x_1^{-1}) \geq (x_1+x_a^{-1})(x_b+x_1^{-1}) $

infatti svolgendo si arriva a $ (x_1-x_a)(x_1-x_b)\geq 0 $ che è vera perchè $ x_1 $ è il massimo.
In questo modo eliminiamo un termine e rimane una disuguaglianza vera per ipotesi induttiva.

Inviato: 19 set 2005, 17:57
da HiTLeuLeR
Ok, Simo.