Pagina 1 di 2
radice cubica di 2
Inviato: 05 giu 2008, 08:50
da fede90
Dimostrare che $ $\sqrt[3]{2}$ $ non può essere rappresentato nella forma $ $a+\sqrt{b}$ $ con $ $a,b\in \mathbb{Q}$ $
Inviato: 07 giu 2008, 15:52
da Stoppa2006
Ci sono almeno due modi per farlo:
-Supponi per assurdo che ammetta una rappresentazione di quel tipo ed elevi tutto al cubo.
-Anche in questo caso supponi per assurdo che si possa scrivere in quella forma, questo implica che allora $ \sqrt[3]2 $ e radice di un polinomio di secondo grado $ h(x) $ (di primo grado non può essere perchè si dimostra facilmente che non è razionale).
Considera l'insieme A di tutti i polinomi non nulli che si annullano in $ \sqrt[3]2 $ questo insieme è non vuoto, quindi esistono polinomi di grado minimo. Sia g "il" polinomio monico di grado minimo, questo polinomio divide tutti i polinomi di A, infatti sia $ f\in A $ allora per la divisione Euclidea:
$ f(x)=q(x)g(x)+r(x) $
Valutando l'uguaglianza in $ \sqrt[3]2 $ otteniamo $ r(x)=0 $.
Considera il polinomio $ p(x)=x^3-2 $ questo polinomio è irriducibile su $ \mathbb{Q} $ poichè non ha radici. Inoltre $ p $ si annulla su $ \sqrt[3]2 $, allora è divisibile per un polinomio di secondo grado, è infatti divisibile per g poichè stà in A, ma poichè è di terzo grado allora ha una radice razionale, ma questo è assurdo poichè è irriducibile.
Inviato: 07 giu 2008, 16:38
da quattrocchi
scusate......
se pongo b=cd, con c=-1, ottengo a+j sqrt(d).
Numero complesso!!!
pongo ora d=0 e a=\sqrt[3]2;
Inviato: 07 giu 2008, 17:00
da Desh
quattrocchi ha scritto:pongo ora d=0 e $ a=\sqrt[3]2 $
non puoi porre $ \displaystyle a=\sqrt[3]2 $, perché $ a \in \mathbb{Q} $
Inviato: 07 giu 2008, 17:42
da quattrocchi
posso rendere \sqrt[3]2 una frazione...con buona precisione
qui sta la differenza tra chi studia matematica e chi ingegneria!!!!!!
Inviato: 07 giu 2008, 18:50
da AndBand89
Ok, anch'io andrò a fare ingegneria ma quando si parla di amtematica cerco di essere preciso...anche se non mi riesce

sarà un difetto comune....
Comunque, riguardo alla prima soluzione proposta, quella di elevare entrambi i membri al cubo...personalmente non so dove possa portare, ho provato ieri sera a sviluppare l'idea ma non viene, la seconda è molto meglio...
Inviato: 07 giu 2008, 18:59
da julio14
funziona anche il cubo: elevi e viene
$ $2=a^3+3a^2\sqrtb+3ab+b\sqrt b $
$ $\sqrt b=\frac{2-a^3-ab}{3a^2+b} $
la dimostrazione dell'irrazionalità della radice di 2 è fatto noto, quindi la tesi è dimostrata.
Inviato: 07 giu 2008, 20:06
da fede90
julio14 ha scritto:$ $2=a^3+3a^2\sqrtb+3ab+b\sqrt b $
$ $(a+\sqrt b)^3=a^3+3a^2\sqrt b+3ab+b\sqrt b$ $
hai perso per strada una radice di b...
julio14 ha scritto:
$ $\sqrt b=\frac{2-a^3-ab}{3a^2+b} $
la dimostrazione dell'irrazionalità della radice di 2 è fatto noto, quindi la tesi è dimostrata.
Non ho capito questo passaggio... a sinistra vedo una radice di b, non di 2...
Inviato: 08 giu 2008, 11:44
da g(n)
Beh, arrivati a questo punto si può
dare per scontato che $ \sqrt b $ sia irrazionale.
Infatti, se fosse razionale, si avrebbe l'assurdo già prima, in quanto $ \sqrt[3]{2} $ sarebbe razionale.

Inviato: 08 giu 2008, 11:47
da quattrocchi
Cmq il mio intervento è di tipo provocatorio!!!!!!!!
Anche se nn dimostro rigidamente, mi avvicino molto a quello che nn si voleva ottenere!!!!
Inviato: 08 giu 2008, 14:32
da julio14
fede90 ha scritto:hai perso per strada una radice di b...

ops! cmq ho dimenticato solo di copiarla, infatti riappare nel passaggio dopo...
fede90 ha scritto:julio14 ha scritto:
$ $\sqrt b=\frac{2-a^3-ab}{3a^2+b} $
la dimostrazione dell'irrazionalità della radice di 2 è fatto noto, quindi la tesi è dimostrata.
Non ho capito questo passaggio... a sinistra vedo una radice di b, non di 2...
e qua invece ho scritto proprio una cretinata, comunque non essendo razionale la radice cubica di 2 (dimostrazione quasi identica a quella della radice quadrata) non può esserlo neanche la radice quadrata di b. (altrimenti avremmo razionale+razionale=irrazionale)
Inviato: 08 giu 2008, 15:50
da AndBand89
No no aspetta non vi seguo...se b è un razionale che ha sia a numeratore sia a denominatore un quadrato perfetto radb è razionale...quindi quell'espressione non mi risulta falsa...
Inviato: 08 giu 2008, 15:56
da julio14
ma prendi l'equazione iniziale: $ \sqrt[3]{2}-a=\sqrt{b} $ se fosse vera, la radice di b sarebbe irrazionale, perchè uguale a un irrazionale meno un razionale, poi elevi al cubo, rigiri tutto, e ti ritrovi la radice di b razionale, assurdo. Questo è quello che dicevo prima in modo un po' meno chiaro.
Inviato: 08 giu 2008, 16:07
da AndBand89
Mi sono reso conto di aver scritto una cavolata subito dopo

grazie

Inviato: 08 giu 2008, 20:37
da fede90
Ok, provo a scrivere una soluzione decente da capo a fine.
Tesi: l'equazione $ $\sqrt[3]2=a+\sqrt b$ $ non ha soluzioni con $ $a,b \in \mathbb Q$ $
Dimostrazione
Passo 1. Dimostriamo che $ $\sqrt[3]2$ $ è irrazionale. Supponiamo per assurdo che sia razionale, cioè che $ $\sqrt[3]2=\frac{p}{q}$ $ (con q che non divide p, cioè la frazione p/q è ridotta ai minimi termini). Elevando tutto al cubo otteniamo $ $2q^3=p^3$ $ perciò p deve essere pari. Poniamo $ $p=2p'$ $. Sostituendo si ottiene $ $q^3=4p'^3$ $. Da qui otteniamo che q deve essere pari, perciò $ $q=2q' $. Sostituendo si ottiene $ $2q'^3=p'^3$ $, da cui $ $\sqrt[3]2=\frac{p'}{q'}$ $, assurdo perchè avevamo supposto che p/q era ridotta ai minimi termini.
Passo 2. Dimostriamo che $ $\sqrt b$ $ è irrazionale. Se, per assurdo, avessimo $ $\sqrt b$ $ razionale, avremmo $ $\sqrt[3]2=a+\sqrt b$ $, cioè un irrazionale sarebbe la somma di due razionali, assurdo.
Passo 3. Dimostriamo la tesi. Supponiamo per assurdo che esistano tali $ $a,b \in \mathbb Q$ $. Elevando al cubo l'equazione otteniamo $ 2=a^3+3a^2\sqrt b+3ab+b\sqrt b$ $, da cui $ $\sqrt b= \frac{2-a^3-3ab}{3a^2+b}$ $, cioè avremmo che $ $\sqrt b$ $ è razionale, in contrasto con quanto dimostrato sopra.
Ecco, spero di essere stato chiaro, ciao!