Siano a, b e n interi. Si dimostri che
$ \bigg(a+\frac12\bigg)^n+\bigg(b+\frac12\bigg)^n $
è intero solo per un numero finito di valori di n.
Ora, dove sta il problema? il problema è che ho dimostrato l'esatto contrario

Ad esempio, si supponga che la prima parentesi sia multipla della seconda, diciamo k volte la seconda. Si nota subito che k deve essere dispari, altrimenti uno tra a e b non sarebbe intero. Abbiamo in questo caso
$ \displaystyle\bigg(a+\frac12\bigg)^n+\bigg[k\bigg(a+\frac12\bigg)\bigg]^n= $$ \displaystyle\bigg(k^n+1\bigg)\bigg(a+\frac12\bigg)^n $$ \displaystyle=\bigg(k^n+1\bigg)\frac{\bigg(2a+1\bigg)^n}{2^n} $.
Ora, supponiamo $ k=2^n-1 $: si ha per ogni n dispari $ 2^n|k^n+1 $(congruenze), ed il risultato è intero per infiniti valori di n (infatti i numeri dispari sono infiniti

Per cui, o c'è un errore nel testo, o ho preso una cantonata io (possibile visto che ho fatto questo esercizio nell'ora di filosofia). Chi mi aiuta a capire dove sta la retta via? Grazie in anticipo
