fph ha scritto:
Non è questione di perderci un'ora di tempo; è che aggiungere mod che non servono rischia solo di aumentare i problemi inutilmente, come hai sperimentato anche tu stesso. Cosa succede poi se aggiorni il sito e cambiano le regole con cui vengono scritti quegli url tamarri? Tutti i link muoiono? Tieni conto che se uno prende un link del forum vecchio, basta cambiare l'inizio dell'url e funziona anche sul forum nuovo; dubito che riscrivendo tutti gli url questo funzionerebbe ancora in entrambi i versi.
Sul cambiamento regole non so risponderti, non essendo io lo sviluppatore di quel mod, ma capisco le tue apprensioni (se la situazione è gestibile sul mio forum com 10-15 utenti attivi, sull'oliforum potrebbe diventare un discreto casino)
Comunque gli url nuovi non vanno a sostituire quelli vecchi (.htaccess power), ma non capisco cosa voglia dire "entrambi i versi": il forum vecchio non esiste più, quindi...
Disclaimer: il server non lo conosco benissimo neanch'io perché non ci lavoro direttamente sopra (abbiamo uno webmaster/sysadmin che si occupa della gestione fisica del sito, io e gli altri facciamo solo i moderatori). Ci sono le opzioni --limit-rate e --wait di wget che servono proprio a evitare questo; comunque un solo downloader dietro a un ADSL non dovrebbe crearci troppi guai (incrociando le dita -- fateci sapere se volete davvero fare degli wget periodici di tutto il sito).
quelle opzioni non le conoscevo

la mia preoccupazione comunque era, più che per la banda (sono abbastanza convinto che il vostro server abbia più di 5 mbit di upload

), per la quantità di pagine richieste che potrebbe dare problemi al vostro server mysql (mi pare che phpbb3 faccia un notevole numero di queries anche solo per una pagina di un topic), ma dopo aver fatto qualche test sul mio forum ho visto che più di 3 pagine/secondo non vengono fuori (inizialmente pensavo che ne sarebbero state caricate un centinaio XD).. a scanso di equivoci comunque un --wait 0.5 dovrebbe risolvere tutti i problemi se mai decidessimo di farlo, no? (magari abbinato a un -N per fare "backup incrementali")
PS: conosci un modo per escludere files in base a una regexp?
In ogni caso abbiamo dei backup anche noi.

Anche quest'estate i dati non sono mai stati in pericolo.
Sì, sicuramente li avete, ma come probabilmente sai a far "danni" è stato anche e soprattutto il fatto che per molti mesi l'enorme mole di dati presente sul forum non è stata accessibile: di sicuro non potevate prendere il backup mysql e mettervi a diffonderlo in giro, anche solo per le discussioni nelle sezioni nascoste

, mentre l'approccio di wget ha il vantaggio di prelevare solo dati che sono già "public-domain"
Se a qualcuno venisse in mente un'idea migliore, però, ben venga
