Pare che in analisi statistica e in probabilità esista un medoto chiamato "pulizia dei dati" (anche se di preciso non so a cosa serva...).
Ho provato a cercarlo su google e su wikipedia ma non si trova niente...
Qualcuno ne ha sentito parlare e saprebbe dirmi dove posso trovare qualche informazione per capirci qualcosa??
ci sono varie teorie:
alcuno elimina quei dati che appaiono con frequenza maggiore di quella teorica, altri pesano il dato in base alla sua distanza dal punto teorico, qualcuno fa nulla
impara il [tex]~\LaTeX[/tex] e mettilo da par[tex]\TeX~[/tex]
Software is like sex: it's better when it's free (Linus T.)
membro: Club Nostalgici
Non essere egoista, dona anche tu! http://fpv.hacknight.org/a8.php
Quello che dici te, potrebbero essere i cosiddetti "filtri", ovvero te filtri i dati con una funzione con il fine di fare una analisi statatistica e provare test d'ipotesi. Prova a cercare filters, magari è questo quello che stavi cercando
o anche il metodo delle componenenti principali, che consiste nello scartare alcuni dati prendendone in considerazione solo altri, purché quelli presi in considerazione già da soli spieghino una significativa % della variabilità del fenomeno (p es. 90 %).
Ciò permette di concentrare l'attenzione su un numero limitato di variabili e quindi di semplificare i calcoli con la medesima significatività (o quasi) rispetto al considerare tutte le variabili del problema.
Ciò è particolrmente utile, ad esempio, quando alcune variabili sono difficilmente esprimibili in termini matematici.
Spero di aver capito il problema, perché il termine pulizia dei dati è abbastanza generico.