canale simmetrico binario e probabilità condizionata
Inviato: 03 ago 2025, 11:56
Salve,
sto cercando di interpretare un concetto sul sistema di decodifica a massima verosimiglianza:
sia y il vettore ricevuto a seguito della trasmissione su un canale simmetrico binario,
la strategia di decodifica a massimo verosimiglianza consiste nel trovare il vettore $\hat x$ che fra tutte le $2^k$ possibili parole di codice x,
massimizza la probabilità condizionata $P(Y|X)$, ie
$\hat X=arg max P(Y|X)$ dove $X$ $\in$ $C(k,n)$
Poiché gli eventi di errore sono gli indipendenti da bit a bit possiamo scrivere:
$P(Y|X) = \prod_{l=1}^nP(Y_l|X_l)$
la probabilità $P(Y_l|X_l)$ può assumere solo due valori:
$1-p$ , se $P(Y_l = X_l|X_l)$
$p$ , se $P(Y_l != X_l|X_l)$
la distanza di Hamming $d_h(X,Y)$ misura il numero di posizioni diverse tra X e Y e quindi $n-d_h(X,Y)$ misura il numero di posizioni uguali.
pertanto la probabilità $P(Y_l|X_l) = p^{d_h(X,Y)} (1-p)^{n-d_h(X,Y)}$
DUBBIO:
Se si parla di massimizzare la probabilità condizionata significa che ci si focalizza sulla probabilità di corretta ricezione dei bit.
Detto questo perchè questa formula
$P(Y_l|X_l)= p^{d_h(X,Y)} (1-p)^{n-d_h(X,Y)}$
dovrebbe rappresentare la probabilità di corretta ricezione dei bit ?
Perchè dovrei dedurre che questa formula rappresenta la corretta ricezione dei bit? (visto che la massimizzo)
Mi chiedo come cambierebbe questa formula nel caso rappresentassi invece la probabilità di errore nella ricezione dei bit (minimizzando poi il valore di detta probabilità)
sto cercando di interpretare un concetto sul sistema di decodifica a massima verosimiglianza:
sia y il vettore ricevuto a seguito della trasmissione su un canale simmetrico binario,
la strategia di decodifica a massimo verosimiglianza consiste nel trovare il vettore $\hat x$ che fra tutte le $2^k$ possibili parole di codice x,
massimizza la probabilità condizionata $P(Y|X)$, ie
$\hat X=arg max P(Y|X)$ dove $X$ $\in$ $C(k,n)$
Poiché gli eventi di errore sono gli indipendenti da bit a bit possiamo scrivere:
$P(Y|X) = \prod_{l=1}^nP(Y_l|X_l)$
la probabilità $P(Y_l|X_l)$ può assumere solo due valori:
$1-p$ , se $P(Y_l = X_l|X_l)$
$p$ , se $P(Y_l != X_l|X_l)$
la distanza di Hamming $d_h(X,Y)$ misura il numero di posizioni diverse tra X e Y e quindi $n-d_h(X,Y)$ misura il numero di posizioni uguali.
pertanto la probabilità $P(Y_l|X_l) = p^{d_h(X,Y)} (1-p)^{n-d_h(X,Y)}$
DUBBIO:
Se si parla di massimizzare la probabilità condizionata significa che ci si focalizza sulla probabilità di corretta ricezione dei bit.
Detto questo perchè questa formula
$P(Y_l|X_l)= p^{d_h(X,Y)} (1-p)^{n-d_h(X,Y)}$
dovrebbe rappresentare la probabilità di corretta ricezione dei bit ?
Perchè dovrei dedurre che questa formula rappresenta la corretta ricezione dei bit? (visto che la massimizzo)
Mi chiedo come cambierebbe questa formula nel caso rappresentassi invece la probabilità di errore nella ricezione dei bit (minimizzando poi il valore di detta probabilità)