Giorgio F. Signorini
Date: 2007-2008
(basato su ())
Cerchiamo il valore di aspettazione di una funzione
distribuita
secondo una probabilità
sul dominio delle
:
(assumiamo
Una stima empirica di
, generando
secondo
, è
La corrispondente stima empirica di
è
![]() |
![]() |
![]() |
|
![]() |
![]() |
Se però non siamo in grado di generare punti secondo
, ma secondo
un'altra distribuzione
(nel caso banale, una distribuzione uniforme),
si può scrivere il valore di aspettazione come
![]() |
![]() |
![]() |
|
![]() |
![]() |
||
![]() |
![]() |
La stima empirica su
del valore di aspettazione di
è
![]() |
![]() |
![]() |
Quanto è accurata una certa stima di
fatta con
punti? Cioè,
quanto si discosta
dal valore vero
? Dipende da
ma anche dalle proprietà di
e di
(o
). Ad esempio,
se
, il valore di aspettazione stimato con qualunque
è
, e l'errore è nullo per qualunque
. Negli altri casi,
a parità di
, possiamo aspettarci che sarà tanto minore quanto
minore è la variazione di
in un campionamento secondo
.
L'accuratezza della stima è misurata dalla varianza della media
(da non confondere con la varianza dei dati,
).
L'equazione () conferma che a parità di
l'errore sulla stima è dato dalla variazione quadratica della
,
e che se
allora
.
Se invece che su
, campioniamo su
, l'errore sulla stima è
L'equazione () corrisponde esattamente alla (3.1.9)
in (), con
e
.
Consideriamo due casi limite:
Il confronto tra quest'ultima equazione e la ()
ci dice che la differenza tra fare una stima del valore di aspettazione
di
campionando
in modo uniforme e campionandola secondo
la sua distribuzione
è data dalla differenza nella variazione
quadratica di
e di
rispettivamente. Se
è molto ``piccata'' (come è la distribuzione nell'insieme canonico)
la differenza può essere enorme. Se al contrario il prodotto
varia meno di
, cioè
varia molto proprio dove
è bassa,
l'errore nella stima può essere più basso se la stima viene calcolata
con campionatura uniforme.
Si immagina1.1 di fare
stime ciascuna basata su
punti:
,
,
, e di fare la varianza di
queste stime:
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
|
![]() |
![]() |
![]() |
Con notazione sintetica (
e
)
si ha:
![]() |
![]() |
![]() |
|
![]() |
![]() |
||
![]() |
![]() |
se i punti
sono estratti in maniera casuale sul dominio
,
i termini misti si annullano:
![]() |
![]() |
![]() |
|
![]() |
![]() |
||
![]() |
![]() |
||
![]() |
![]() |
In sostanza, nel limite
![]() |
![]() |
![]() |
|
![]() |
![]() |
||
![]() |
![]() |
(basato su ())
Il problema è generare punti con una distribuzione di probabilità che approssimi la distribuzione canonica.
In una catena di Markov
![]() |
![]() |
![]() |
|
![]() |
![]() |
![]() |
|
![]() |
|||
![]() |
![]() |
![]() |
La catena ammette un limite
tale che
Dall'ultima equazione si capisce che lo stato limite
esiste
se
ammette autovalore
. Se il numero di stati è finito,
lo è anche il numero di vettori
. (approfondire:
come si può essere sicuri che si arriva comunque al limite
?)
Nell'esempio del sistema a due stati (il calolatore), si suppone che
sia nota.
Nelle simulazioni MC, si conosce
(ogni elemento
),
e si vuole trovare
.
Vi sono varie possibili soluzioni.
Si può porre la condizione (non necessaria) della reversibilità microscopica:
N.B. che questa variazione è
,
e se la mossa viene accettata, va aggiornata sia la
che tutte
le altre
, di una quantità
In sostanza si deve conservare in memoria ogni singola interazione
.
In pratica il
si calcola come:
cioè il rapporto tra il numero medio di particelle B a distanza da una particella A compresa tra
e lo stesso in un sistema ideale
![]() |
![]() |
![]() |
|
![]() |
![]() |
![]() |
Quindi:
Note pratiche: