-
Notifications
You must be signed in to change notification settings - Fork 1
/
Copy path17_markov.tex
1592 lines (1413 loc) · 86.3 KB
/
17_markov.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
\section{Catene di Markov}
In questo capitolo finale si vuole descrivere l'\emph{evoluzione di una grandezza} distribuita in maniera casuale e descritta da una famiglia di variabili aleatorie,
studiando quelli che verranno definiti come \emph{processi stocastici}.
In questo testo sarà trattata solo una sottoclasse di processi,
quella delle \emph{catene di Markov a tempo discreto}, nelle quali il valore futuro della grandezza dipende solamente dal valore attuale e non dalla storia dell'evoluzione.
Si studieranno quindi le leggi secondo cui una grandezza evolve da uno \textit{stato} (cioè un valore) ad un altro e le caratteristiche dei suddetti stati.
\subsection{Definizioni base}
\begin{defn}\label{proc-stoc}
\index{processo stocastico}
\index{stati, spazio degli}
Un \textbf{processo stocastico} è una famiglia di VA $(X_t)_{t \in T}$, $X_t: \Omega \to E$,
tutte definite sullo stesso spazio di probabilità $\Dom$, a valori nello stesso spazio misurabile $(E,\Ec)$,
e dipendenti da un parametro $t \in T \subseteq \RR^+ = [0,+\infty)$. \\
L'insieme $E$ è detto \textbf{spazio degli stati} e i suoi elementi \textbf{stati}.
\end{defn}
Il processo stocastico è una nozione generalizzata rispetto alle \textit{successioni} di VA trattate nei capitoli precedenti.
La principale differenza risiede nel fatto che in un processo stocastico il parametro $t$ appartiene a un generico insieme $T$ e quindi può anche essere \emph{continuo}, a differenza dell'indice $n \in \NN$ delle successioni (anche se, in questo capitolo, $T$ sarà spesso discreto per semplicità di trattazione).
Inoltre, il codominio delle VA è un generico spazio misurabile $(E,\Ec)$ e non necessariamente $\RR$.
Tipicamente, infine, il parametro $t$ rappresenta il \textit{tempo} della misurazione o dell'osservazione.
\begin{ese}
Un esempio frequente di processo stocastico è una grandezza misurata ad istanti $t$ di tempo diversi.
Consideriamo il caso del \emph{tempo discreto}, che descrive una \emph{evoluzione a scatti}:
$$T \subseteq \ZZ^+ = \{0,\, 1,\, 2,\, \dots\}$$
La $\sigma$-algebra del codominio è l'insieme delle parti $\Ec = 2^E$, con $E$ discreto.
\end{ese}
\begin{defn}\label{catena}
\index{catena}
Un processo stocastico si dice \textbf{catena} se il suo spazio degli stati $E$ è discreto.
\end{defn}
\begin{ese}
L'esempio precedente è una catena, così come ogni \textit{successione} di VA della forma $X_n: \Omega \to E$,
con $E$ discreto e $n \in \ZZ^+$, che d'ora in poi scriveremo come $n \ge 0$ per semplicità di notazione.
\end{ese}
\begin{ese}
Sono catene a tempo discreto valide:
\begin{itemize}
\item il risultato dell'$n$-esimo lancio di una moneta che viene lanciata infinite volte,
dove ciascun lancio avviene ad un preciso istante di tempo: $X_n: \Omega \to E = \{T, C\}$;
\item il tempo metereologico a Milano dell'$n$-esimo giorno del 2019: $X_n: \Omega \to \{\text{sole},\, \text{pioggia},\, \dots\}$;
\item il valore di un bit dopo la trasmissione attraverso l'$n$-esimo canale rumoroso: $X_n: \Omega \to \{0,1\}$;
\item il capitale di un giocatore d'azzardo dopo l'$n$-esimo lancio di una moneta,
che gli fa guadagnare se esce testa e gli fa perdere se esce croce: $X_n: \Omega \to \RR$.
\end{itemize}
\end{ese}
\begin{figure}[H]
\centering
\(
\vcenter{\hbox{\begin{tikzpicture}
\begin{scope}
\draw {(0, 0) rectangle (2,2)} node[below left] {\large $\Omega$};
\node[circle,fill, label=$\omega_1$, scale=0.3] at (1.3,0.5) {};
\node[circle,fill, label=$\omega_2$, scale=0.3] at (0.6,1) {};
\end{scope}
\end{tikzpicture}}}
\)
\hskip 50pt
\(
\vcenter{\hbox{\begin{tikzpicture}
\begin{axis}[
axis lines = middle,
width=0.55\textwidth,
height=0.40\textwidth,
yticklabels={,,},
xticklabels={,,},
xlabel=$n$,
ylabel=$X_n$
]
\draw [line width=0.4mm, color=lightblue] (axis cs:0.5,1.5) -- (axis cs:1.5,0.5) -- (axis cs:2.5,1.5) -- (axis cs:3.5,0.5) -- (axis cs:4.5,1.5);
\draw [line width=0.4mm, color=black] (axis cs:0.5,0.5) -- (axis cs:1.5,1.5) -- (axis cs:2.5,0.5) -- (axis cs:3.5,1.5) -- (axis cs:4.5,0.5);
\node[color=lightblue] at (axis cs:5.5, 1.5) {$X_n (\omega_1)$};
\node at (axis cs:5.5, 0.5) {$X_n (\omega_2)$};
\addplot [draw=none, forget plot] coordinates {(0,0)};
\addplot [draw=none, forget plot] coordinates {(6.5,2)};
\end{axis}
\end{tikzpicture}}}
\)
\caption{catene $X_n$ rispetto a diversi stati iniziali $\omega_1$ e $\omega_2$}
\end{figure}
\index{traiettoria}
Fissando l'esito elementare $\omega \in \Omega$, si ottiene una \emph{traiettoria} nello spazio degli stati $E$,
ovvero una successione di valori $\{x_n\}_n = \{X_n(\omega)\}_n \subseteq E$. Chiaramente, fissando invece l'indice $n \ge 0$, si ottiene una singola VA $X_n: \Omega \to E$.
\begin{defn}\label{matrans}
\index{matrice di transizione}
\index{probabilità!di transizione}
Una matrice $P = [p_{ij}]$ con $i,j \in E$ è detta \textbf{matrice di transizione} o \textbf{matrice stocastica} se:
$$p_{ij} \ge 0 \ \forall i,j \in E \quad \text{e} \quad \sum_{j \in E} p_{ij} = 1 \enspace \forall i \in E$$
In altre parole, la $i$-esima riga $p_{i \bigcdot}$ è una \emph{densità discreta} di probabilità su $E$, $\forall i \in E$.
Ogni elemento $p_{ij}$ di questa matrice è detto \textbf{probabilità di transizione} da $i$ a $j$.
\end{defn}
L'intuizione suggerisce che $p_{ij}$ sia effettivamente la probabilità, partendo dallo stato $i$ di spostarsi nello stato $j$ in un unico passo.
Questo significato sarà verificato formalmente più avanti.
Nel frattempo, rafforzeremo l'intuizione sul modello di catena a tempo discreto mediante alcuni esempi.
\needspace{3\baselineskip}
\begin{ese}~\\
\label{catene-triangolari}
\begin{enumerate}
\item Sia $E = \{1,2\}$. Dati $p,q \in [0,1]$, un esempio di matrice di transizione è la seguente:
$$P = \begin{bmatrix} 1-p & p \\ q & 1-q\end{bmatrix}$$
Intuitivamente, questo significa che il sistema descritto da $P$ ha, in ogni istante di tempo $n\ge 0$, due stati possibili, detti 1 e 2.
Le probabilità sono così distribuite:
\begin{itemize}[label=$\ast$]
\item $p$ indica la probabilità che lo stato passi da 1 a 2 in un determinato istante di tempo;
\item $q$ che lo stato passi da 2 a 1;
\item $1-p$ che lo stato rimanga in 1;
\item $1-q$ che lo stato rimanga in 2.
\end{itemize}
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$1$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$2$, scale=0.3] at (3,0) {};
\node at (0.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (2.8, 0.1) ; % da 1 a 2
\node at (2.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (0.2, -0.1); % da 2 a 1
\node at (1.5, 0.6) {$p$};
\node at (1.5, -0.6) {$q$};
\node at (-0.1,-0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (-0.18, 0.1) ; % da 1 a 1
\node at (3.1,0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (3.18, -0.1) ; % da 2 a 2
\node at (-1.3, 0) {$1-p$};
\node at (4.3, 0) {$1-q$};
\end{scope}
\end{tikzpicture}
\caption{illustrazione della catena dell'esempio 1}
\end{figure}
\item Dato un sistema a tre stati $E=\{1,2,3\}$, che varia secondo un tempo discreto $n \ge 0$, si può avere la seguente matrice di transizione:
$$P = \begin{bmatrix} 0 & 1 & 0 \\ 0 & \nicefrac 1 2 & \nicefrac 1 2 \\ \nicefrac 1 2 & 0 & \nicefrac 1 2\end{bmatrix}$$
Il sistema non può compiere tutte le transizioni possibili.
Per esempio, non può ripercorrere al contrario il ``ciclo'' $1\to2\to3$: può solo andare avanti o, nel caso si trovi in 2 o in 3, rimanere nello stesso stato.
Questo perché la probabilità di spostarsi da 3 a 2 (in un unico passo) è nulla: $p_{32} = 0$.
Si noti, comunque, che questo \textit{non} impedisce il ritorno da 3 a 2 in $n \ge 2$ passi mediante passaggi intermedi in altri stati (in questo caso, 1).
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$2$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$3$, scale=0.3] at (3,0) {};
\node[circle,fill, label=$1$, scale=0.3] at (1.5, 2.598) {};
\node at (0.1,0) {} edge[->, line width=0.4mm] (2.8,0) ; % da 1 a 2
\node at (2.9,0.1) {} edge[->, line width=0.4mm] (1.6,2.4); % da 2 a 3
\node at (1.43, 2.5) {} edge[->, line width=0.4mm] (0.15, 0.2); % da 3 a 1
\node at (1.5, -0.35) {$\frac{1}{2}$};
\node at (2.45, 1.4) {$\frac{1}{2}$};
\node at (0.55, 1.4) {$1$};
\node at (-0.1,-0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (-0.18, 0.1) ; % da 1 a 1
\node at (3.1,0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (3.18, -0.1) ; % da 2 a 2
\node at (-1, 0) {$\frac{1}{2}$};
\node at (4, 0) {$\frac{1}{2}$};
\end{scope}
\end{tikzpicture}
\caption{illustrazione della catena dell'esempio 2}
\end{figure}
\item Considerando ancora $E=\{1,2,3\}$ un'altra matrice può essere:
$$P = \begin{bmatrix} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1\end{bmatrix}$$
Questo sistema possiede due ``sottosistemi'' che non comunicano: partendo da 1 si può solo passare a 2 e viceversa,
mentre partendo da 3 non si può che rimanere per sempre in 3.
L'evoluzione, in questo caso, è quindi parzialmente ``deterministica'', cioè si possono effettuare alcune previsioni conoscendo lo stato di partenza.
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$1$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$2$, scale=0.3] at (3,0) {};
\node[circle,fill, label=$3$, scale=0.3] at (1.5, 2.598) {};
\node at (0.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (2.8, 0.1) ; % da 1 a 2
\node at (2.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (0.2, -0.1); % da 2 a 1
\node at (1.5, 0.6) {$1$};
\node at (1.5, -0.6) {$1$};
\node at (1.6, 2.5) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (1.35,2.42) ; % da 3 a 3
\node at (1.5, 1.4) {$1$};
\end{scope}
\end{tikzpicture}
\caption{illustrazione della catena dell'esempio 3}
\end{figure}
\end{enumerate}
\end{ese}
\begin{defn}\label{cat-mark}
\index{catena di Markov}
\index{Markov!catena di}
\index{Markov!proprietà di}
\index{omogeneità (catene di Markov)}
\index{legge!iniziale (catene di Markov)}
Dati uno spazio di probabilità $\Dom$ e uno spazio misurabile $(E, 2^E)$, una famiglia di VA $X_n: \Omega \to E$,
con $n \ge 0$, è detta \textbf{catena di Markov omogenea} a valori in $E$ di \textbf{legge iniziale} $v$ e
\textbf{matrice di transizione} $P = [p_{ij}]$, con $i,j \in E$, se:
\begin{enumerate}
\item $X_0 \sim v$;
\index{proprietà di Markov}
\item $\forall n \ge 0$ e $\forall i,j \in E$, si ha la \textbf{proprietà di Markov}: \\
$$\PP(X_{n+1} = j |
X_n=i, X_{n-1}=i_{n-1},\dots,X_0=i_0) =
\PP(X_{n+1} = j | X_n = i)$$
qualora le suddette probabilità condizionate esistano;
\item vale la proprietà di \textbf{omogeneità}: $$\PP(X_{n+1} = j | X_n = i) = p_{ij} \enspace \forall i,j \in E$$
ovvero la probabilità di transizione \emph{non} dipende da $n$.
\end{enumerate}
Per indicare una catena di Markov omogenea definita come sopra useremo la notazione compatta $(X_n)_{n \ge 0} \ \markov(v,P)$.
\end{defn}
\subsubsection{Interpretazione}
La proprietà di Markov afferma che, quando si conosce il valore \emph{presente} di una VA ($X_n = i$)
e si vuole fare una stima sul valore \emph{futuro} (nell'istante di tempo successivo) di quella VA ($X_{n+1} = j$), conoscere i valori
\emph{passati} di quella VA $(X_{n-1} = i_{n-1}, \dots, X_0 = i_0)$ non fornisce alcuna informazione aggiuntiva
rispetto al conoscere il valore presente.
In altre parole, noti lo stato attuale e l'istante di osservazione di una catena di Markov, \textbf{il prossimo valore} assunto dalla catena \textbf{dipende solo dal valore attuale}.
Tale proprietà è confermata dall'intuizione per alcuni tipi di fenomeno: per esempio, se un processo
stocastico indica la posizione nello spazio di una particella e la sua velocità, è naturale pensare
che i dati attuali siano sufficienti per cercare di prevedere la sua posizione nel successivo istante di tempo, senza bisogno di conoscere la sua storia.
Si noti, comunque, che questa proprietà \emph{non} significa che i valori futuri sono indipendenti dai valori passati, perché queste caratteristiche di ``quasi-indipendenza'' richiedono la conoscenza dello stato attuale\footnote{Vedremo infatti che la conoscenza dell'istante di osservazione non è necessaria per formulare previsioni sull'evoluzione di una catena di Markov omogenea.}, che a seconda del modello preso in esame può anche non essere accessibile.
È bene infatti rimarcare che le variabili $X_n$ della catena \emph{non sono indipendenti} tra loro né tantomeno identicamente distribuite.
Si noti, infine, che in una catena di Markov è cruciale la scelta di due elementi: la \emph{VA osservata} $X_n$ e lo \emph{spazio degli stati} $E$.
Nell'esempio precedente della particella, la sola posizione non è un'informazione sufficiente per formulare la previsione, e servirebbero informazioni aggiuntive dal suo passato.
%Data una catena di Markov e ricavata la sua matrice di transizione $P$, che corrisponde a una \emph{legge di evoluzione} della grandezza, si può andare a ritroso e ricavare anche la legge iniziale $v$. %Questa frase è inutile e un non sequitur (Br1)
\subsection{Esempi notevoli}\label{rovina-gioc}
\index{rovina del giocatore}
Introduciamo ora due esempi particolarmente significativi di catene di Markov, che saranno ripresi più volte nel corso della trattazione dell'argomento: la rovina del giocatore e l'urna di Ehrenfest.
\begin{ese}[rovina del giocatore]
% Non mi piace molto l'utilizzo di ese qui. Idem sotto con l'urna. Idee? (Br1)
% Lo lascerei per coerenza con il resto degli esempi (AW)
Immaginiamo due giocatori, Aron e Bruno hanno ciascuno un capitale iniziale, rispettivamente $a, b \in \NN$.
Ad ogni istante di tempo viene lanciata una moneta, che ha probabilità $p$ di risultare testa, e possono accadere due eventi: se esce testa, Aron riceve 1 da Bruno; se esce croce invece Bruno riceve 1 da Aron.
I lanci di moneta continuano fino a che uno dei due giocatori non entra in rovina esaurendo il suo capitale.
Il numero totale di lanci effettuati prima della rovina di uno dei due giocatori è casuale e incognito a priori.
Una formulazione equivalente del gioco è che i lanci proseguano anche dopo la rovina di uno dei due giocatori, ma da quel momento in poi non ci siano più scambi di denaro.
Questo permette di operare con le catene di Markov, in quanto si ha un numero infinito di lanci, ovvero di VA.
Sia dunque $X_n$ il capitale di Aron dopo l'$n$-esimo lancio.
Grazie al cambio di formulazione sopra discusso si ha $T = \ZZ^+$.
Inoltre $E = \{0,1,\dots,a+b\}$, in quanto un giocatore può possedere al massimo la somma dei due capitali,
e $v = \delta_a$, in quanto si suppone deterministicamente che Aron inizi sempre il gioco con capitale $a$.
La matrice di transizione è tridiagonale, eccetto che per la prima e l'ultima riga, in quanto una volta raggiunta la rovina si rimane per sempre in quello stato con probabilità 1:
$$P = \begin{bmatrix}
1 & 0 & 0 & 0 & \dots \\
1-p & 0 & p & 0 & \dots \\
0 & 1-p & 0 & p & \dots \\
&& \ddots & \ddots & \ddots \\
& \dots & 0 & 1-p & 0 & p \\
& \dots & 0 & 0 & 0 & 1
\end{bmatrix}$$
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$0$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$1$, scale=0.3] at (2,0) {};
\node[circle,fill, label=$2$, scale=0.3] at (4,0) {};
\node[circle,fill, scale=0.3] at (6,0) {};
%\node at (6, 0.5) {$a+b-1$};
\node[circle,fill, scale=0.3] at (8,0) {};
\node at (8, 0.5) {$a+b$};
\node at (-1, 0) {$1$};
\node at (-0.1,-0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (-0.18, 0.1) ; % da 0 a 0
\node at (1.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (0.2, -0.1); % da 1 a 0
\node at (1, -0.6) {$1-p$};
\node at (2.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (3.8, 0.1) ; % da 1 a 2
\node at (3.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (2.2, -0.1); % da 2 a 1
\node at (3, 0.6) {$p$};
\node at (3, -0.6) {$1-p$};
\node at (4.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20, dashed] (5.8, 0.1) ; % da 1 a 2
\node at (5.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20, dashed] (4.2, -0.1); % da 2 a 1
\node at (5, 0.6) {$p$};
\node at (5, -0.6) {$1-p$};
\node at (5, 0) {$\dots$};
\node at (6.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (7.8, 0.1) ; % da a+b-1 a a+b
\node at (7, 0.6) {$p$};
\node at (8.1,0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (8.18, -0.1) ; % da a+b a a+b
\node at (9, 0) {$1$};
\end{scope}
\end{tikzpicture}
\caption{rovina del giocatore}
\end{figure}
\end{ese}
\begin{ese}[urna di Ehrenfest] \label{urna-ehren}
\index{urna di Ehrenfest}
Forniamo due formulazioni equivalenti del problema:
\begin{itemize}
\item si ha un'urna contenente $N$ palline, di colore bianco oppure nero. Ad ogni istante di tempo si estrae una pallina a caso (con legge uniforme),
la si sostituisce con una del colore opposto e la si rimette nell'urna. Qui $X_n$ è il numero di palline nere dopo l'$n$-esima estrazione.
\item si ha un sistema chiuso formato da 2 recipienti comunicanti, $A$ e $B$, che contiene in totale $N$ molecole di gas.
Ad ogni istante di tempo, una molecola a caso (con legge uniforme) nel sistema si trasferisce dal recipiente in cui si trova, nell'altro recipiente.
Qui $X_n$ è il numero di molecole nel recipiente $A$ dopo l'$n$-esimo istante di tempo.
\end{itemize}
In entrambi i casi $E = \{0,1,\dots,N\}$, $T = \ZZ^+$ (similmente all'esempio precedente), e la proprietà di Markov è soddisfatta.
Anche qui abbiamo una matrice tridiagonale, questa volta incluse la prima e l'ultima riga, ma con probabilità variabile a seconda dello stato.
Per esempio, la probabilità di passare da 2 a 1 palline nere (o molecole nel recipiente $A$) è pari alla probabilità che venga pescata una delle 2 su un totale di $N$; ovvero, $p_{21} = \frac 2 N$, e così via per tutte le altre probabilità di transizione.
La matrice di transizione risultante è la seguente:
$$P = \begin{bmatrix}
0 & 1 & 0 & 0 & \dots \\
\frac 1 N & 0 & \frac{N-1}N & 0 & \dots \\
0 & \frac 2 N & 0 & \frac{N-2}N & \dots \\
&& \ddots & \ddots & \ddots \\
& \dots & 0 & \frac{N-1}N & 0 & \frac 1 N \\
& \dots & 0 & 0 & 1 & 0
\end{bmatrix}$$
\end{ese}
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$0$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$1$, scale=0.3] at (2,0) {};
\node[circle,fill, label=$2$, scale=0.3] at (4,0) {};
\node[circle,fill, scale=0.3] at (6,0) {};
\node at (6, 0.4) {$N-2$};
\node[circle,fill, scale=0.3] at (8,0) {};
\node at (8, 0.4) {$N-1$};
\node[circle,fill, label=$N$, scale=0.3] at (10,0) {};
\node at (0.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (1.8, 0.1) ; % da 0 a 1
\node at (1.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (0.2, -0.1); % da 1 a 0
\node at (1, 0.6) {$1$};
\node at (1, -0.6) {$\frac{1}{N}$};
\node at (2.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (3.8, 0.1) ; % da 1 a 2
\node at (3.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (2.2, -0.1); % da 2 a 1
\node at (3, 0.6) {$\frac{N-1}{N}$};
\node at (3, -0.6) {$\frac{2}{N}$};
\node at (4.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20, dashed] (5.8, 0.1) ; % da 1 a 2
\node at (5.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20, dashed] (4.2, -0.1); % da 2 a 1
\node at (5, 0) {$\dots$};
\node at (6.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (7.8, 0.1) ; % da N-2 a N-1
\node at (7.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (6.2, -0.1); % da N-1 a N-2
\node at (7, 0.6) {$\frac{2}{N}$};
\node at (7, -0.6) {$\frac{N-1}{N}$};
\node at (8.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (9.8, 0.1) ; % da N-1 a N
\node at (9.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (8.2, -0.1); % da N a N-1
\node at (9, 0.6) {$\frac{1}{N}$};
\node at (9, -0.6) {$1$};
\end{scope}
\end{tikzpicture}
\caption{urna di Ehrenfest}
\end{figure}
\subsection{Leggi congiunte}
Data una catena $(X_n)_{n \ge 0} \ \markov(v,P)$, per definizione $X_0 \sim v$ e quindi si ha che:
$$X_1 | (X_0 = i) \sim p_{i\bigcdot} \text{ in quanto } \PP(X_0 = i) = v_i \text{ e } \PP(X_1 = j | X_0 = i) = p_{ij}$$
Pertanto, grazie alle proprietà della legge condizionata (capitolo \ref{section-leggi-condizionate}):
$$\PP(X_0 = i, X_1 = j) = \PP(X_0 = i) \ \PP(X_1 = j | X_0 = i) = v_i \ p_{ij}$$
Si può dunque constatare che conoscendo la legge marginale di $X_0$ e la legge condizionata di $X_1|X_0$, è nota anche la legge congiunta di $(X_0, X_1)$.
Questa ``concatenazione'' di leggi mediante un prodotto\footnote{Questa proprietà e altre simili (anche viste in altri capitoli di questo testo) che permettono di ricavare una legge congiunta dal prodotto di altre leggi sono incluse nella categoria delle cosiddette \emph{leggi della catena.}}
funziona anche per ottenere la legge congiunta di un numero qualsiasi di VA della catena:
\begin{teo}\label{teo-legge-mark}
Sia $(X_n)_{n \ge 0} \ \markov(v,P)$. Allora, $\forall n \ge 0$ e $\forall i_0,\dots,i_n \in E$, si ha:
$$ \PP(X_0=i_0, \, X_1=i_1, \, \dots, \, X_n=i_n) =
v_{i_0} \ \, p_{i_0 i_1} \ \, p_{i_1 i_2} \ \, \cdots \ \, p_{i_{n-1} i_n} $$
\end{teo}
\needspace{2\baselineskip}
\begin{dimo}~
\begin{enumerate}
\item Si supponga $\PP(X_0 = i_0, \dots, X_n = i_n) > 0$. \\
Usando al contrario la definizione di probabilità condizionata sugli eventi $(X_n = i_n)$ e $(X_0 = i_0, \dots, X_{n-1} = i_{n-1})$ si ha che:
\begin{align*}
\PP(X_0 &= i_0, \, \dots, \, X_n = i_n) \\
= \, & \PP(X_n = i_n | X_{n-1} = i_{n-1}, \dots, X_0 = i_0) \ \PP (X_{n-1} = i_{n-1}, \dots, X_0 = i_0) \\
= \, & p_{i_{n-1} i_n} \ \PP (X_{n-1} = i_{n-1}, \dots, X_0 = i_0) &\mathmakebox[1pt][r]{\hfill\text{(per la pr. Markov)}} \\
= \, & p_{i_{n-1} i_n} \ \PP(X_{n-1}=i_{n-1} | X_{n-2}=i_{n-2},\dots,X_0=i_0) \cdot\\
&\cdot \PP(X_{n-2}=i_{n-2},\dots,X_0=i_0) \\
= \, & \dots &\mathmakebox[1pt][r]{\hfill\text{(ripetendo $n$ volte)}} \\
= \, & p_{i_{n-1} i_n} \ \cdots \ p_{i_1 i_0} \ v_{i_0}
\end{align*}
\item Il caso $\PP(X_0 = i_0, \dots, X_n = i_n) = 0$ è un utile esercizio per il lettore.\footnote{Dimostrazione del lettore quotata a 1.1} \qedhere
\end{enumerate}
\end{dimo}
Questo teorema mostra come l'evoluzione del fenomeno dipenda fortemente dalla legge iniziale.
È dunque impensabile cercare di studiare l'evoluzione di una grandezza al variare di $v$ e
tenendo fissa la matrice di transizione $P$, perché cambierebbero tutte le leggi congiunte
creando quindi altre catene di Markov diverse e slegate tra loro.
Si dice dunque che la catena di Markov è definita dai due \emph{parametri} $P$ e $v$:
ciò è evidenziato dalla notazione compatta scelta per indicarle.
Il caso $v \not\sim \delta$ indica una situazione iniziale non deterministica e non nota a priori,
per esempio il caso in cui l'inizio della catena sia il prodotto di un altro esperimento aleatorio avvenuto precedentemente.
Introduciamo ora una notazione largamente utilizzata per la sua brevità: si indichi con $\PP_i(\bigcdot)$ la probabilità $\PP(\bigcdot | X_0 = i)$, quindi sottintendendo che è noto lo stato iniziale $i$ della catena.
\begin{coro}\label{coro-mark}
Sia $(X_n)_{n \ge 0} \ \markov(v,P)$ sullo spazio di probabilità $\Dom$.
Siano inoltre $v_i = \PP(X_0=i) > 0 \enspace \forall i$ e $\PP_i(A) = \PP(A | X_0=i) \enspace \forall A \in \Ac$.
Allora $(X_n)_{n \ge 0}$ è $\markov(v,P)$ anche sullo spazio di probabilità $(\Omega,\Ac,\PP_i)$.
\end{coro}
Ciò non è scontato, perché in generale sostituendo $\PP$ con una legge qualsiasi non si ha alcuna garanzia sul fatto che si ottenga ancora una catena di Markov.
Il risultato permette di semplificare i conti e la notazione quando è nota la legge iniziale, di fatto ``incorporando'' la situazione iniziale direttamente nella legge di probabilità della catena.
Vedremo che un risultato simile vale anche se $v \sim \delta$ (quindi anche con componenti nulle di $v$). \\
\subsubsection{Notazione matriciale}
Si identifichi ora ogni densità $\pi$ di probabilità discreta su $E$ con un \emph{vettore riga} di componenti $\pi_i$, $i \in E$, con $\pi_i \ge 0 \enspace \forall i$ e $\sum_i \pi_i = 1$.
Si introduca il vettore riga $\pi P$, tale che:
$$(\pi P)_j = \sum_i \pi_i p_{ij} \ \forall j \in E$$
Infine, si introducano anche la matrice $P^2$, tale che:
$$(P^2)_{ij} = \sum_k p_{ik} p_{kj} \ \forall i,j \in E$$
Analogamente le altre potenze $P^n$ di $P$, con $n \ge 0$. \\
Indicheremo con $p_{ij}^{(n)}$ l'elemento in posizione $(i,j)$ della matrice $P^n$; dunque:
$$P^n = \left[ p_{ij}^{(n)} \right]_{i,j \in E}$$
Similmente denoteremo con $v^{(n)}$ la legge della VA $X_n$: si ha dunque $X_n \sim v^{(n)}$ e $v^{(0)} = v$. \\
\begin{teo}\label{teo-vettori-mark}
Sia $(X_n)_{n \ge 0} \ \markov(v,P)$.
Allora:
\begin{enumerate}[label=(\roman*)]
\item $v^{(n)} = v^{(0)} P^n \ \forall n \ge 0$, ovvero in componenti:
$$\PP(X_n = j) = (v P^n)_j \ \forall n \ge 0, j \in E$$
\item vale la seguente uguaglianza, ammesso che le probabilità condizionate ivi utilizzate esistano:
$$p_{ij}^{(n)} = \PP(X_{m+n} = j | X_m = i) = \PP(X_n = j | X_0 = i) \ \forall m,n \ge 0, \ i,j \in E$$
\item per ogni $k, n_1,\dots,n_k \ge 0, \ i_1,\dots,i_k \in E$,
$$\PP(X_{n_1}=i_1, \, \dots, X_{n_k}=i_k) = \sum_{i_0 \in E} \ v_{i_0} \ p_{i_0 i_1}^{(n_1)} \
p_{i_1 i_2}^{(n_2-n_1)} \ \cdots \ p_{i_{k-1} i_k}^{(n_k - n_{k-1})}$$
\end{enumerate}
\end{teo}
Nel punto (ii), $p_{ij}^{(n)}$ è la probabilità di transizione di $n$ passi partendo dal tempo $m$;
in questo caso quindi la matrice di transizione del passaggio è proprio $P^{(n)}$, e tale passaggio \emph{non dipende dall'istante temporale $m$ di partenza}!
Questo è un effetto dell'omogeneità (temporale, cioè in $n$) della catena di Markov: le previsioni sul valore di $X_n$ non dipendono dal tempo di osservazione, ma solo dallo stato in cui la catena si trova attualmente. \\
Inoltre, il punto (i) rappresenta una \emph{formula delle probabilità totali} rispetto ai valori di $X_0$:
$$\PP(X_n=j) = \sum_{i \in E} \PP(X_n=j, X_0=i) = \sum_{i \in E} \PP(X_n=j | X_0=i) \, \PP(X_0=i)$$
$$\implies \quad \PP(X_n=j) = \sum_{i \in E} v_i \, p_{ij}^{(n)}$$
dove $p_{ij}^{(n)}$ è la probabilità di passare da $i$ a $j$ in esattamente $n$ passi.
% Qualcuno mi controlla sta cosa? il (ii) sopra l'= non c'era ma non sapevo come altro giustificarlo (Br1)
% L'ho tolto, era così per definizione (SSL)
\begin{dimo}~
\begin{enumerate}[label=(\roman*)]
\item Fattorizzando le probabilità e grazie alla definizione di $P^n$:
\begin{align*}
\PP(X_n = j) &\ = \sum_{i_0,\dots,i_{n-1}} \PP(X_n=j, X_{n-1}=i_{n-1},\dots,X_0=i_0) \\
&\stackrel{\ref{teo-legge-mark}}{=} \sum_{i_0,\dots,i_{n-1}} v_{i_0} \ p_{i_0 i_1} \ \dots \ p_{i_{n-2} i_{n-1}} \ p_{i_{n-1} j} \\
&\ = (v P^n)_j
\end{align*}
\item In caso $m=0$ e $v=\delta_i$, l'uguaglianza $p_{ij}^{(n)} = \PP(X_n=j | X_0=i)$ è
automaticamente soddisfatta per il punto (i).
\item Si dimostra, a titolo di esempio, un caso particolare con sottovettore appartenente a un vettore di 9 componenti:
\begin{align*}
&\PP(X_3=i_3, X_5=i_5, X_9=i_9) =
\sum_{\substack{i_0,i_1,i_2,i_4,\\i_6,i_7,i_8}} \PP(X_0=i_0,\dots,X_9=i_9) \\
= &\sum v_{i_0} \ p_{i_0 i_1} \dots p_{i_8 i_9} \\
= &\sum_{i_0} v_{i_0} \ \sum_{i_1,i_2} p_{i_0 i_1} \ p_{i_1 i_2} \ p_{i_2 i_3}
\ \sum_{i_4} p_{i_3 i_4} \ p_{i_4 i_5} \ \sum_{i_6,i_7,i_8} \ p_{i_5 i_6} \ p_{i_6 i_7} \ p_{i_7 i_8} \ p_{i_8 i_9} \\
= &\sum_{i_0} v_{i_0} \ p_{i_0 i_3}^3 \ p_{i_3 i_5}^2 \ p_{i_5 i_9}^4
\stackrel{\text{(ii)}}{=} \sum_{i_0} v_{i_0} \ p_{i_0 i_3}^{(3)} \ p_{i_3 i_5}^{(2)} \ p_{i_5 i_9}^{(4)}
\end{align*}
\item[(ii)] Siano ora $m \ge 1$ e $\PP(X_m=i)>0$:
\begin{align*}
\PP(X_{m+n}=j | X_m=i) &= \frac{\PP(X_m=i, X_{m+n}=j)}{\PP(X_m=i)} \stackrel{\text{(iii)}}{=}
\frac{\sum_{i_0} v_{i_0} \ p_{i_0 i}^{(m)} \ p_{ij}^{(n)}}{\sum_{i_0} v_{i_0} \ p_{i_0 i}^{(m)}} \\
&= \frac{p_{ij}^{(n)} \sum_{i_0} v_{i_0} \ p_{i_0 i}^{(m)}}{\sum_{i_0} v_{i_0} \ p_{i_0 i}^{(m)}} =
p_{ij}^{(n)}&\qedhere
\end{align*}
\end{enumerate}
\end{dimo}
\begin{teo}[equazione di Chapman-Kolmogorov]
\index{Chapman-Kolmogorov, equazione di}
$$\PP(X_{n+m}=j | X_0=i) = \sum_{l \in E} \PP(X_{n+m}=j | X_m=l) \ \PP(X_m=l | X_0=i)$$
\end{teo}
Scelto un istante $m$, si possono dunque elencare tutte gli stati $l$ che la catena di Markov può assumere in $m$, ovvero tutti i possibili ``percorsi'' osservati all'istante $m$, ed usarli per calcolare la probabilità di arrivare in $j$.
Mediante un'accorta scelta di $m$, spesso questo calcolo si semplifica enormemente grazie ad eventuali percorsi che hanno probabilità nulla e ad altre peculiarità della catena analizzata.
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{axis}[
axis lines = middle,
ylabel = $E$,
xlabel = $n$,
width=0.7\textwidth,
height=0.5\textwidth,
yticklabels={,,},
xticklabels={,,}
]
\addplot [draw=none, forget plot] coordinates {(-0.2, -0.9)};
\addplot [draw=none, forget plot] coordinates {(2.4, 0.9)};
%etichette
\node at (axis cs:-0.1, 0.5) {$i$};
\node at (axis cs:-0.1, -0.5) {$j$};
\node at (axis cs:1, 0.13) {$m$};
\node at (axis cs:2, 0.13) {$m+n$};
%linee tratteggiate
\draw [line width=0.2mm, dashed] (axis cs:0,-0.5) -- (axis cs:2, -0.5) -- (axis cs:2, 0);
\draw [line width=0.2mm, dashed] (axis cs:1,-1) -- (axis cs:1,0.08);
\draw [line width=0.2mm, dashed] (axis cs:1,0.18) -- (axis cs:1,1);
%tacchette
\draw [line width=0.2mm] (axis cs:0.95,0.7) -- (axis cs:1.05,0.7);
\draw [line width=0.2mm] (axis cs:0.95,0.55) -- (axis cs:1.05,0.55);
\draw [line width=0.2mm] (axis cs:0.95,0.4) -- (axis cs:1.05,0.4);
\draw [line width=0.2mm] (axis cs:0.95,0.25) -- (axis cs:1.05,0.25);
\draw [line width=0.2mm] (axis cs:0.95,-0.1) -- (axis cs:1.05,-0.1);
\draw [line width=0.2mm] (axis cs:0.95,-0.3) -- (axis cs:1.05,-0.3);
\draw [line width=0.2mm] (axis cs:0.95,-0.5) -- (axis cs:1.05,-0.5);
\draw [line width=0.2mm] (axis cs:0.95,-0.7) -- (axis cs:1.05,-0.7);
%linee
\draw [line width=0.2mm, color=lightblue] (axis cs:0,0.5) -- (axis cs:1, 0.7) -- (axis cs:2, -0.5);
\draw [line width=0.2mm, color=lightblue] (axis cs:0,0.5) -- (axis cs:1, 0.55) -- (axis cs:2, -0.5);
\draw [line width=0.2mm, color=lightblue] (axis cs:0,0.5) -- (axis cs:1, 0.4) -- (axis cs:2, -0.5);
\draw [line width=0.2mm, color=lightblue] (axis cs:0,0.5) -- (axis cs:1, 0.25) -- (axis cs:2, -0.5);
\draw [line width=0.2mm, color=lightblue] (axis cs:0,0.5) -- (axis cs:1, -0.1) -- (axis cs:2, -0.5);
\draw [line width=0.2mm, color=lightblue] (axis cs:0,0.5) -- (axis cs:1, -0.3) -- (axis cs:2, -0.5);
\draw [line width=0.2mm, color=lightblue] (axis cs:0,0.5) -- (axis cs:1, 0.5) -- (axis cs:2, -0.5);
\draw [line width=0.2mm, color=lightblue] (axis cs:0,0.5) -- (axis cs:1, -0.7) -- (axis cs:2, -0.5);
\end{axis}
\end{tikzpicture}
\caption{Chapman-Kolmogorov: si calcolano tutti gli stati intermedi nell'istante $m$, sfruttandoli per calcolare la probabilità di arrivare in $j$.}
\end{figure}
\begin{dimo}
Dall'algebra delle matrici ricordiamo che $P^{m+n} = P^m P^n$, e in particolare:
$$p_{ij}^{(n+m)} = \sum_{l \in E} p_{il}^{(m)} \ p_{lj}^{(n)} \quad \forall i,j \in E$$
L'equazione non è altro che la riscrittura di quest'ultima formula, tenuto conto del punto (ii) del teorema \ref{teo-vettori-mark}.
\end{dimo}
\begin{teo}\label{teo-time-scaling}
Sia $(X_n)_{n \ge 0} \ \markov(v,P)$ su $\Dom$, e sia $v_i^{(m)} = \PP(X_m=i) > 0$ con $m \ge 0$ fissato ed $i \in E$.
La successione di VA:
$$(Y_n)_{n \ge 0} \coloneqq (X_{n+m})_{n \ge 0}$$
è anch'essa $\markov(\delta_i,P)$ su $(\Omega,\Ac,\PP_{i,m})$, dove $\PP_{i,m}(A) = \PP(A|X_m=i)$.
\end{teo}
Questo teorema conferma le osservazioni al teorema \ref{teo-vettori-mark}: definendo una nuova catena stiamo scegliendo un nuovo istante zero e ``riscalando'' il tempo all'indietro per farlo diventare un istante zero ``effettivo''.
Ciò è possibile grazie all'omogeneità della catena, ovvero al fatto che una probabilità di transizione è identica se si è all'istante zero o se si è in qualsiasi altro istante.
Mediante questa operazione, si ottiene una nuova catena che mantiene la stessa evoluzione $P$ della precedente e ha una legge iniziale deterministica nel valore $i$.
In altre parole, sapere di partire da una situazione del tipo $\delta_i$ e sapere di essere in $i$ con uno stato iniziale casuale sono due situazioni equivalenti, cosa che è confermata dall'intuizione sul significato della proprietà di Markov.
\subsection{Classificazione degli stati}
I ``salti'' da uno stato all'altro che la catena di Markov può compiere, seguendo le probabilità $p_{ij}$,
fanno sì che nella catena si crei una diversificazione degli stati: possono esserci stati mai raggiunti,
stati raggiunti più volte, gruppi di stati i cui raggiungimenti si escludono a vicenda, e così via.
Iniziamo col dare l'importante definizione di stati e catene \emph{periodici} e \emph{aperiodici}: \\
\begin{defn}\label{def-periodo}
\index{periodo di uno stato}
Il \textbf{periodo} di uno stato $i \in E$ è definito nel seguente modo:
$$ d(i) \coloneqq \operatorname{MCD} \left \{ n \ge 1 : p_{ii}^{(n)} > 0 \right \}$$
\end{defn}
La definizione prende tutti i possibili percorsi (con probabilità non nulla) che vanno dallo stato $i$ a sé stesso, ne prende le durate (cioè il numero di passi effettuati), e calcola il massimo comune denominatore di tutte queste durate.\footnote{Questa operazione è del tutto analoga
all'effettuare l'MCD delle frequenze di un pacchetto di onde per determinare il periodo dell'onda globale. La frequenza infatti non è altro che l'inverso del tempo che un'onda impiega per tornare uguale a sé stessa.}
\begin{defn}\label{def-aperiod}
\index{stato!periodico}
\index{stato!aperiodico}
\index{catena di Markov!aperiodica}
\index{catena di Markov!periodo di una}
Uno stato $i \in E$ è detto \textbf{periodico} se $d(i) \ge 2$ e \textbf{aperiodico} se $d(i) = 1$. \\
Similmente, se tutti gli stati di una catena di Markov hanno lo stesso periodo $d(i)$, la \textbf{catena} si dice
\textbf{aperiodica} o \textbf{di periodo $d(i)$}.
\end{defn}
\begin{ese}
Siano:
$$v=\delta_i \quad \text{e} \quad P=\left[\begin{matrix}0 & 1 \\ 1 & 0\end{matrix}\right]$$
In questo caso la catena è deterministica: da 1 si passa sempre in 2 e viceversa.
È evidente che la catena è periodica di periodo $d(i) = 2$.
Verificando con la definizione, si ha infatti che $P^2 = I$, $P^3 = P$, e così via: si sta dunque facendo l'MCD di tutti i numeri pari.
\end{ese}
\begin{ese}
Siano:
$$v=\delta_i \quad \text{e} \quad P=\left[\begin{matrix}0 & 1 \\ \frac 1 2 & \frac 1 2 \end{matrix}\right]$$
In questo caso $d(1) = 1$, in quanto partendo da 1 c'è una probabilità non nulla di tornare in 1 in $2,3,4,5,\dots$ passi, e l'MCD di questi valori è 1.
\end{ese}
\begin{nb}
Se $p_{ii} > 0$, allora necessariamente $d(i) = 1$.
\end{nb}
\begin{prop}\label{prop-iii-mark}
$$p_{ij}^{(n)} > 0 \quad \iff \quad
\exists i_1,\dots,i_{n-1} \text{ tale che }
p_{ii_1} \ p_{i_1 i_2} \cdots p_{i_{n-1} j} > 0$$
\end{prop}
\begin{dimo}
Per definizione di $p_{ij}^{(n)}$:
$$p_{ij}^{(n)} = \sum_{j_1,\dots,j_{n-1}} p_{i j_1} \ p_{j_1 j_2} \cdots p_{j_{n-1} j}\,\footnote{Abbiamo visto dimostrazioni decisamente peggiori.} \qedhere$$
\end{dimo}
\begin{defn}\label{def-condvx}
\index{stato!che conduce a un altro}
Si dice che lo stato $i \in E$ \textbf{conduce} allo stato $j \in E$, scritto come $i \to j$, se esiste $n \ge 0$ tale che $p_{ij}^{(n)} > 0$.
\end{defn}
\begin{prop}\label{prop-iff-mark}
\begin{align*}
i \to j & \iff \PP\left(\bigcup_{n \ge 1}(X_{n+m}=j) | X_m=i\right) > 0 \quad \forall m \ge 0 &\text{(a)} \\
& \iff \exists i_1,\dots,i_{n-1} \text{ tale che } p_{i i_1} \ p_{i_1 i_2} \dots p_{i_{n-1} j} > 0 &\text{(b)}
\end{align*}
\end{prop}
Ovvero, esiste almeno un percorso con probabilità non nulla che porta da $i$ a $j$, e questo evento accadrà con probabilità non nulla.
\begin{dimo}
Se $i \to j$, per definizione esiste $n_0$ tale che $p_{ij}^{(n_0)} > 0$. Pertanto:
$$\PP\left(\bigcup_{n \ge 1}(X_{n+m}=j | X_m=i) \right) \ge \PP\left(X_{n_0+m}=j | X_m=i\right) = p_{ij}^{(n_0)} > 0$$
Inoltre, grazie alla subadditività:
\begin{align*}
0 &< \PP\left(\bigcup_{n \ge 1}(X_n=j | X_0=i)\right) \le \sum_{n=1}^{+\infty} \PP(X_n=j | X_0=i) \\
&\implies \exists n_0 : \PP(X_{n_0}=j | X_0=i) = p_{ij}^{(n_0)} > 0 &\qedhere
\end{align*}
\end{dimo}
\begin{coro}[transitività]\label{coro-catena-conduc}
$$i \to j \quad \text e \quad j \to k \implies i \to k$$
\end{coro}
\begin{ese}
Riprendiamo l'esempio di pagina \pageref{catene-triangolari} delle due catene ``triangolari''.
Nel primo esempio, da ogni stato ci si può spostare in ogni altro: $i \to j \enspace \forall i,j \in E = \{a,b,c\}$.
Nel secondo caso invece ci sono due ``sottosistemi'' isolati; si ha dunque $a \to b$ e $b \to a$, ma $a \not\to c$ e $b \not\to c$.
\begin{figure}[H]
\centering
\(
\vcenter{\hbox{\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$b$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$c$, scale=0.3] at (3,0) {};
\node[circle,fill, label=$a$, scale=0.3] at (1.5, 2.598) {};
\node at (0.1,0) {} edge[->, line width=0.4mm] (2.8,0) ; % da 1 a 2
\node at (2.9,0.1) {} edge[->, line width=0.4mm] (1.6,2.4); % da 2 a 3
\node at (1.43, 2.5) {} edge[->, line width=0.4mm] (0.15, 0.2); % da 3 a 1
\node at (1.5, -0.35) {$\frac{1}{2}$};
\node at (2.45, 1.4) {$\frac{1}{2}$};
\node at (0.55, 1.4) {$1$};
\node at (-0.1,-0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (-0.18, 0.1) ; % da 1 a 1
\node at (3.1,0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (3.18, -0.1) ; % da 2 a 2
\node at (-1, 0) {$\frac{1}{2}$};
\node at (4, 0) {$\frac{1}{2}$};
\node at (1.5, -1) {$a \to b \to c \to a$};
\end{scope}
\end{tikzpicture}}}
\)
\hskip 50pt
\(
\vcenter{\hbox{\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$a$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$b$, scale=0.3] at (3,0) {};
\node[circle,fill, label=$c$, scale=0.3] at (1.5, 2.598) {};
\node at (0.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (2.8, 0.1) ; % da 1 a 2
\node at (2.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (0.2, -0.1); % da 2 a 1
\node at (1.5, 0.6) {$1$};
\node at (1.5, -0.6) {$1$};
\node at (1.6, 2.5) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (1.35,2.42) ; % da 3 a 3
\node at (1.5, 1.4) {$1$};
\node at (1.5, -1) {$a \to b, \ b \to a$};
\node at (1.5, -1.5) {$a \not\to c, \ b \not\to c$};
\end{scope}
\end{tikzpicture}}}
\)
\caption{diagramma degli stati nei due esempi}
\end{figure}
\end{ese}
\begin{defn}\label{def-classe-chiusa}
\index{classe!chiusa}
L'insieme $C \subseteq E$ si dice \textbf{classe chiusa} se ogni $i \in C$ \emph{non} conduce
a un qualsiasi $j \notin C$; in altre parole, $i \in C, \ i \to j \implies j \in C$.
\end{defn}
Le classi chiuse sono quelle cui finora ci siamo riferiti con il termine ``sottosistema''.
Nel primo dei due ultimi esempi, l'unica classe chiusa è ovviamente $E$ stesso; nel secondo esempio,
le classi chiuse sono gli insiemi $\{a,b\}$ e $\{c\}$.
\begin{defn}\label{def-comunica}
\index{stato!che comunica con un altro}
Dati gli stati $i,j \in E$, si dice che \textbf{$i$ comunica con $j$} se $i \to j$ e $j \to i$,
e ciò si rappresenta con la notazione $i \leftrightarrow j$.
\end{defn}
\begin{defn}\label{def-classe-irrid}\label{def-catena-irrid}
\index{classe!irriducibile}
\index{catena di Markov!irriducibile}
L'insieme $C \subseteq E$ si dice \textbf{classe irriducibile} se ogni stato $i \in C$
comunica con ogni altro stato $j \in C$, ovvero se non esistono sottoclassi chiuse in $C$. \\
In particolare, una catena di Markov $(X_n)_{n \ge 0}$, o equivalentemente la sua matrice di transizione $P$, si dice \textbf{irriducibile} se il suo spazio degli stati $E$ è irriducibile.
\end{defn}
\begin{defn}\label{def-stato-assorb}
\index{stato!assorbente}
$i \in E$ è uno \textbf{stato assorbente} se l'insieme $\{i\}$ è una classe chiusa, ovvero se $p_{ii} = 1$.
\end{defn}
\needspace{2\baselineskip}
\begin{ese}[catene irriducibili]~
\begin{itemize}
\item Questa catena è irriducibile, con periodo 2 per ogni stato $i \in \{a,b\}$:
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$a$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$b$, scale=0.3] at (2,0) {};
\node at (0.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (1.8, 0.1) ; % da 0 a 1
\node at (1.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (0.2, -0.1); % da 1 a 0
\end{scope}
\end{tikzpicture}
\end{figure}
\item Questa catena è irriducibile, con periodo 1 per ogni stato $i \in \{a,b\}$:
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$a$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$b$, scale=0.3] at (2,0) {};
\node at (-0.1,-0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (-0.18, 0.1) ; % da 0 a 0
\node at (0.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (1.8, 0.1) ; % da 0 a 1
\node at (1.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (0.2, -0.1); % da 1 a 0
\end{scope}
\end{tikzpicture}
\end{figure}
\item Questa catena \emph{non} è irriducibile:
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$a$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$b$, scale=0.3] at (2,0) {};
\node[circle,fill, label=$c$, scale=0.3] at (4,0) {};
\node[circle,fill, label=$d$, scale=0.3] at (6,0) {};
\node[circle,fill, label=$e$, scale=0.3] at (8,0) {};
\node at (-0.1,-0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (-0.18, 0.1) ; % da 0 a 0
\node at (0.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (1.8, 0.1) ; % da 0 a 1
\node at (1.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (0.2, -0.1); % da 1 a 0
\node at (4.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (5.8, 0.1) ; % da 1 a 2
\node at (5.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (4.2, -0.1); % da 2 a 1
\node at (6.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (7.8, 0.1) ; % da a+b-1 a a+b
\node at (8.1,0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (8.18, -0.1) ; % da a+b a a+b
\end{scope}
\end{tikzpicture}
\end{figure}
Abbiamo infatti le classi chiuse $E, \{a,b\}, \{c,d,e\}, \{e\}$, le classi irriducibili $\{a,b\}$ ed $\{e\}$ e lo stato assorbente $e$.
\end{itemize}
\end{ese}
\subsubsection{Primo arrivo in uno stato}
\begin{defn}\label{def-ist-pr-arrivo}
\index{istante di primo arrivo}
L'\textbf{istante di primo arrivo} nello stato $j \in E$ è la VA così definita:
$$ \tau_j: \Omega \to \NN \cup \{+\infty\}, \quad
\tau_j \coloneqq \min\{ n \ge 1 : X_n = j \}
$$
\end{defn}
\begin{nb}
$\tau_j = + \infty$ se $X_n(\omega) \neq j \ \forall n \ge 1$, ovvero se $\{ n \ge 1 : X_n=j \} = \varnothing$.
In tal caso, la catena non raggiungerà mai lo stato $j$.
\end{nb}
Si può facilmente verificare che $\tau_j$ sia effettivamente una VA:
l'evento $(\tau_j = m) = (X_1 \neq j,\dots,X_{n-1} \neq j, X_n = j) \in \Ac$ per ogni $m \ge 0$.
Pertanto, anche l'evento $(\bigcup_{m=1}^{+\infty}(\tau_j=m))^C$ è in $\Ac$ per le proprietà delle $\sigma$-algebre.
Possiamo dunque esprimere tutte le possibili controimmagini delle $\tau_j$ nel seguente modo:
\begin{align*}
(\tau_j = +\infty) &= \left(\bigcup_{m=1}^{+\infty}(\tau_j=m)\right)^C =
\bigcap_{m=1}^{+\infty}(\tau_j \neq m) = \bigcap_{n=1}^{+\infty}(X_n \neq j) \in \Ac \\
(\tau_j < +\infty) &= \bigcup_{m=1}^{+\infty}(\tau_j=m) = \bigcup_{n=1}^{+\infty}(X_n=j) \in \Ac
\end{align*}
Concludiamo che $\tau_j$ rispetta la definizione di VA.
\begin{defn}\label{def-di-arrivare}
\index{probabilità!di arrivo (catene di Markov)}
Dati gli stati $i,j \in E$, la probabilità di arrivare in $j$ partendo da $i$ è:
$$ \rho_{ij} \coloneqq \PP(\tau_j < +\infty | X_0 = i) = \PP_i(\tau_j < +\infty)$$
\end{defn}
In questo caso non è importante il tempo necessario per la transizione da $i$ a $j$, ma semplicemente che questa transizione sia possibile o meno.
\begin{prop}
Ovviamente:
$$i \to j \quad \iff \quad \rho_{ij} > 0.$$
\end{prop}
\begin{defn}\label{def-stato-ricor-trans}
\index{stato!ricorrente}
\index{stato!transitorio}
$i \in E$ è uno \textbf{stato ricorrente} se $\rho_{ii} = 1$, o è uno \textbf{stato transitorio} se $\rho_{ii} < 1$.
\end{defn}
Gli stati ricorrenti ricompariranno quasi certamente almeno una volta nel corso dell'evoluzione, mentre gli stati transitori potrebbero non ricomparire più.
\begin{teo}\label{teo-9-reasons-why}
Sia $E$ spazio degli stati \emph{finito} ed $i,j \in E$. Allora:
\begin{enumerate}
\item $i$ assorbente $\implies$ $i$ ricorrente;
\item $i$ transitorio $\iff$ esiste $j$ tale che $i \to j$ e $j \not\to i$\footnote{È bene evidenziare che questa proprietà \emph{non} vale nel caso in cui $E$ sia numerabile.};
\item $i \to j$, \ $j$ transitorio $\implies$ $i$ transitorio;
\item $i \to j$, \ $i$ ricorrente $\implies$ $j$ ricorrente e $j \to i$;
\item $i \leftrightarrow j$ $\implies$ $i$ e $j$ sono o entrambi ricorrenti con $d(i)=d(j)$, o entrambi transitori;
\item $j$ transitorio $\implies$ $p_{ij}^{(n)} \xrightarrow{n} 0 \enspace \forall i \in E$;
\item esiste almeno uno stato ricorrente $i \in E$;
\item $E$ irriducibile $\implies$ tutti gli stati sono ricorrenti con lo stesso periodo;
\item vale la seguente partizione: $E = E_T \cup C_1 \cup \dots \cup C_k$, con $E_T$ classe contenente tutti gli stati transitori di $E$ e $C_1,\dots,C_k$ classi chiuse, disgiunte e irriducibili.
Partendo da una delle classi $C_m$ si rimane al suo interno per sempre, e se si parte dalla classe $E_T$ si finisce inevitabilmente in una delle classi $C_m$.
\end{enumerate}
\end{teo}
\begin{dimo} I punti 5, 6 e 9 sono lasciati al lettore come esercizio.
\begin{enumerate}
\item $i$ assorbente $\implies p_{ii} = 1 \implies \PP_i(\tau_i=1) = 1 \implies \PP_i(\tau_i < +\infty) = 1$, cioè $i$ ricorrente.
\item (solo $\impliedby$) Sia $i \to j$ e $j \not\to i$. Sia $m$ il più piccolo elemento di $\NN$ tale che $p_{ij}^{(m)} \ge 0$.
Sia inoltre $\{i_1,\dots,i_{m-1}\} \subseteq E$ un possibile percorso di transizione da $i$ a $j$, ovvero tale che l'evento
$A = (X_0=i, X_1=i_1,\dots,X_{m-1}=i_{m-1},X_m=j)$ abbia probabilità non nulla.
Per costruzione $i_k \neq j \enspace \forall k=1,\dots,m-1$. \\
%Poiché $j \not\to i$, se $X_m = j$ allora $i$ non verrà mai più raggiunto, ovvero $\PP_i(A, \tau_i < +\infty) = 0$; inoltre:
Calcoliamo ora la seguente probabilità:
\begin{align*}
\PP_i(A, \tau_i < +\infty) &= \sum_{n=1}^{+\infty} \PP_i(A,\tau_i=n) \\
&= \sum_{n=m+1}^{+\infty} \PP_i(A,\tau_i=n) &\text{(i primi $m$ sono 0 per def. di $A$)} \\
&= \sum_{n=1}^{+\infty} \PP_i(A,\tau_i=n+m) &\text{(cambio di indice)}
\end{align*}
Studiamo i singoli addendi. $(\tau_i=n+m) \subseteq (X_{n+m}=i)$ perché il secondo evento ($X$ si trova nello stato $i$) include il primo ($X$ si trova nello stato $i$ per la prima volta). Pertanto:
\begin{align*}
\PP_i(A, \tau_i=m+n) &\le \PP_i(A, X_{n+m}=i) \\
&= \PP_i(X_{n+m}=i | A) \ \PP_i(A) &\text{(def. di prob. cond.)} \\
&= \PP_i(X_{n+m}=i | X_n=j) \ \PP_i(A) &\text{(per la pr. di Markov)} \\
&= p_{ji}^{(n)} \ \PP_i(A) \\
&= 0 \ \PP_i(A) = 0 &\text{(perché $j \not\to i$)}
\end{align*}
Quindi, l'intera sommatoria è nulla: $\PP_i(A, \tau_i < +\infty) = 0$. Infine:
\begin{align*}
\rho_{ii} &= \PP_i(\tau_i < +\infty) \\
&=
\PP_i(\tau_i < +\infty, A) + \PP_i(\tau_i < +\infty, A^C) \\
&= 0 + \PP_i(\tau_i < +\infty, A^C) &\text{(come appena dimostrato)} \\
&\le \PP(A^C) &\text{(perché è un sottoevento)} \\
&= 1-\PP(A) < 1 &\text{(per costruzione)}
\end{align*}
$i$ è dunque transitorio, come da tesi.
\item Sia $i \to j$ con $j$ transitorio. Per il punto 2 esiste $k$ tale che $i \to j$, $j \to k$, $k \not\to j$.
Pertanto $i \to k$ e necessariamente $k \not\to i$, altrimenti si avrebbe l'assurdo $k \to i \to j$.
Quindi anche $i$ è transitorio grazie all'inverso del punto 2.
\item Sia $i \to j$ con $i$ ricorrente.
Sia $k$ tale che $j \to k$: dunque $i \to j \to k$; ma $i$ è ricorrente, quindi anche $k \to i$.
Ne segue che $k \to i \to j$, e in particolare $k \to j$, che dimostra che $j$ è ricorrente. \\
Si noti che dev'essere $j \to i$, altrimenti $i$ sarebbe transitorio.
\item La dimostrazione è una banale conseguenza del punto 3.
\item[7.] Sia $E = E_T \cup E_R$, con $E_R = C_1 \cup \dots \cup C_k$.
Per il punto 6:
$$\PP_i(X_n \in E_T) = \sum_{j \in E_T} \PP_i(X_n = j) = \sum_{j \in E_T} p_{ij}^{(n)} \xrightarrow{n} 0$$
In quanto il numero di addendi è finito.
Quindi $\PP_i(X_n \in E_R) = 1-\PP_i(X_n \in E_T) \xrightarrow{n} 1$.
Segue che $E_R \neq \varnothing$: esiste uno stato $i$ ricorrente, come da tesi.
\item[8.] Sia $E$ irriducibile.
Per il punto 5, i suoi stati sono o tutti ricorrenti o tutti transitori, ma il punto 7 afferma
che esiste almeno un $i$ ricorrente: gli stati sono dunque tutti ricorrenti con lo stesso periodo. \qedhere
\end{enumerate}
\end{dimo}
\begin{ese}[stati transitori e ricorrenti]~
\begin{itemize}
\item Nel primo caso abbiamo gli stati ricorrenti $a,b,e$ e i transitori $c,d$.
Inoltre, $e$ è anche uno stato assorbente.
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$a$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$b$, scale=0.3] at (2,0) {};
\node[circle,fill, label=$c$, scale=0.3] at (4,0) {};
\node[circle,fill, label=$d$, scale=0.3] at (6,0) {};
\node[circle,fill, label=$e$, scale=0.3] at (8,0) {};
\node at (0.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (1.8, 0.1) ; % da 0 a 1
\node at (1.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (0.2, -0.1); % da 1 a 0
\node at (4.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (5.8, 0.1) ; % da 1 a 2
\node at (5.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (4.2, -0.1); % da 2 a 1
\node at (6.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (7.8, 0.1) ; % da a+b-1 a a+b
\node at (8.1,0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (8.18, -0.1) ; % da a+b a a+b
\end{scope}
\end{tikzpicture}
\end{figure}
Il periodo è 1 per $e$, ed è 2 per ogni altro stato.
\item In questo caso abbiamo una catena irriducibile con solo stati ricorrenti di periodo 1, pertanto la catena è aperiodica.
\begin{figure}[H]
\centering
\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$b$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$c$, scale=0.3] at (3,0) {};
\node[circle,fill, label=$a$, scale=0.3] at (1.5, 2.598) {};
\node at (0.1,0) {} edge[->, line width=0.4mm] (2.8,0) ; % da 1 a 2
\node at (2.9,0.1) {} edge[->, line width=0.4mm] (1.6,2.4); % da 2 a 3
\node at (1.43, 2.5) {} edge[->, line width=0.4mm] (0.15, 0.2); % da 3 a 1
\node at (1.5, -0.35) {$\frac{1}{2}$};
\node at (2.45, 1.4) {$\frac{1}{2}$};
\node at (0.55, 1.4) {$1$};
\node at (-0.1,-0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (-0.18, 0.1) ; % da 1 a 1
\node at (3.1,0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (3.18, -0.1) ; % da 2 a 2
\node at (-1, 0) {$\frac{1}{2}$};
\node at (4, 0) {$\frac{1}{2}$};
\end{scope}
\end{tikzpicture}
\end{figure}
\item Entrambe le catene sono irriducibili a stati ricorrenti, ma la prima è periodica di periodo $d=2$,
mentre la seconda è aperiodica.
\begin{figure}[H]
\centering
\(
\vcenter{\hbox{\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$a$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$b$, scale=0.3] at (2,0) {};
\node at (0.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (1.8, 0.1) ; % da 0 a 1
\node at (1.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (0.2, -0.1); % da 1 a 0
\end{scope}
\end{tikzpicture}}}
\)
\hskip 50pt
\(
\vcenter{\hbox{\begin{tikzpicture}
\begin{scope}
\node[circle,fill, label=$a$, scale=0.3] at (0,0) {};
\node[circle,fill, label=$b$, scale=0.3] at (2,0) {};
\node at (-0.1,-0.1) {} edge[->, line width=0.4mm, looseness=8, bend left=125] (-0.18, 0.1) ; % da 0 a 0
\node at (0.1,0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (1.8, 0.1) ; % da 0 a 1
\node at (1.9,-0.1) {} edge[->, line width=0.4mm, looseness=1, bend left=20] (0.2, -0.1); % da 1 a 0
\end{scope}
\end{tikzpicture}}}
\)
\end{figure}
\item In questo esempio, la rovina del giocatore (già affrontato a pagina \pageref{rovina-gioc}), la catena \emph{non} è irriducibile e contiene quattro classi chiuse: $E, \{0\}, \{a+b\}, \{0,a+b\}$.
\begin{figure}[H]
\centering