giovedì 17 dicembre 2009

Lezione 25

Definizione di ergodicità per un processo stocastico stazionario: spiegazione euristica.Teorema sul tasso di compressione di LZ78 per sequenze generate da un processo stocastico stazionario ed ergodico (solo enunciato).

mercoledì 16 dicembre 2009

Lezione 24

Spiegazione euristica dell'efficienza dei codici di Shannon-Fano-Elias in fase di costruzione del codice. Compressori universali: algoritmo LZ78.
Applet: applet per LZ78.

venerdì 11 dicembre 2009

Prima verifica scritta

Materiale verificato: fino ai codici di Huffman.

giovedì 10 dicembre 2009

Lezione 23

Codici di Shannon-Fano-Elias.

mercoledì 9 dicembre 2009

Lezione 22

Fine dimostrazione dell'ottimalità del codice di Huffman.

venerdì 4 dicembre 2009

Lezione 21

Esempi di codici di Huffman. Ottimalità del codice di Huffman. Twenty questions e il codice di Huffman. Inizio dimostrazione dell'ottimalità.

giovedì 3 dicembre 2009

Lezione 20

Disuguaglianza di Kraft per codici univocamente decifrabili (problema della minimizzazione della lunghezza sulla famiglia dei codici univocamente decifrabil). Codici di Huffman.

mercoledì 2 dicembre 2009

Lezione 19

Stima dell'efficienza di un codice: caso di variabile singola (o processo i.i.d.) e caso di processo stocastico stazionario. Stima per un codice ottimizzato per una distribuzione errata. Spiegazione di alcune idee contenute in: D. Benedetto, E. Caglioti and V. Loreto, "Language Trees and Zipping", Phys. Rev. Lett. 88, 4 (2002) (preprint disponibile qui).

venerdì 27 novembre 2009

Lezione 18

Classificazione dei codici. Disuguaglianza di Kraft. Codici istantanei ottimali.

giovedì 26 novembre 2009

Lezione 17

Spiegazione del secondo principio della termodinamica nel modellino della catena di Markov (crescita della funzione H, ecc.): interpretazioni puntuale (entropia di Boltzmann) vs. interpretazione statistica (entropia di Shannon). Esercizi di ripasso. Compressione dati.

mercoledì 25 novembre 2009

Lezione 16

Tasso di entropia di un processo stocastico stazionario. Interpretazione nel teorema generale di Shannon-McMillan-Breiman. Tasso di entropia di una catena di Markov stazionaria. Esercizi.

venerdì 20 novembre 2009

Lezione 15

Le probabilità condizionali determinano un processo stocastico. Condizione di stazionerietà per una catena di Markov. Teorema ergodico per catene di Markov.

mercoledì 18 novembre 2009

venerdì 13 novembre 2009

Lezione 13

Compressione dati tramite il Teorema di Shannon-McMillan-Breiman. Catene di Markov (temporalmente) omogenee. Stazionarietà di un processo stocastico.

giovedì 12 novembre 2009

Lezione 12

Lemma dell'equipartizione asintiotica. Teorema di Shannon-McMillan-Breiman (versione di Shannon per variabili i.i.d.).

mercoledì 11 novembre 2009

Lezione 11

Stima dall'alto della probabilità di errore per variabili indipendenti. Varianza. Convergenza in probabilità. Disuguaglianza di Chebychev. Spazi per (finiti o infiniti) esperimenti ripetuti. Legge debole dei grandi numeri.

venerdì 6 novembre 2009

Lezione 10

Disuguaglianza di Fano. Esercizi.

giovedì 5 novembre 2009

Lezione 9

Data-processing Inequality.

mercoledì 4 novembre 2009

Lezione 8

Altri esempi e proprietà dell'informazione reciproca. Composizione di una v.a. = "ingrezzimento" della sua partizione. Applicazioni delle proprietà di I. Informazione reciproca condizionata. Regole di composizione multipla per H e I.
Letture extra interessanti: falsificabilità di una teoria scientifica, compendio dell'epistemologia di Popper.
Chi pensa che queste cose non abbiano rilevenza pratica legga questo paragrafo.

venerdì 30 ottobre 2009

Lezione 7

Seconda parte della disuguaglianza di Jensen (per funzioni strettamente convesse). Dimostrazione che l'entropia relativa è nondegenere. Informazione reciproca e sue proprietà, esempi.

giovedì 29 ottobre 2009

Lezione 6

Si inizia ad usare più direttamente il testo:
Entropia di una variabile aleatoria, entropia condizionale di una v.a. rispetto ad un'altra, entropia congiunta. Entropia relativa.

mercoledì 28 ottobre 2009

Lezione 5

Dimostrazione del Teoremone.

giovedì 22 ottobre 2009

Lezione 4

Enunciato del "Teoremone" sull'entropia condizionale e sua interpretazione. Disuguaglianza di Jensen.

mercoledì 21 ottobre 2009

Lezione 3

Cenni sugli spazi di probabilità e la probabilità condizionale. Entropia di una partizione. Ordinamento parziale e operazioni sulle partizioni. Entropia condizionale.

venerdì 16 ottobre 2009

Lezione 2

Lezione Zero del corso: Dall'entropia di Boltzmann all'entropia di Shannon.
Letture extra interessanti: La freccia del tempo e l'entropia di Boltzmann, di J. Lebowitz.
Gioco in rete: Twenty Questions.

giovedì 15 ottobre 2009

Lezione 1

Presentazione del corso e accordi vari.