Stomachion

Visualizzazione post con etichetta entropia. Mostra tutti i post
Visualizzazione post con etichetta entropia. Mostra tutti i post

lunedì 9 dicembre 2024

Matematica, lezione 43: Crittografia ed entropia

20241209-matematica-lezione43-crittografia
Nel 20.mo volume dedicato alla teoria dell'informazione, Maurizio Codogno aveva semplicemente sfiorato il tema dell'entropia all'interno della teoria sviluppata da Claude Shannon. E ora Giovanni Chesi e Leonardo Vaglini la integrano all'interno del loro interessantissimo volume sulla crittografia, cui è dedicata la prima parte, e il ruolo giocato dall'entropia dell'informazione all'interno delle tecniche crittografiche.
Se la prima parte risulta indubbiamente più scorrevole e accessibile, la seconda, pur se "appesantita" da molta più matematica, è altrettanto interessante, se non più: le informazioni che i due autori raccontano, infatti, generalmente vengono poco raccontate daiu blog di divulgazione (come quello che state leggendo), che infatti si concentrano molto di più sulla parte della crittografia e della decrittazione. Non nascondo, infatti, che ho accarezzato l'idea di scrivere queste righe utilizzando un qualche codice, ma alla fine ho pensato che il gioco, per quanto simpatico, forse potevo ripeterlo in altra occasione: all'incirca 4 anni fa avevo pubblicato un post cifrato e la sua soluzione.
I giochi di Maurizio, invece, dedicati al pensiero laterale, sembrano un po' raschiare il fondo del barile, ma visto che la cosa era già successa in altre occasioni, non è poi così preoccupante.
Veronica Giuffré, invece, racconta la storia di Stefan Banach, famoso per gli spazi che portano il suo nome e per il "paradosso" scoperto con il connazionale Alfred Tarski di cui mi sono occupato nella seconda parte dell'articolo Quella sagoma di Arlecchino: magari estraggo quella parte e la trasformo in un post indipendente!

mercoledì 27 marzo 2024

Il rapporto tra i fiumi e il cambiamento climatico

20240315-flow-river
Su Science è uscito un interessante articolo in cui un team internazionale (e la cosa non poteva essere diversamente in questo caso specifico) ha studiato i flussi fluviali in giro per il mondo. L'interesse verso questi particolari "comportamenti ambientali" è dovuto essenzialmente agli eventi catastrofici imprevisti di questi ultimi anni, con esondazioni che avvengono in periodi in cui gli esseri umani sono impreparati. Generalmente, infatti, le variazioni nei flussi di acqua sono periodiche, come ben sappiamo dai tempi dell'Antico Egitto: in un certo senso si potrebbero far risalire a quell'epoca i primi tentativi di studi meteorologici, visto che gli egizi cercavano di prevedere la stagionalità delle esondazioni. E in queste loro "ricerche" svilupparono al contempo lo studio del cielo, ma questa è un'altra storia. Torniamo alla nostra.

venerdì 11 settembre 2015

L'entropia di espansione

Breve post piuttosto tecnico che introduce una nuova quantità matematica, l'entropia di espansione. Nella speranza che le poche parole scritte non siano così complesse, vi lascio alla veloce lettura.
In termini semplici l'entropia di espansione (expansion entropy) è un nuovo modo per calcolare l'entropia di un dato sistema.
L'entropia di espansione utilizza la linearizzazione del sistema dinamico e una nozione di volume nel suo spazio degli stati.
Da un punto di vista matematico, possiamo descrivere l'evoluzione di un dato sistema $M$ utilizzando una mappa (una funzione, un'applicazione) che agisce sullo stesso sistema $M$: $f: M \rightarrow M$. Ognuna della mappe $f$ dipende dal tempo, che può essere discreto o continuo.
Utilizzando queste mappe si può costruire la così detta matrice delle derivate $Df$, che è costituita dalle derivate parziali di $f$ rispetto alle $n$ coordinate dello spazio $M$ (dobbiamo considerare uno spazio generico, quindi le sue dimensioni possono essere in numero differente dalle usuali 3 o 4, se consideriamo ad esempio lo spaziotempo).
A questo punto facendo uso di $Df$, si può calcolare la funzione $G(Df)$, che è
il tasso di crescita di un volume locale per la (tipicamente non lineare) funzione $f$.
o in altri termini un modo per misurare la crescita di $M$ nel tempo.
Ora $G(Df)$ verrà integrata su tutto lo spazio $n$-dimensionale e rinormalizzata sul suo volume, e la nuova quantità $E(f, S)$ così calcolata sarà utilizzata per definire l'entropia di espansione: \[H_0 (f, S) = \lim_{t' \rightarrow \infty} \frac{\ln E_{t', t} (f, S)}{t'-t}\] dove $t'$ è il tempo finale, $t$ quello iniziale.
In questo modo l'entropia di espansione misura il disordine del sistema, proprio come l'entropia topologica, ma utilizzando l'entropia di espansione si può definire il caos come $H_0 > 0$.
Hunt, B., & Ott, E. (2015). Defining chaos Chaos: An Interdisciplinary Journal of Nonlinear Science, 25 (9) DOI: 10.1063/1.4922973 (arXiv)

martedì 28 aprile 2015

L'entropia di un documento

Il linguaggio è stato ed è tutt'ora un campo di interesse anche per logici e matematici (in questo senso il più noto tra tutti è sicuramente Ludwig Wittgenstein). Nel 1959 il linguista George Kingsley Zipf diffuse la legge che prende il suo nome, la legge di Zipf, nonostante non ne fosse lo scopritore(1): essa stabilisce che dato un qualche corpo di enunciati in un linguaggio naturale, la frequenza di ogni parola è inversamente proporzionale al suo rango nella tabella delle frequenze.
Dal punto di vista matematico si può descrivere la legge di Zipf come segue: \[f (k; s, N) = \frac{1/k^s}{\sum_{n=1}^N (1/n^s)}\] dove $N$ è il numero degli elementi del linguaggio, $k$ il rango, $s$ un numero che caratterizza la distribuzione, $f$ la frequenza degli elementi di rango $k$.

Schema di un sistema di comunicazione generico

sabato 29 novembre 2014

Anteprima: recensione di OraMai

Anteprima (realizzata con una serie di screenshot) della mia recensione (che uscirà su LSB) di OraMai di Tuono Pettinato, albo presentato al Festival della Scienza di Genova e a Lucca Comics & Science tra fine ottobre e primi di novembre. Un ringraziamento a Mattia Di Bernardo, Roberto Natalini e Andrea Plazzi: