Cos’è l’informazione? Dalla codifica analogica alla nozione di bit copertina

Cos’è l’informazione? Dalla codifica analogica alla nozione di bit

Cos’è l’informazione? Dalla codifica analogica alla nozione di bit

Ascolta gratuitamente

Vedi i dettagli del titolo

Offerta a tempo limitato | Ottieni 3 mesi a 0,99 €/mese

Dopo 3 mesi, 9,99 €/mese. Si applicano termini e condizioni.

A proposito di questo titolo

Che cos’è davvero l’informazione? E come possiamo misurarla?

In questo episodio entriamo nel cuore teorico dell’informatica partendo dal processo di comunicazione: sorgente, segnale, canale, ricezione e codifica. Scopriamo come un semplice segnale fisico – una vibrazione nell’aria, una macchia su un foglio, una luce rossa al semaforo – diventi informazione grazie a un codice che riduce l’ambiguità e permette la trasmissione nello spazio e nel tempo.

Attraverso esempi concreti e piccoli “giochi” di decodifica, esploriamo il legame tra informazione e incertezza, fino ad arrivare alla teoria di Shannon: l’informazione è ciò che riduce l’incertezza. Da qui nasce il concetto di bit, l’unità minima di informazione, e la formula che lega simboli, lunghezza dei messaggi e quantità di significati rappresentabili.

Infine, affrontiamo una distinzione fondamentale: codifica analogica vs codifica digitale. Perché il digitale è meno sensibile al rumore? Perché consente copie perfette, compressione, modularità e multicanalità? E quali sono i suoi limiti rispetto all’analogico?

Un episodio per comprendere le basi teoriche che rendono possibile tutto l’ecosistema digitale in cui viviamo — dai computer alle reti, fino all’intelligenza artificiale.


Il testo Fondamenti di Informatica per le Scienze Umanistiche è disponibile qui:

https://he.pearson.it/bundle/914

Ancora nessuna recensione