Note sulla Cibernetica di Norbert Wiener

Bambino cibernetico

Richard Lindner, “Boy with Machine” (1954)

Il termine Cibernetica (dal greco Κυβερνήτης, l’arte del pilota o del timoniere, da cui deriva il termine latino gubernator) è stato usato da Platone nell’Alcibiade per indicare le tecniche di autogoverno, di governo del popolo. Oggi indica la scienza che studia i fenomeni di autoregolazione e di comunicazione, la teoria dei messaggi (Teoria dell’Informazione) e, particolarmente, dei messaggi effettivamente di comando. Il comando è inteso come l’invio dei messaggi che modificano il comportamento di chi/cosa li riceve.

La società può essere compresa solo attraverso lo studio dei messaggi e dei mezzi di comunicazione relativi ad essi: i messaggi fra l’uomo e le macchine, fra le macchine e l’uomo e fra macchine e macchine; in ognuno di questi casi i messaggi immessi o emessi non vengono trattati allo stato naturale, ma dopo un processo interno di trasformazione operato dagli organi/organismi/apparati, macchine viventi o no. La quantità di informazione che viene emessa o ricevuta dalle apparecchiature terminali dipende dalla capacità di trasmettere e di ricevere dalle apparecchiature stesse. Le informazioni vengono tradotte ed utilizzate dagli stadi successivi del funzionamento, con azioni effettive ed eseguite sul (o nel) mondo esterno. Il linguaggio del messaggio diretto ad una macchina è un codice al quale è possibile applicare tutte le nozioni della cibernetica e della teoria delle informazioni.

L’uomo-macchina è il suo messaggio

Un organismo vivente, quale è l’uomo-macchina, è immerso in un mondo che egli percepisce con i suoi organi sensori. L’informazione si coordina attraverso il suo cervello e il suo sistema nervoso finchè, con un processo appropriato di immagazzinamento, di collazione, di selezione, emerge attraverso gli organi esecutori. L’informazione è dunque un contenuto per indicare ciò che è scambiato con il mondo esterno non appena ci adattiamo ad esso e ad esso facciamo sentire il nostro adattamento. Il processo di ricezione e di utilizzo dell’informazione s’identifica quindi con il nostro processo di adattamento all’ambiente esterno, e del nostro vivere in modo effettivo in questo ambiente.

I messaggi sono modelli distribuiti nel tempo. La misura dell’informazione, la quantità di significato che è contenuta in un messaggio, o la sua probabilità, è la misura di un ordine. Il suo opposto è la misura del disordine.

La misura del disordine, conosciuta nel campo della meccanica statistica come entropia, è associata al concetto di modello e quasi mai decresce spontaneamente in un sistema isolato.

Le idee generali di ordine e disordine sono applicabili ad ogni tipo di modello, come a casi particolari di serie temporali, non sono applicabili quindi ad un modello particolare considerato isolatamente, ma piuttosto ad un insieme di modelli selezionati da un insieme più grande in modo tale che la serie più piccola possieda una certa misura di probabilità. Quanto più un tipo di struttura è probabile, tanto meno ordine essa contiene, perché ordine significa essenzialmente mancanza di casualità.

Un corretto sistema di misura della quantità di significato deve addizionare le quantità di significato di messaggi completamente indipendenti, ma vi è un modo di elaborare le quantità connesse all’informazione , nel quale non occorre sommare queste quantità. Se facciamo il caso di due eventi, ciascuno dei quali si verifica con una certa probabilità, se fra i due non esiste nessuna connessione, la probabilità che entrambi si verifichino simultaneamente sarà data dal prodotto delle probabilità dei due eventi separati. Per esempio: se lanciamo due dadi da poker, abbiamo 1:6 possibilità di ottenere da ognuno un asso,la possibilità di ottenere una coppia d’assi sarà quindi 1:36.

Le probabilità assunte indipendentemente si combinano per moltiplicazione, mentre l’informazione si combina per addizione. La relazione fra quantità d’informazione fornita con un messaggio e la probabilità del messaggio sarà la stessa che c’è fra un insieme di numeri che si devono addizionare ed un insieme di numeri che si devono moltiplicare. Se la serie dei primi numeri procede per addizioni, mentre i numeri corrispondenti alla seconda serie procedono per moltiplicazione, in linguaggio matematico si dirà che la prima serie consiste nel logaritmo della seconda serie, con base opportuna.

Il logaritmo, quando è dato il suo numero iniziale, non è completamente determinato, poiché la sua scala non è stata ancora assegnata. Questa scala determina un fattore per cui il logaritmo può essere moltiplicato, e questo fattore può essere sia positivo che negativo. Posto che le probabilità sono sempre inferiori o uguali a 1 (il vero, la certezza), la quantità di informazione verrà determinata in modo da essere maggiore di 0, allorché la probabilità dell’evento è minore di 1. La quantità di una informazione contenuta in un evento che accade con una certa probabilità sarà il logaritmo negativo della probabilità in una certa scala appropriata, poiché il logaritmo ordinario di un numero inferiore a 1 sarà negativo e l’informazione, invece, deve essere positiva.

La misura dell’informazione è la misura di un ordine

La scala logaritmica ottenuta sulle relazioni ordine e disordine, per la misura dell’informazione, addiziona la quantità di ordine in due sistemi completamente indipendenti, quando vengono sostituiti con un solo e più vasto sistema.

E’ tradizione però in fisica misurare non l’ordine, ma il disordine. La misura positiva del disordine è data dall’entropia, la seconda legge della termodinamica, che afferma che in un sistema isolato la possibilità che l’entropia decresca è nulla. Un sistema isolato tenderà quindi ad uno stato di disordine massimo, ovvero alla maggiore omogeneità possibile. Questo principio è valido entro termini ristretti in quanto nelle parti non isolate di un sistema isolato vi saranno delle regioni dove l’entropia, opportunamente definita, può essere ritenuta decrescente. In tale connessione, l’accoppiamento, che collega diversi elementi del sistema in un sistema più grande e unitario, sarà generalmente di natura energetica e informativa. L’accoppiamento non implica che scambi arbitrariamente piccoli di energia.

[#Due sistemi si dicono accoppiati se le leggi che governano il movimento del sistema più grande, che risulta dal complesso di entrambi i sistemi, non possono essere enunciate come un insieme di leggi separate, ciascuna delle quali implichi soltanto uno scambio di energia fra sistemi parziali (nel qual caso l’accoppiamento sarà di natura energetica); oppure soltanto un interscambio di informazione fra sistemi subordinati (nel qual caso l’accoppiamento sarà di natura informativa).]

La luce che ci proviene dal sole non soltanto è fonte di energia per il mondo vegetale e per il meccanismo atmosferico, ma è anche un messaggio che ci segnala che cosa sta accadendo nel sole.”

Si deve alla fisica quantistica, alla determinazione che la luce ha una struttura quantistica e che la luce di una data frequenza è irradiata in corpuscoli detti quanti di luce (o fotoni), che hanno una energia perfettamente determinata e dipendente da quella frequenza, l’associazione dei concetti di energia ed informazione che hanno superato la fisica classica, secondo cui fra i diversi elementi di un sistema dinamico l’energia aveva la parte di gran lunga più importante. Secondo la fisica classica inoltre, nell’accoppiamento, che era considerato importante ai fini dell’entropia, una quantità arbitraria di informazione non poteva che implicare scambi arbitrariamente piccoli di energia.

Nessuno dei fenomeni eversivi della natura è lineare

Nella teoria dei disturbi di linea, i rumori di fondo, causati da un non costante livello di energia del segnale, possono avere la possibilità distruggere l’informazione, la cui trasmissione non può quindi avvenire senza il trasferimento di un minimo di energia costante, cosicché non vi è nessun limite netto tra accoppiamento energetico e accoppiamento informativo. E’ possibile, inoltre, che l’accoppiamento tra la “linea” ed i dispositivi terminali, dal punto di vista della capacità di trasmissione della linea, sia così perfetto da garantire che la quantità di informazioni degli ordini eseguiti, misurata dal punto di vista del funzionamento della macchina, equivalga alla quantità di informazione trasmessa attraverso il sistema della linea seguita dalla macchina. Ma, in generale, c’è sempre uno stadio di traslazione tra la linea e la macchina, ed in questo stadio l’informazione può essere perduta. Il processo di trasmissione dell’informazione può comportare parecchi stadi consecutivi di trasmissione, in aggiunta allo stadio finale effettivamente agente. Fra una coppia qualsiasi di esse vi sarà uno stadio di traslazione che farà dissipare l’informazione. Il fatto che l’informazione possa essere perduta, ma non guadagnata, rappresenta la formulazione cibernetica della seconda legge della termodinamica.

Se si osserva il fenomeno attraverso un processo biologico localizzato, come la crescita di un vegetale, processo che avviene direttamente o indirettamente con la fotosintesi, ovvero con l’effetto delle radiazioni solari, un enorme decremento locale dell’entropia può essere accompagnato da un trasferimento di energia assai moderato.

Una migliore quantità di informazione si identifica con il problema connesso della regolarità o della irregolarità di un modello. I primi modelli elaborati nella teoria dell’informazione ignoravano i livelli di disturbo e tutte le altre quantità di natura accidentale mentre, in generale, l’irregolare è più comune del regolare. Un processo lineare è quello in cui, se una certa causa produce un certo effetto, una causa di doppio valore dovrebbe avere un effetto di doppia intensità.

Principio di retroazione/feedback_apprendimento

Nella sua forma più semplice il principio di retroazione/feedback significa che il comportamento viene periodicamente confrontato con il risultato da conseguire, e che il successo o il fallimento di questo risultato modifica il comportamento futuro. La sua funzione è di rendere il comportamento di un individuo o di una macchina relativamente indipendente dalle condizioni di “carico” (loading).

La retroazione è inoltre il comando di un sistema attraverso la reinserzione nel sistema stesso dei risultati del suo comportamento. Se tali risultati sono impiegati semplicemente come dati numerici per la critica o la rettifica del sistema, avremo la semplice retroazione/feedback degli “addetti alla manovra”. Se l’informazione che procede in senso inverso, in funzione del comportamento, è in grado di mutare il metodo generale ed il modello del comportamento stesso, avremo un processo che potrà essere realmente definito di apprendimento.

(Liberamente tratto da: Introduzione alla cibernetica. L’uso umano degli esseri umani, di Norbert Wiener, 1950)

Licenza Creative Commons

Quest’ opera è distribuita con licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 3.0 Italia.

Annunci

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: