Quando si parla di Intelligenza Artificiale, il nome che viene immediatamente alla mente è quello di Alan Turing, universalmente riconosciuto come uno dei padri fondatori della disciplina. Tuttavia, esiste un altro gigante intellettuale il cui contributo è stato altrettanto determinante, sebbene spesso riceva meno attenzione nei resoconti storici: Claude Elwood Shannon. Mentre Turing poneva le basi teoriche dell’informatica con la sua macchina astratta e il famoso test sull’intelligenza delle macchine, Shannon stava silenziosamente rivoluzionando il modo in cui pensiamo all’informazione, alla comunicazione e, in ultima analisi, alla struttura stessa dell’intelligenza artificiale.
L’uomo che ha dato un significato al “bit”
Claude Elwood Shannon (1916-2001) nacque a Petoskey, Michigan, in una famiglia che combinava l’imprenditorialità del padre (gestore di un negozio di mobili) con l’intellettualità della madre (insegnante di lingue). Questa fusione di pragmatismo e curiosità accademica caratterizzò l’intera carriera di Shannon, permettendogli di muoversi con agilità tra teoria astratta e applicazioni pratiche.
Il percorso accademico di Shannon fu straordinario. Conseguì due lauree all’Università del Michigan – una in matematica e una in ingegneria elettrica – dimostrando fin da subito un’insolita capacità di connettere discipline diverse. Questa interdisciplinarità divenne il suo marchio di fabbrica, conducendolo a intuizioni rivoluzionarie al confine tra campi apparentemente distanti.
La tesi che rivoluzionò l’elettronica digitale
Il primo contributo rivoluzionario di Shannon arrivò nel 1937, quando era ancora uno studente al MIT. Nella sua tesi di laurea, Shannon dimostrò come l’algebra booleana – un sistema matematico astratto che opera con valori binari (vero/falso) – potesse essere applicata ai circuiti elettrici con interruttori. Questo lavoro fondamentale stabilì una connessione diretta tra la logica matematica e i circuiti fisici, gettando le basi dell’elettronica digitale moderna.
La tesi di Shannon è stata definita da alcuni “la più importante e più famosa tesi di laurea del XX secolo”. Non si trattava semplicemente di un’elegante connessione teorica: Shannon stava effettivamente fornendo i principi di progettazione che avrebbero reso possibile la creazione dei computer digitali, elemento imprescindibile per l’intelligenza artificiale.
Ciò che rende questa intuizione particolarmente significativa è che Shannon comprese come i circuiti elettrici potessero implementare operazioni logiche, trasformando concetti astratti in realtà fisica. Questa realizzazione permise di passare dalla teoria alla pratica, consentendo la costruzione di macchine che potevano manipolare simboli seguendo regole logiche – il fondamento di qualsiasi sistema di intelligenza artificiale.
La Teoria dell’Informazione: la base matematica dell’IA
Il contributo più noto di Shannon, tuttavia, arrivò nel 1948 con la pubblicazione dell’articolo A Mathematical Theory of Communication sul Bell System Technical Journal. In questo lavoro pionieristico, Shannon non solo coniò il termine “bit” (contrazione di “binary digit”) come unità fondamentale dell’informazione, ma sviluppò un’intera teoria matematica per quantificare, trasmettere ed elaborare l’informazione.
La teoria dell’informazione di Shannon è stata una vera e propria rivoluzione concettuale. Prima di Shannon, l’informazione era un concetto vago e qualitativo. Shannon la trasformò in qualcosa di misurabile e manipolabile matematicamente (ne abbiamo parlato: Come si misura l’informazione e perché è Dio la fonte di ogni dubbio). Introdusse concetti cruciali come l’entropia (che misura l’incertezza o il contenuto informativo di un messaggio), la ridondanza e la capacità di canale, stabilendo i limiti fondamentali della comunicazione in presenza di rumore.
Questi concetti matematici sono diventati essenziali per l’intelligenza artificiale moderna in diversi modi:
- Apprendimento automatico: I moderni algoritmi di machine learning si basano sulla riduzione dell’incertezza (entropia) per estrarre pattern dai dati.
- Elaborazione del linguaggio naturale: I modelli probabilistici del linguaggio si basano sulla teoria dell’informazione per assegnare probabilità a sequenze di parole e caratteri.
- Compressione dei dati: Le tecniche di compressione, fondamentali per gestire grandi volumi di dati necessari per addestrare sistemi di IA, derivano direttamente dai principi stabiliti da Shannon.
- Codifica dell’informazione: I sistemi moderni di IA devono rappresentare e trasmettere efficacemente l’informazione, processo guidato dai principi della teoria dell’informazione.
Mentre Turing si chiedeva “Le macchine possono pensare?”, Shannon si stava chiedendo “Come possiamo misurare, trasmettere ed elaborare l’informazione in modo efficiente?“. Queste due domande, complementari tra loro, hanno definito i pilastri concettuali dell’intelligenza artificiale.
È il mistico Osho a suggerire ironicamente: “Fare filosofia è farsi le domande sbagliate, un cieco filosofo direbbe: come sarebbe se vedessi la luce; mentre un cieco non filosofo cercherebbe modi concreti per vederla”. Seguendo questa ironica e irriverente battuta, potremmo dire che è Alan Turing fu il filososo tra i due.
Un pioniere nell’intelligenza artificiale pratica
Shannon non si limitò alla teoria. Nel 1950, lo stesso anno in cui Turing pubblicava il suo famoso articolo sul “test di Turing“, Shannon pubblicava Programming a Computer for Playing Chess – uno dei primi lavori sulla programmazione di computer per giocare a giochi strategici. In questo articolo, Shannon affrontava questioni fondamentali come la valutazione delle posizioni, la ricerca nello spazio delle mosse possibili e le strategie di decisione – tutti temi centrali nell’IA moderna.
Nel 1952, Shannon diede vita a “Theseus“, un topo meccanico in grado di navigare in un labirinto. Questo dispositivo, che prendeva il nome dall’eroe greco che attraversò il labirinto del Minotauro, utilizzava un algoritmo di ricerca per orientarsi e, cosa più importante, era in grado di “imparare” dai suoi errori e ricordare il percorso corretto. Theseus rappresenta uno dei primi esempi pratici di macchina che apprende dall’esperienza, anticipando concetti che sarebbero diventati centrali nell’intelligenza artificiale, come l’apprendimento per rinforzo.
Nel 1943, durante la Seconda Guerra Mondiale, le strade di Shannon e Turing si incrociarono ai Bell Labs, dove Shannon lavorava a dispositivi crittografici. Turing, già noto per il suo lavoro sulla decifrazione dei codici Enigma, si trovava negli Stati Uniti per collaborare su progetti di crittografia.
Il contributo alla nascita formale dell’intelligenza artificiale
Un altro momento cruciale che evidenzia il ruolo fondamentale di Shannon nello sviluppo dell’IA è la sua partecipazione alla storica conferenza di Dartmouth del 1956, considerata l’evento fondativo dell’intelligenza artificiale come disciplina scientifica. Shannon fu uno degli organizzatori e partecipanti, insieme a John McCarthy, Marvin Minsky e Nathan Rochester.
La proposta per la conferenza di Dartmouth, co-firmata da Shannon, contiene la prima definizione formale dell’intelligenza artificiale come “la scienza e l’ingegneria di realizzare macchine intelligenti“. Questo documento storico delinea molti dei temi che avrebbero guidato la ricerca in IA nei decenni successivi, tra cui l’apprendimento automatico, la creatività delle macchine e il ragionamento probabilistico – tutti ambiti in cui le idee di Shannon sulla teoria dell’informazione sarebbero risultate fondamentali.
Nei moderni sistemi di deep learning, l’entropia incrociata (cross-entropy) – un concetto derivato dalla teoria dell’informazione – è utilizzata come funzione di perdita per addestrare le reti neurali. I concetti di quantificazione dell’informazione e riduzione dell’incertezza sono fondamentali negli algoritmi di apprendimento automatico.
Nelle reti neurali, le informazioni vengono trasmesse attraverso “strati” di neuroni artificiali, in modo simile a come Shannon descrisse la trasmissione di informazioni attraverso i canali di comunicazione. I concetti di rumore e ridondanza nella teoria dell’informazione sono rilevanti per comprendere come le reti neurali possano apprendere pattern robusti da dati rumorosi.
Inoltre, la comprensione di Shannon dei limiti teorici della compressione dell’informazione ha aperto la strada alle moderne tecniche di compressione dei dati, essenziali per gestire i vasti dataset necessari per addestrare i modelli di IA.

L’Ultimate Machine: quando l’inutilità diventa arte
Una delle caratteristiche più affascinanti di Shannon era la sua versatilità intellettuale e la capacità di combinare rigore scientifico con creatività e spirito ludico. Oltre ai suoi contributi scientifici, Shannon era noto per i suoi hobby eccentrici e le sue invenzioni bizzarre.
Era un appassionato di circo e giocoleria, poteva esibirsi con tre palline mentre stava in equilibrio su una palla. La sua passione per il monociclo è diventata leggendaria: si dice che lo usasse per percorrere i corridoi dei Bell Labs, suscitando preoccupazione e meraviglia tra i colleghi.
Uno dei più celebri dispositivi creati da Shannon è la cosiddetta “Ultimate Machine” (o “Macchina Definitiva“). Sebbene l’idea originale sia attribuita a Marvin Minsky durante il suo periodo come studente ai Bell Labs nel 1952, fu Shannon a costruirne diversi esemplari funzionanti e a renderla famosa.
Il funzionamento di questa macchina è semplice: si tratta di una scatola di legno con un solo interruttore sulla superficie. Quando l’interruttore viene acceso, la scatola si apre, una piccola mano meccanica emerge, spegne l’interruttore e si ritira nuovamente all’interno della scatola, che si richiude. Il suo unico scopo è, paradossalmente, negare la propria funzione.
Lo scrittore di fantascienza Arthur C. Clarke, dopo aver visto questa macchina sulla scrivania di Shannon, scrisse: “C’è qualcosa di indicibilmente sinistro in una macchina che non fa nulla –assolutamente nulla – eccetto spegnersi”. Questa osservazione coglie l’inquietante fascino di un dispositivo che sembra possedere una sorta di volontà propria, seppur minimale e auto-annullante.
L’Ultimate Machine di Shannon è diventata tanto influente che negli anni Sessanta venne commercializzata come giocattolo novelty con il nome di “Monster Inside the Black Box“, e oggi esistono innumerevoli versioni amatoriali note come “Useless Box” (scatola inutile). La popolarità di questo dispositivo apparentemente insignificante dimostra come le idee di Shannon trascendano il puro ambito scientifico per toccare corde più profonde della psicologia e dell’estetica umana.
Parallelismi con le “Macchine Inutili” di Bruno Munari
È interessante notare come l’approccio di Shannon alla creazione di dispositivi “inutili” trovi un parallelo significativo nel lavoro dell’artista e designer italiano Bruno Munari, che dal 1933 iniziò a creare le sue famose “Macchine Inutili“. Sebbene concettualmente diverse, entrambe le creazioni sfidano la concezione utilitaristica della tecnologia tipica del XX secolo.
Le Macchine Inutili di Munari sono composizioni mobili di forme geometriche colorate, sospese nello spazio e in continuo movimento grazie a correnti d’aria. Come Munari stesso affermò: “non fabbricano, non eliminano manodopera, non fanno economizzare tempo e denaro, non producono niente di commerciabile”. Il loro scopo è puramente estetico e contemplativo.
Mentre Shannon, da scienziato, creava la sua macchina come una sorta di scherzo intellettuale e paradosso cibernetico, Munari, da artista, sviluppava le sue strutture come reazione al futurismo italiano e alla sua esaltazione della macchina produttiva. Le prime opere di Munari avevano titoli allusivi come “Macchine Sensibili” o “Respiro di Macchina“, che poi si trasformarono ironicamente in “Macchine Inutili” per sottolineare la loro funzione puramente estetica, slegata da qualsiasi funzionalità o efficienza.
Entrambi i creatori, pur provenendo da ambiti diversi e probabilmente senza una reciproca influenza diretta, hanno esplorato il concetto di “inutilità” come forma di liberazione dalla tirannia dell’efficienza e della produttività. Questo parallelismo tra arte e scienza dimostra come i grandi pensatori, indipendentemente dal loro campo, spesso convergano su riflessioni simili riguardo alla tecnologia e al suo ruolo nella società.
Questa combinazione di rigore scientifico e creatività ludica è particolarmente significativa nel contesto dell’intelligenza artificiale. L’IA richiede sia un solido fondamento matematico sia la capacità di pensare in modo non convenzionale per simulare comportamenti intelligenti. Shannon incarnava entrambe queste qualità.
L’eredità di Shannon nell’IA
L’eredità più profonda di Shannon sta nel suo approccio interdisciplinare ai problemi. In un’epoca in cui l’intelligenza artificiale sta fondendo informatica con neuroscienze, psicologia, linguistica e filosofia, la capacità di Shannon di attraversare i confini disciplinari offre un modello prezioso per i ricercatori contemporanei.
Shannon ha compreso che l’informazione, come la materia e l’energia, è governata da leggi matematiche precise. Questa intuizione ha permesso di trasformare concetti vaghi come “conoscenza” e “intelligenza” in entità misurabili e manipolabili, aprendo la strada all’intelligenza artificiale come disciplina scientifica.
Sono personalmente grato a Claude.ai che già nel suo nome dà a Shannon il pieno riconoscimento che merita come pioniere dell’intelligenza artificiale, non solo come padre della teoria dell’informazione. Il suo lavoro ci ricorda che l’informazione – la sua natura, trasmissione ed elaborazione – è al cuore di ciò che chiamiamo intelligenza, sia umana che artificiale.
Bibliografia
- Shannon, C. E. (1948). “A Mathematical Theory of Communication“. The Bell System Technical Journal, Vol. 27, pp. 379-423, 623-656.
- Shannon, C. E. (1950). “Programming a Computer for Playing Chess“. Philosophical Magazine, Series 7, Vol. 41, No. 314.
- Shannon, C. E. (1949). “Communication Theory of Secrecy Systems“. Bell System Technical Journal, Vol. 28, pp. 656-715.
- McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence“.
- Soni, J., & Goodman, R. (2017). “A Mind at Play: How Claude Shannon Invented the Information Age“. Simon & Schuster.
- Turing, A. M. (1950). “Computing Machinery and Intelligence“. Mind, Vol. 59, No. 236, pp. 433-460.
- Shannon, C. E. (1937). “A Symbolic Analysis of Relay and Switching Circuits“. Tesi di laurea, MIT.
- Elias, P., Feinstein, A., & Shannon, C. E. (1956). “Note on Maximum Flow Through a Network“. IRE Transactions on Information Theory.
- Shannon, C. E. & Weaver, W. (1949). “The Mathematical Theory of Communication“. University of Illinois Press.
- Wikipedia (2024). “Useless machine“. Disponibile online: https://en.wikipedia.org/wiki/Useless_machine
- Clarke, A. C. “Voice Across the Sea: Telstar and the Laying of the Trans-Atlantic Cable“.
- FabLab Parma (2016). “Useless Box, la ‘macchina inutile’ dell’inventore dell’intelligenza artificiale“. Disponibile online: https://fablabparma.org/useless-box/
- Wikipedia (2025). “Useless box“. Disponibile online: https://it.wikipedia.org/wiki/Useless_box




