Vedere con le orecchie, toccare con l’immaginazione: come l’intelligenza artificiale sta cambiando l’arte per ciechi e ipovedenti

Dal “suono” che fa la Gioconda all’app per vivere mostre e musei al di là della disabilità, l’intelligenza artificiale sta cambiando l’arte per i non vedenti, a partire dal momento del processo creativo fino alla fruizione finale. È una sfida che tocca il cuore del rapporto tra tecnologia, creatività e inclusione. Se un tempo l’arte sembrava destinata solo allo sguardo, oggi nuove forme espressive stanno dimostrando il contrario: l’opera si può toccare, immaginare e persino ascoltare in forma musicale.

In questa rivoluzione, l’intelligenza artificiale non è solo uno strumento, ma una vera e propria “arma” creativa, anche per artisti e curatori. “L’accessibilità all’arte per ciechi e ipovedenti – spiega ad Artuu Roberta Presta, ricercatrice nel campo dell’interazione uomo – macchina dell’Università Suor Orsola Benincasa di Napoli –  è stata storicamente affrontata come un problema di traduzione sensoriale, dove l’esperienza visiva viene adattata attraverso la voce, il tatto o la narrazione mediata. Tuttavia, nell’ambito dell’interazione uomo-macchina, sta emergendo una visione più ampia, grazie a sistemi che consentono non solo la generazione automatica di descrizioni, ma anche la personalizzazione dei contenuti in base al profilo cognitivo, sensoriale o esperienziale dell’utente. Un passo fondamentale perché l’accessibilità non può essere risolta con una risposta univoca: serve adattività”. 

Arte oltre lo sguardo: l’intelligenza artificiale come elemento creativo e inclusivo

In questi ultimi anni, diversi artisti non vedenti, ispirati o stimolati dallo sviluppo dell’intelligenza artificiale, hanno creato opere pensate anche, o esclusivamente, per un pubblico con disabilità. Uno degli esempi più emblematici è il recente “Sound of a Masterpiece”, progetto nato dalla collaborazione tra il compositore non vedente Bobby Goulder, Dolby e il Royal National Institute of Blind People. Qui, l’IA ha aiutato a trasformare capolavori come La Gioconda, L’Urlo di Munch o Il ponte giapponese di Monet in paesaggi sonori immersivi, elaborati con la tecnologia Dolby Atmos.

Colori, emozioni e strutture visive sono stati tradotti in ambienti acustici che permettono di “vedere con le orecchie”: un’esperienza emotiva e sensoriale, pensata come forma d’arte autonoma. In ambito più sperimentale, l’artista Cosmo Wenman ha condotto un progetto collaborativo con ciechi e ipovedenti, utilizzando l’IA generativa, come Midjourney, per creare immagini a partire da descrizioni verbali e suggestioni immaginative.

I risultati, prodotti a quattro mani tra esseri umani e algoritmo, sono stati poi trasformati in rilievi tattili o descritti attraverso narrazioni sonore, rendendo visibile l’invisibile in un atto di co-creazione profonda. Anche l’artista Alecia Neo, pur non utilizzando direttamente l’IA, ha esplorato installazioni multisensoriali pensate insieme a persone con disabilità visive. In questi lavori, la tecnologia diventa supporto al racconto, alla costruzione di ambienti, alla possibilità di generare esperienze accessibili che parlano al tatto, all’udito, all’immaginazione. “L’arte contemporanea – sottolinea Presta – è il contesto ideale per interrogarsi sull’accessibilità e sull’interazione multisensoriale, perché è già un’arte ibrida, installativa, interattiva. È più facile ripensare l’accesso all’opera non solo in chiave visiva ma come esperienza distribuita tra corpo, spazio, suono e narrazione. Inoltre, molte opere contemporanee incorporano direttamente tecnologie o affrontano i temi della disabilità e dell’inclusione. In questo senso, l’intelligenza artificiale non solo consente nuove modalità di accesso, ma può diventare essa stessa parte dell’opera o del processo curatoriale”.

Oltre la disabilità: un’esperienza contemporanea multisensoriale e inclusiva

L’interazione tra arte e tecnologia è quindi sempre più stretta e funzionale, anche dal lato di chi fruisce della creatività e dell’espressione degli artisti. In questi anni, l’IA ha consentito un’accelerazione nelle soluzioni finalizzate a facilitare questo rapporto. Tra gli apripista, c’è Be My AI, funzione integrata nella popolarissima app Be My Eyes, che utilizza GPT-4 Vision di OpenAI per descrivere dettagliatamente qualsiasi immagine catturata dall’utente.

Basta fotografare un’opera, su un libro, in un museo o anche in formato digitale, e l’intelligenza artificiale restituisce una descrizione accurata: colori, composizione, soggetti, atmosfera. Ma la vera forza è il dialogo: l’utente può fare domande, chiedere chiarimenti, approfondire lo stile dell’opera, le emozioni evocate, persino il contesto storico, come farebbe con una guida o un critico d’arte.

Per molti artisti non vedenti o ipovedenti, Be My AI è anche uno strumento creativo, utile per ricevere feedback sul proprio lavoro e suggerimenti per migliorarlo, consentendo loro più autonomia e partecipazione attiva alla scena culturale. In un racconto in prima persona pubblicato da “Art in America”, la scrittrice, poetessa e performer non vedente M. Leona Godin, parlando di Be My AI, ha raccontato come l’interazione con l’app “a un certo punto smette di essere una raccolta di parole e diventa un’immagine nella mia mente”.  

In Italia, il progetto “Parts” è un concept sviluppato all’interno dell’Apple Foundation Program dall’Università Suor Orsola Benincasa di Napoli,  poi portato avanti dagli studenti dell’ateneo presso la Apple Developer Academy di San Giovanni a Teduccio, nel capoluogo partenopeo. “Parts” propone una fruizione tattile e interattiva: grazie a modelli di machine learning, l’opera viene segmentata in aree significative (gesti, simboli, personaggi) che l’utente esplora toccando lo schermo. Ogni porzione attivata racconta un frammento della storia, trasformando il visitatore in esploratore autonomo. C’è poi Multiart, app sviluppata da un collettivo bresciano, che trasforma ogni immagine in musica. L’IA collega pixel a note del pianoforte, generando melodie diverse a seconda dello stile selezionato, dal classico al jazz, fino al rock, permettendo agli utenti di “ascoltare” un’opera con un clic.

Verso il futuro: musei, educatori e IA per una nuova cultura dell’accessibilità

In ambito museale, anche se molti progetti puntano ancora su tecnologie “tradizionali” (tavolette tattili, percorsi multisensoriali, audiodescrizioni, beacon), la diffusione di AI generativa è un’area su cui si comincia a investire, con una crescita dei programmi specifici negli ultimi due anni. Nel 2024, una grande istituzione come il Rijksmuseum di Amsterdam ha inaugurato un progetto, in collaborazione con Microsoft, per descrivere automaticamente le opere della sua straordinaria collezione.

Grazie a un sistema di generazione testuale basato sull’IA, centinaia di capolavori vengono resi fruibili anche a utenti ciechi e ipovedenti, con descrizioni ricche di dettagli visivi, storici e stilistici, disponibili direttamente sul sito del museo. E il futuro ormai vicino? “Penso che l’arte sia tale perché lascia qualcosa dentro – conclude Presta –  e questo non dovrebbe essere un privilegio di chi può usare la vista. L’opera comincia a vivere davvero quando entra in dialogo con chi la incontra. È qui che l’intelligenza artificiale può avere un ruolo bellissimo: non sostituire l’esperienza, ma accompagnarla. Se una persona al cospetto di un’opera sente nascere dentro una domanda, anche solo ‘perché?’,  la tecnologia dovrebbe essere lì, pronta a offrire una risposta possibilmente non standard, ma profondamente situata, che soddisfi davvero quella precisa persona, in quel momento. Questo coinvolgimento è il vero terreno su cui la tecnologia deve lavorare. Ma non lo costruirà l’IA da sola. Perché un’IA sappia raccontare un’opera con delicatezza, rispetto della verità e profondità, serve qualcuno che le insegni a farlo. E quel qualcuno sono i curatori, gli storici dell’arte, gli educatori museali, i narratori”. 

Newsletter

Follow us

Scelti per te

“Legendary 80s” a Milano: Basquiat, Haring, Scharf e Warhol in mostra da Deodato Arte

È all’interno di questa trasformazione che prende forma la mostra “LEGENDARY 80S”, presentata da Deodato Arte negli spazi di Via Nerino 1 dal 5 al 28 marzo 2026. Il progetto riunisce quattro figure centrali di quella stagione — Jean-Michel Basquiat, Keith Haring, Kenny Scharf e Andy Warhol — artisti diversi per linguaggio ma accomunati dalla capacità di trasformare l’arte in un dispositivo visivo immediato, capace di dialogare con la società del proprio tempo.

Matteo Mandelli: arte, algoritmi e materia nella grande antologica di Quingentole

Dal 7 marzo al 10 maggio 2026 l’ex Palazzo Vescovile di Quingentole, nel mantovano, ospita la prima mostra antologica dedicata a Matteo Mandelli, in arte You, artista tra i più riconosciuti in Italia nel campo delle ricerche che indagano il rapporto sempre più poroso tra mondo fisico e dimensione digitale.
Valentina Monarco
Valentina Monarco
Nata a Napoli, laureata in scienze politiche, giornalista professionista dal 2009. Ha iniziato come ufficio stampa e addetto alla comunicazione per enti e istituzioni del territorio, collaborando con diverse testate nazionali e locali. Oggi è impegnata nella valorizzazione e nella promozione di iniziative che uniscono storia, territorio e sperimentazione, e collabora con diverse realtà, locali e nazionali, come giornalista freelance, esplorando nuovi racconti e progetti culturali.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui