Parleremo con i muri? - Banner blog follow up 2

Parleremo con i muri?

Le domande di Artificial Intelligence and Architecture, terzo evento del ciclo The City We Have in Mind

Nel prossimo futuro, un’architettura dotata d’intelligenza artificiale potrebbe dare autonomia agli edifici, offrendo loro una vita. Che cosa significa per gli esseri umani vivere in spazi programmati ma, potenzialmente, non del tutto controllabili? Come potremo preservare il nostro senso di proprietà dello spazio? Quali saranno i rischi e le opportunità di uno scenario così sofisticato?

Partendo da queste domande si è svolto il 29 aprile scorso l’incontro “Intelligenza artificiale e architettura”, organizzato da Davide Ruzzon, direttore TUNED, e promosso da Lombardini22 con The Center for Conscious Design e ANFA The Academy of Neuroscience for Architecture. L’evento ha avviato il terzo ciclo di “The City We Have in Mind” con uno degli argomenti più problematici che ci accompagneranno nel futuro, soprattutto se declinato in un campo, qual è l’architettura, preposto a configurare il nostro ambiente costruito ad uso sociale, relazionale e collettivo.

Moderata dalla giornalista e fisica Silvia Camisasca, la tavola rotonda ha visto la partecipazione di un panel multidisciplinare di psicologi, neuroscienziati, filosofi e architetti chiamati a confrontarsi su una robotica sociale con cui gli umani sono chiamati a interagire, e quindi stabilire relazioni anche a lungo termine che richiedono, come in qualsiasi rapporto “interpersonale”, una qualche forma di fiducia ed etica condivisa con un’intelligenza “altra”. E sono queste, infatti, le parole chiave con cui i relatori sono stati sollecitati in apertura dell’incontro.

Affettiva o epistemica: che tipo di fiducia?

Come afferma Cinzia di Dio, neuropsicologa (Università Cattolica di Milano), se tra le persone possiamo contare su una fiducia affettiva data da una relazione di attaccamento, con i robot si tratta di una fiducia epistemica: basata sulla competenza, sull’affidabilità nel tempo, sulla stabilità e sicurezza dei risultati. Ma anche su un rapporto di trasparenza, cioè sull’intelligibilità dei processi che governano l’AI e sulla possibilità di leggere, metaforicamente, nella “mente” dell’altro (il sistema) e valutare la natura dei suoi errori eventuali (cioè dei tradimenti della nostra fiducia). La metafora mentalista non è casuale, poiché l’evoluzione dei sistemi AI tende ad attuare una sorta di simulazione di intenzionalità, pur non avendola: “I look as if, but I am really not”. Ma è legittimo (etico) – si chiede Cinzia Di Dio – o non è una forma di inganno?

Il confine è sottile e sta tutto nella capacità straordinaria della nostra specie di interagire non solo tra esseri umani ma anche con altre specie viventi e perfino con gli oggetti, attribuendo loro intenzioni.

Tony Belpaeme, professore di Sistemi cognitivi e robotica (Plymouth University), porta l’esempio dell’illusione di Fritz Heider e Marianne Simmel, un video astratto del 1944 in cui due triangoli e un cerchio si muovono dentro e attorno a un rettangolo aperto[1] interpretati come una narrazione, o quello di un rubinetto percepito come un viso. Sono risposte che sfruttiamo con l’uso dei robot nel trattamento cognitivo-comportamentale dei bambini affetti da autismo, o nel campo dell’istruzione, in modo molto efficace poiché si tratta di tecnologie persuasive. Ma proprio per questo sono anche tecnologie che esercitano un’influenza se non una pressione sociale (misurabile con il paradigma di Solomon Asch) e cambiano i nostri stessi comportamenti:

“Se ora i robot sociali non fossero più sistemi confinati (nella forma classica dell’umanoide) ma entità più ampie, integrate e interconnesse, come un edificio o una città intera, come cambierà la nostra relazione con l’ambiente costruito? Se le case reagissero proattivamente e fossero interrogabili, come cambieremo noi?”

Tony Belpaeme
Professore di sistemi cognitivi e robotica – Plymouth University

Dialogheremo con lo spazio?

L’interazione con un ambiente dotato d’intelligenza artificiale introduce un’altra accezione di trasparenza. Quella che, per il filosofo Michael Wheeler (University of Stirling), coincide con una sparizione dei processi AI dalla nostra esperienza cosciente, come un sottofondo ben congegnato di cui non ci accorgiamo più.

Sarebbe un tipico stato maturo di tecnologia applicata (quando non è più dichiarata muscolarmente ma convive con noi discretamente e sottopelle). Tuttavia in un’architettura permeata di AI – che per Wheeler è una specie di costruzione di nicchia cognitiva che coinvolge una combinazione di sorveglianza, auto-apprendimento e previsione – i sistemi possono anche operare in modo divergente rispetto alle nostre preferenze e mantenerne la trasparenza ci fa correre il rischio di subire un’inconsapevole manipolazione di sottofondo: un’architettura come musica Muzak (tornano così i temi dell’affidabilità e dell’etica). Al polo opposto dell’invisibilità, un’alternativa potrebbe essere

una forma di dialogo interattivo tra abitanti e architettura attraverso “conversazioni” costruttive con una AI incorporata

ipotesi sostenuta dall’architetto sperimentale Usman Haque sul modello cibernetico di Gordon Pask. Ma è davvero desiderabile “parlare coi muri”? Non è un’eccessiva intrusione esperienziale?

“Qual è l’obiettivo progettuale di un’architettura intelligente?” si chiede dunque Wheeler: probabilmente quel punto di mediazione nello spazio delle possibili interfacce architettoniche situato da qualche parte tra i due estremi della trasparenza e dell’intrusione. Una ricerca di equilibrio, tra controllo e “lassez faire”, che in termini diversi sostiene i dubbi di altri relatori e che coinvolge non solo il cognitivo ma tutto il nostro corpo sensibile.

“Cervello e corpo lavorano assieme quindi cosa succede ai nostri schemi corporei quando costruiamo edifici neuromorfici”?

Michael A. Arbib
Neuroscienziato – University of California, San Diego

Airbib non si sofferma tanto sull’architettura neuromorfica[2] quanto sulla complessità crescente verso cui andiamo, fatta di “sistemi di sistemi” interagenti tra loro e a scale diverse che ci parlano di una “cessione di sovranità” generalizzata sul nostro spazio costruito che abbiamo iniziato ad accettare fin dall’avvento dei semafori per la regolazione dei flussi di traffico.

La stessa Eve Edelstein, neuroscienziata co-fondatrice di Clinicians for Design, dal suo osservatorio clinico sottolinea quanto la nostra esperienza dello spazio non sia mai stata sotto il nostro completo controllo persino nella staticità degli edifici tradizionali, così come non abbiamo controllato le conseguenze della manipolazione dell’ambiente, con effetti in termini di alterazione dei ritmi circadiani, malattie cardiovascolari, consumo energetico ecc. (in questo concordando con Arbib su quanto il genere umano sia in grado di creare problemi a se stesso al di là del ruolo dell’AI). Ora però possiamo valutare tali effetti in modo molto preciso, usare tecnologie già sviluppate per misurare i nostri pensieri ed emozioni coscienti così come le nostre risposte inconsce al design. L’intelligenza artificiale aiuta a rivelare queste interrelazioni ed è una grande opportunità: generare, potenzialmente, connessioni punto-punto tra persone e spazio, come gemelli digitali, entità viventi e non viventi che si parlano e si corrispondono permettendo di trasmettere dati senza soluzione di continuità tra mondo fisico e virtuale[3].

Tutto ciò cambia la dimensione percepita dei nostri luoghi, e può migliorare le nostre vite, persino salvarle attraverso il design

Eve Edelstein
Neuroscienziata co-fondatrice di Clinicians for Design

Spazio fisso, “smart”, cinetico

Siamo all’inizio di un lungo percorso. Un tragitto che Elizabeth Kostina (The Centre for Conscious Design) illustra seguendo due linee di sviluppo nel tempo: il “macchinico” e il computazionale. E ci immerge nella storia stessa dell’architettura moderna: dallo scheletro di calcestruzzo della maison Dom-Ino di Le Corbusier alla sua idea di machine à habiter, dal grattacielo di vetro di Mies van der Rohe ai Metabolisti giapponesi e ad un’architettura intesa come corpo e crescita biologica. Una genealogia che oppone macchina e organismo, che può trovare una sintesi generativa, come suggerisce Kostina, nel Costruttore universale di John von Neumann, macchina auto-replicante progettata negli anni 1940 che cambia automaticamente imitando i processi di riproduzione ed evoluzione:

Se applicassimo la sua teoria di replicazione alle strutture architettoniche contemporanee, avremmo un’architettura vivente? Si può colmare in questo modo il divario tra architettura intelligente ed effettivamente vivente, cioè cinetica come un organismo? E come convivere con questi nuovi spazi reattivi e ‘intenzionali’?

Elizabeth Kostina
The Centre for Conscious Design

La contrapposizione tra la fissità dello spazio e una sua possibile mutevolezza cinetica è un tema su cui si interroga lo stesso Davide Ruzzon, architetto e direttore del master NAAD presso Iuav Venezia e POLI Design Milano (nonché organizzatore dell’evento).

Lo affronta attraverso due immagini, proiettandoci con la prima molto più indietro nel tempo: ovvero a circa a 12 mila anni fa con il sito archeologico di Göbekli Tepe, nel sud dell’attuale Turchia, straordinario complesso monumentale che dalla sua riscoperta relativamente recente sembra aver rovesciato le teorie sulla rivoluzione del Neolitico. Evocato come rappresentazione della centralità dell’architettura – e in questo caso particolare dei luoghi di culto prima ancora delle città – nel grande salto cognitivo compiuto dall’uomo, l’importanza di Göbekli Tepe è nella sua affordance. E ciò in virtù della sua staticità, del fatto di essere scenario stabile, sedimentato e a disposizione per quell’insieme di rituali, relazioni sociali e forme culturali in cui l’uomo matura la sua rapidissima evoluzione a venire: uno scenario che articola i rituali accelerando le relazioni come una “palestra cognitiva”.

Affordance che oggi – ed è la seconda immagine – rischia una dissolvenza proprio per la natura stessa di ciò che l’evoluzione tecnologica (meccanica, elettronica e oggi legata all’AI) può imprimere allo spazio. Che cosa significa infatti interpretare la dimensione emotiva per perfezionare lo spazio abitato? Per Ruzzon non è sufficiente gestire la luce o l’acustica ma regolare, comprimere, dilatare l’ambiente attraverso un algoritmo che cambia la configurazione percepita. Ma se lo spazio sfugge alla sua stabilità, cosa resta del processo predittivo e dell’interazione corpo/spazio/movimento? Quali nuovi problemi produce una regolazione fine che si adatta in continuazione ai nostri mutevoli stati d’animo? Quali script sociali e culturali genera?

“Posso ancora dimenticarmi di me, la notte, quando so che un’altra ‘coscienza’ sta prendendo il mio posto?”

Davide Ruzzon
Architetto e direttore di TUNED | Lombardini22 e del master NAAD presso Iuav Venezia e POLI Design Milano

(Intermezzo)

Solo una settimana prima dell’incontro, il 21 aprile, la Commissione europea ha presentato un pacchetto di misure strategiche sull’intelligenza artificiale. Esso prevede, tra l’altro, un quadro giuridico basato su quattro livelli di rischio legato alle tecnologie AI: da minimo e limitato (relativo ad applicazioni che vanno dai videogiochi ai chatbot, per esempio), a elevato (infrastrutture critiche, istruzione ecc.) fino a inaccettabile, quando diventa una minaccia per la sicurezza, la sussistenza e i diritti fondamentali delle persone.

In ogni caso l’AI non dovrebbe avere personalità giuridica, e comunque le tecnologie ad alto rischio dovrebbero prevedere la sorveglianza umana in qualsiasi momento, soprattutto quelle dotate di capacità di auto-apprendimento.

Awareness & Cosciousness…

Ora se le tecnologie applicate all’architettura possano essere o meno ad alto rischio non è da stabilire qui, è però utile richiamare una soluzione suggerita da Eve Edelstein, da lei stessa definita molto semplice: possiamo progettare i nostri edifici affinché rispondano ai nostri bisogni, sia coscienti sia inconsapevoli, con sistemi che rilevino i nostri livelli di stress e che reagiscano in base a ciò che di noi apprendono nel tempo (regolando luci, suoni, temperatura e, chissà, le stesse proporzioni dello spazio).

Ma possiamo anche decidere quando interrompere tale interazione: spegnere il robot, o istituire puntuali forme di feedback, o costringere i sistemi a frasi come “Sei d’accordo con ciò che ha registrato l’algoritmo?”.

Oppure, come si chiede Michael Wheeler, possiamo anche accettare di perdere un po’ di controllo – poiché una certa autonomia agli edifici vogliamo concederla – e non essere in fondo così certi che possa davvero invalidare il senso di proprietà che esercitiamo sullo spazio in cui viviamo.

Il gioco rimane sospeso in questo equilibrio: tra fiducia e controllo, trasparenza e intrusione, autonomia e proprietà.

Una partita della coscienza (della mente) da giocare con coscienza (ovvero con responsabilità, vigilanza, consapevolezza) poiché può durare il 90% del tempo della nostra vita: cioè quell’incredibile quantità di tempo che molti di noi – come ci ricorda Ruzzon – passiamo mediamente indoor, custoditi all’interno dei nostri spazi architettonici.


[1] www.youtube.com/watch?v=sx7lBzHH7c8: mostrato a un campione di spettatori, il movimento dei tre oggetti veniva nella maggioranza dei casi interpretato come quello di due innamorati inseguiti da un terzo soggetto poi respinto.

[2] www.tandfonline.com/doi/full/10.1080/17508975.2012.702863?scroll=top&needAccess=true: il termine è formulato da Airbib in un paper del 2012 dove menziona un progetto parzialmente composto di reti neuronali come “ADA: playful intelligent space”, padiglione sviluppato dall’ETH di Zurigo per l’Expo svizzera del 2002 (ada.ini.ethz.ch/general/content6d78.html?uNav=8&uLang=4)

[3] Fonte: “Digital Twins: The Convergence of Multimedia Technologies”. IEEE MultiMedia. 25 (2): 87–92