Lezione inaugurale CIFREM. Foto Alessio Coser, archivio Università di Trento

INTELLIGENZA ARTIFICIALE E SCIENZE SOCIALI

in
Conversazione con l’economista Shu-Heng Chen della National Chengchi University di Taiwan
di Stefano Zambelli

Il professor Shu-Heng Chen nel mese di ottobre è stato ospite dell’Università di Trento presso il Dipartimento di Economia e l’Interdepartmental Centre for Research Training in Economics and Management (CIFREM) dove ha tenuto la lezione inaugurale dei corsi di dottorato dell’anno accademico 2009-2010.
Considerato uno dei fondatori della Agent Based Computational Economics, Shu-Heng Chen è il primo ad avere introdotto la programmazione genetica (Genetic Programming) nell’ambito delle ricerche in economia ed è il fondatore e il direttore del Centro di ricerca sull’Artificial Intelligence, Economics Laboratory (AI-ECON Research Center), presso l’Università di Chengchi (Taipei, Taiwan).
Lo studioso fa parte del gruppo di ricerca internazionale ASSRU (Algorithmic Social Sciences Research Unit), coordinato dal professor Kumaraswamy Vela Velupillai e dal sottoscritto, entrambi membri della Facoltà di Economia di Trento.
Il mio rapporto di collaborazione e amicizia con Shu-Heng Chen è iniziato circa vent’anni fa, quando entrambi, coordinati dal professor Velupillai, partecipammo alle attività di ricerca dell’allora nascente Centre for Computable Economics dell’UCLA (California, USA).

Shu-Heng, la tua attività di ricerca e le tue pubblicazioni sono profondamente innovative. Tu sei uno dei primi studiosi che ha messo al centro della teoria economica l’intelligenza artificiale. Quando, perché e come hai iniziato a pensare a questo collegamento?

La mia tesi di dottorato è stata scritta nei primi anni ’90 all’interno delle attività di ricerca e dei corsi offerti dal Centre for Computable Economics dell’Università di Los Angeles. La supervisione del professor Kumaraswamy Velupillai, il fondatore della disciplina Computable Economics, è stata essenziale per la mia formazione. Egli consentì, a me e ai miei compagni di corso, di venire in contatto con concetti nuovi e molto originali come l’idea che la disciplina economica aveva bisogno di fondamenta algoritmiche. In pratica quello che abbiamo compreso è che ogni processo decisionale ha, implicitamente o esplicitamente, un equivalente algoritmico. Questo approccio permette la definizione dei processi decisionali nei termini della teoria della complessità algoritmica di Kolmogorov e della complessità spaziale e temporale. Questi concetti ci possono fornire un’idea e una definizione rigorosa del ‘costo’ che si deve affrontare per passare da una particolare configurazione economica ad un’altra.
Dopo la conclusione del mio dottorato sono tornato a Taiwan dove mi sono occupato di Agent-based modelling, cioè dell’idea che i comportamenti e le decisioni degli agenti economici possano essere descritti come se fossero collocati su di un reticolo bi-dimensionale che nella loro totalità costituiscono un automa cellulare. Negli anni successivi ho poi continuato a studiare modelli economici nei quali gli agenti economici artificiali sono descritti da algoritmi e fanno parte di un sistema virtuale.

Nella tua lectio magistralis una particolare enfasi è stata posta sul problema della eterogeneità degli agenti. In che senso i comportamenti che provi di catturare con gli agenti algoritmici sono diversi dal modello classico nel quale gli agenti economici hanno come obiettivo la massimizzazione della loro utilità?

I due approcci non devono essere necessariamente in conflitto. Molti dei modelli ‘multi-agents’ sono costruiti avendo come presupposto la modellizzazione degli agenti come se massimizzassero la loro utilità attesa. Tuttavia, la mancanza delle fondamenta algoritmiche è problematica ed è una delle critiche poste da Herbert Simon sin dai primi anni ’50.
Vari programmi di ricerca hanno cercato e cercano di fornire approcci alternativi, ad esempio . introducendo dei vincoli al processo decisionale, ma questo si è rivelato insufficiente perché successivamente all’introduzione dei vincoli si procede comunque al calcolo della soluzione massimizzante. L’approccio rimane quindi lo stesso e richiede la specificazione di algoritmi che permettano agli agenti di vedere ciò che si deve massimizzare e con quali vincoli. Questo è ciò che distingue l’approccio neoclassico da quello agent-based.

Tu sei un sostenitore dell’idea che gli agenti artificiali e le loro interazioni dovrebbero essere descritti da funzioni comportamentali, ma questo sembra essere ancora molto lontano dalle metodologie proprie delle scuole del pensiero economico dominanti. Hai incontrato degli ostacoli nel tuo sforzo di introdurre l’intelligenza artificiale in economia?

Come economista, quello che mi interessa di più è il futuro. La disciplina è in crescita: è aumentato molto il numero di pubblicazioni e la agent-based, sviluppatasi all’interno della economia computazionale (ACE), ha esteso il suo dominio di applicazione ad altre discipline quali l’economia sperimentale, evolutiva e comportamentale. Oggi l’approccio computazionale alle teorie agent-based viene visto come fondamentale per l’analisi di molti problemi economici.
Dobbiamo però, con modestia e serietà, affrontare i nostri limiti e i due principali sono costituiti dalla validazione dei modelli e dalla loro complessità. Nei modelli agent-based vi sono spesso troppi parametri e si ha l’esigenza di un nuovo approccio econometrico. Progressi su questo aspetto sono stati fatti ma vi è ancora molto da fare.
Molto è cambiato da quando venti anni fa Velupillai, al Centre for Computable Economics di UCLA, ci spiegava come un approccio algoritmico fosse fondamentale per lo studio dei processi decisionali ed il funzionamento dell’economia.
È da molti anni che frequento la conferenza annuale della società Computational Economics e noto che viene dato sempre più spazio ai modelli agent-based. Oggi è sempre più frequente incontrare studenti di dottorato che abbiano utilizzato per le loro ricerche programmi di calcolo studiati proprio per applicazioni algoritmiche alle scienze sociali quali ad esempio NetLogo, Repast and Swarm.

L’approccio algoritmico per lo studio dei problemi economici sembra essere sempre più accettato in molti campi dell’economia. Il professor Velupillai ne sostiene l’importanza da oltre vent’anni.

Sì, è vero, il suo lavoro è apprezzato da molti studiosi. Mi sembra che ci sia in uscita un volume, che tu stesso hai curato, che conterrà lavori originali di economisti e studiosi eminenti della logica della calcolabilità e tra cui alcuni premi Nobel.

Il volume si intitola Computable, Constructive and Behavioural Economic Dynamics Essays in Honour of Kumaraswamy Vela Velupillai, Routledge, 2010 e conterrà contributi di Clower, Samuelson, Solow, Leijonhufvud, Chaitin, Doria, Rissanen, Foley, McCall, Rosser, Day, Lawson,  Harcourt, McCauley, Abraham e molti altri.
Ma nonostante i molti segnali positivi la logica della calcolabilità e i risultati importanti che ne derivano sono spesso ignorati dagli
economisti.

Questo potrebbe essere spiegato come un fenomeno tipico nella storia del pensiero scientifico che è connesso alla diffusione di nuove idee. In questo caso specifico per comprendere i risultati derivati all’interno della logica della calcolabilità e le loro implicazioni e applicazioni si dovrebbe essere a conoscenza del calcolo numerico, del calcolo combinatorio, della logica metamatica e così via. Questi strumenti sono praticamente quasi tutti assenti dagli insegnamenti, questa carenza spiegherebbe in parte la difficoltà di diffusione ed applicazione dei risultati, ritengo però che queste difficoltà potranno essere superate e che i segnali positivi ci siano.