INTELLIGENZA ARTIFICIALE E SCIENZE SOCIALI
Il professor Shu-Heng Chen nel mese di ottobre è stato ospite dell’Università di Trento presso il Dipartimento di Economia e l’Interdepartmental Centre for Research Training in Economics
and Management (CIFREM) dove ha tenuto la lezione inaugurale dei corsi di dottorato dell’anno accademico 2009-2010.
Considerato uno dei fondatori della Agent Based Computational Economics, Shu-Heng
Chen è il primo ad avere introdotto la programmazione genetica (Genetic Programming) nell’ambito delle ricerche in economia ed è il fondatore e il direttore del Centro di ricerca sull’Artificial
Intelligence, Economics Laboratory (AI-ECON Research Center), presso l’Università di Chengchi (Taipei, Taiwan).
Lo studioso fa parte del gruppo di ricerca internazionale ASSRU (Algorithmic
Social Sciences Research Unit), coordinato dal professor Kumaraswamy Vela Velupillai e dal sottoscritto, entrambi membri della Facoltà di Economia di Trento.
Il mio rapporto di collaborazione e
amicizia con Shu-Heng Chen è iniziato circa vent’anni fa, quando entrambi, coordinati dal professor Velupillai, partecipammo alle attività di ricerca dell’allora nascente Centre for
Computable Economics dell’UCLA (California, USA).
Shu-Heng, la tua attività di ricerca e le tue pubblicazioni sono profondamente innovative. Tu sei uno dei primi studiosi che ha messo al centro della teoria economica l’intelligenza artificiale. Quando, perché e come hai iniziato a pensare a questo collegamento?
La mia tesi di dottorato è stata scritta nei primi anni ’90 all’interno delle attività di ricerca e dei corsi offerti dal Centre for Computable Economics dell’Università di
Los Angeles. La supervisione del professor Kumaraswamy Velupillai, il fondatore della disciplina Computable Economics, è stata essenziale per la mia formazione. Egli consentì, a me e ai miei compagni
di corso, di venire in contatto con concetti nuovi e molto originali come l’idea che la disciplina economica aveva bisogno di fondamenta algoritmiche. In pratica quello che abbiamo compreso è che
ogni processo decisionale ha, implicitamente o esplicitamente, un equivalente algoritmico. Questo approccio permette la definizione dei processi decisionali nei termini della teoria della complessità
algoritmica di Kolmogorov e della complessità spaziale e temporale. Questi concetti ci possono fornire un’idea e una definizione rigorosa del ‘costo’ che si deve affrontare per passare
da una particolare configurazione economica ad un’altra.
Dopo la conclusione del mio dottorato sono tornato a Taiwan dove mi sono occupato di Agent-based modelling, cioè dell’idea che
i comportamenti e le decisioni degli agenti economici possano essere descritti come se fossero collocati su di un reticolo bi-dimensionale che nella loro totalità costituiscono un automa cellulare. Negli
anni successivi ho poi continuato a studiare modelli economici nei quali gli agenti economici artificiali sono descritti da algoritmi e fanno parte di un sistema virtuale.
Nella tua lectio magistralis una particolare enfasi è stata posta sul problema della eterogeneità degli agenti. In che senso i comportamenti che provi di catturare con gli agenti algoritmici sono diversi dal modello classico nel quale gli agenti economici hanno come obiettivo la massimizzazione della loro utilità?
I due approcci non devono essere necessariamente in conflitto. Molti dei modelli ‘multi-agents’ sono costruiti avendo come presupposto la modellizzazione degli agenti come se massimizzassero la loro
utilità attesa. Tuttavia, la mancanza delle fondamenta algoritmiche è problematica ed è una delle critiche poste da Herbert Simon sin dai primi anni ’50.
Vari programmi di ricerca
hanno cercato e cercano di fornire approcci alternativi, ad esempio . introducendo dei vincoli al processo decisionale, ma questo si è rivelato insufficiente perché successivamente all’introduzione
dei vincoli si procede comunque al calcolo della soluzione massimizzante. L’approccio rimane quindi lo stesso e richiede la specificazione di algoritmi che permettano agli agenti di vedere ciò che
si deve massimizzare e con quali vincoli. Questo è ciò che distingue l’approccio neoclassico da quello agent-based.
Tu sei un sostenitore dell’idea che gli agenti artificiali e le loro interazioni dovrebbero essere descritti da funzioni comportamentali, ma questo sembra essere ancora molto lontano dalle metodologie proprie delle scuole del pensiero economico dominanti. Hai incontrato degli ostacoli nel tuo sforzo di introdurre l’intelligenza artificiale in economia?
Come economista, quello che mi interessa di più è il futuro. La disciplina è in crescita: è aumentato molto il numero di pubblicazioni e la agent-based, sviluppatasi all’interno
della economia computazionale (ACE), ha esteso il suo dominio di applicazione ad altre discipline quali l’economia sperimentale, evolutiva e comportamentale. Oggi l’approccio computazionale alle
teorie agent-based viene visto come fondamentale per l’analisi di molti problemi economici.
Dobbiamo però, con modestia e serietà, affrontare i nostri limiti e i due principali sono
costituiti dalla validazione dei modelli e dalla loro complessità. Nei modelli agent-based vi sono spesso troppi parametri e si ha l’esigenza di un nuovo approccio econometrico. Progressi su questo
aspetto sono stati fatti ma vi è ancora molto da fare.
Molto è cambiato da quando venti anni fa Velupillai, al Centre for Computable Economics di UCLA, ci spiegava come un approccio algoritmico
fosse fondamentale per lo studio dei processi decisionali ed il funzionamento dell’economia.
È da molti anni che frequento la conferenza annuale della società Computational Economics
e noto che viene dato sempre più spazio ai modelli agent-based. Oggi è sempre più frequente incontrare studenti di dottorato che abbiano utilizzato per le loro ricerche programmi di calcolo
studiati proprio per applicazioni algoritmiche alle scienze sociali quali ad esempio NetLogo, Repast and Swarm.
L’approccio algoritmico per lo studio dei problemi economici sembra essere sempre più accettato in molti campi dell’economia. Il professor Velupillai ne sostiene l’importanza da oltre vent’anni.
Sì, è vero, il suo lavoro è apprezzato da molti studiosi. Mi sembra che ci sia in uscita un volume, che tu stesso hai curato, che conterrà lavori originali di economisti e studiosi eminenti della logica della calcolabilità e tra cui alcuni premi Nobel.
Il volume si intitola Computable, Constructive and Behavioural Economic Dynamics Essays in Honour of Kumaraswamy Vela Velupillai, Routledge, 2010 e conterrà contributi di Clower, Samuelson, Solow, Leijonhufvud, Chaitin, Doria, Rissanen, Foley, McCall, Rosser, Day, Lawson, Harcourt, McCauley, Abraham e molti altri.
Ma nonostante i molti segnali positivi la logica della calcolabilità e i risultati importanti che ne derivano sono spesso ignorati dagli economisti.
Questo potrebbe essere spiegato come un fenomeno tipico nella storia del pensiero scientifico che è connesso alla diffusione di nuove idee. In questo caso specifico per comprendere i risultati derivati all’interno della logica della calcolabilità e le loro implicazioni e applicazioni si dovrebbe essere a conoscenza del calcolo numerico, del calcolo combinatorio, della logica metamatica e così via. Questi strumenti sono praticamente quasi tutti assenti dagli insegnamenti, questa carenza spiegherebbe in parte la difficoltà di diffusione ed applicazione dei risultati, ritengo però che queste difficoltà potranno essere superate e che i segnali positivi ci siano.