MERCATI FINANZIARI
Come educare l'algoritmo a evitare gli shock

L'uso dell'intelligenza artificiale in finanza è pericolosa perché può creare squilibri sui prezzi degli asset e quindi situazioni di panico tra gli investitori? Un test condotto dal dipartimento Economia della Luiss dimostra che non è così

L’uso degli algoritmi come strumento quotidiano nel mondo finanziario è in crescita costante. Sono diventati insostituibili nelle piattaforme pier to pier e nella fintech, la loro evoluzione li rende sempre più potenti. 

Un test in vitro per osservare l’impatto che l’AI può avere sui mercati finanziari (può creare degli shock, può essere un elemento di disequilibrio sui prezzi?) è stato costruito da un gruppo di ricerca, sotto la guida di Emanuele Tarantino, professore di Economia della Luiss, e illustrato da un brillante giovane dottorando, Ivan Gufler, nel corso di un convegno organizzato alla Luiss.  

L’esercizio – sostenuto dal Casmef presieduto da Giorgio Di Giorgio – si è mosso con l’obiettivo di plasmare un “Agente AI”, cioè un investitore virtuale che si muove con l’AI, cercando di allenarlo a prendere delle decisioni di portafoglio. E di osservare come queste decisioni impattavano sul prezzo degli asset scelti, mettendo il risultato a confronto con una situazione in assenza dell’intervento dell’Intelligenza artificiale.

La sfida iniziale è stata la ricerca di dati sufficienti ad allenare l’Agente AI a capire come l’uso del suo cospicuo portafoglio, un miliardo di dollari, può ripercuotersi sulle quotazioni, insomma il suo “price impact”. 

All’inizio l’Agente ha mosso il capitale in maniera aggressiva, provocando onde d’urto sul mercato; pian piano però ha capito come agire in modo più equilibrato, per esempio diversificando di più. Simulando un mercato uguale a quello vero, dal 1997 al 2022, il nostro Agente AI, guidato da un algoritmo sofisticato, ha capito come prendere posizioni, attendere i dividendi, scegliere di vendere o di tenere il titolo.

Una volta allenato su una sequenza di anni di mercato reale, lo si è lanciato a operare su un’altra sequenza di anni – dal 2012 al 2022- in cui non si era mai trovato prima. In parallelo, operava un altro Agente, ma con un solo dollaro da investire, quindi senza  capacità di impattare sui prezzi. Risultato? Che l’Agente AI allenato a rispettare l’equilibrio di mercato si è comportato meglio dell’altro Agente.

L’esercizio ha dimostrato che non serve demonizzare l’AI temendo che possa agire come potenziale responsabile di shock del mercato, ma occorre mettere molta attenzione nell’usare dei modelli di AI che siano allenati alla consapevolezza di poter creare degli shock, e di avere viceversa l’impegno a tutelare l’equilibrio del mercato.

All’esposizione del test hanno fatto seguito le testimonianze degli operatori – Alessio Fiori di MDOTM, Luca Barone di Banca Profilo, Andrea Prampolini di Intesa Sanpaolo – che con gli strumenti della AI convivono quotidianamente.

«È vero che le banche stanno sostituendo tutte le attività ripetitive e a basso valore aggiunto con l’AI», ha detto infine Alessandro Solina, CIO Eurizon Capital, «ma non in quelle dove c’è un maggior utilizzo del cervello umano». E anche negli investimenti, l’AI da sola non basta: è certamente in grado di usare una quantità di dati oltre alle possibilità di un umano, ma non è in grado di definire qual è il “contesto macroeconomico” in cui sta operando.

Non solo: «Se l’utilizzo dei dati disponibili è uguale per tutti, ed è automatico, finisco per trovarmi nel “consensus”: tutti sono insomma posizionati allo stesso modo. Ma allora non faccio grandi ritorni», ha sintetizzato Solina.

Come si fa la performance, in un mondo in cui tutti sanno le stesse cose, e i prezzi degli asset incorporano già tutte le notizie ufficiali? La soluzione, suggerisce Solina, è sulla disponibilità di dati che altri non hanno. E sull’allenamento degli algoritmi con questi dati. Una sfida che si gioca a livello mondiale.

P.P.