Sempre più gestori impiegano l'intelligenza artificiale, ma solo un esiguo numero dichiara apertamente di farvi ricorso. In un documento del 1° febbraio, l’Autorità europea ricostruisce le applicazioni degli strumenti AI attualmente in uso nei mercati finanziari. E ne indica i vantaggi ma anche i potenziali rischi
Sempre più gestori la impiegano nelle strategie di investimento, nella mitigazione dei rischi noti e nella compliance, ma solo un esiguo numero sviluppa processi interamente basati su di essa e dichiara apertamente di farvi ricorso. Si tratta dell’intelligenza artificiale: in un documento del 1° febbraio scorso l’Autorità europea ricostruisce le applicazioni degli strumenti AI attualmente in uso nei mercati finanziari. E, apprezzandone i vari gradi di adozione, mette a sistema i potenziali rischi.
Intelligenza artificiale, “AI” nell’acronimo anglosassone, è una locuzione ampia al cui alveo si è soliti ricondurre una molteplicità di metodi che consentono di trovare soluzioni univoche a problematiche complesse attraverso l’impiego di tecniche appartenenti alle materie statistiche e informatiche. La definizione non è universalmente condivisa e, in senso stretto, neppure nuova, stante il risalente ricorso in finanza alle scienze econometriche e, appunto, statistiche per i medesimi fini.
Nel 2017 il Financial Stability Board descriveva l’intelligenza artificiale come “la teorizzazione e lo sviluppo di sistemi informatici in grado di svolgere compiti che tradizionalmente hanno richiesto l’intelligenza umana“; nel corso degli anni, negli studi delle istituzioni europee (e.g. Commissione e Consiglio europeo), si sono affastellate ulteriori formulazioni specifiche da cui è possibile enucleare una sintesi, definendo l’AI come un programma informatico atto a produrre contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono e che è (i) sviluppato per elaborare le informazioni provenienti da ingenti quantità di dati utilizzando numerose tecniche, fra cui apprendimento automatico (il c.d. machine learning), logica e deduzione; (ii) progettato per funzionare con elementi di autonomia su vari livelli al fine di generare comportamenti basati sull’utilizzo di tali dati.
Dal quadro brevemente ricostruito si può quindi comprendere perché garantire un utilizzo responsabile delle tecnologie di intelligenza artificiale sia inserito fra le priorità della Strategia di Finanza Digitale adottata dalla Commissione Europea nel settembre 2020. Ancor prima, nel 2018, l’Unione Europea si approcciava all’intelligenza artificiale ponendosi tre obiettivi generali: incrementare il volume degli investimenti pubblici e privati in AI; preparare il campo per i cambiamenti socio-economici correlati; assicurare una cornice etica e giuridica appropriata.
Nel 2021 la Commissione ha presentato un pacchetto di provvedimenti composto da una comunicazione sulla promozione dell’AI coordinata a livello europeo, una proposta di regolamento intersettoriale recante norme armonizzate sull’intelligenza artificiale (la c.d. “legge sull’AI”) e la relativa valutazione di impatto, in cui è impiegato l’approccio basato sul rischio. I rischi sono classificati secondo quattro livelli: r. inaccettabile, r. elevato, r. limitato e r. minimo, laddove per le forme di AI più pericolose è associata l’applicazione di norme più rigorose.
Nel recente contributo dal titolo “Artificial intelligence in EU securities markets” del 1° febbraio 2023, l’ESMA fornisce un’accurata rassegna delle applicazioni di AI attualmente utilizzate in diversi settori dei mercati finanziari dell’Unione, per valutarne le prospettive di una maggiore diffusione e i conseguenti rischi e sfide.
Nell’analisi emerge in primo luogo una macro-bipartizione fra i rischi inerenti alle nuove tecnologie e i rischi preesistenti amplificati da l’impiego di esse. Invero molte delle questioni associate all’uso dell’AI da parte delle istituzioni finanziarie sono abbastanza simili a quelle poste dai modelli tradizionali. Tuttavia l’ampiezza di scala nella quale l’intelligenza artificiale può essere utilizzata, la velocità alla quale operano i sistemi di AI e la complessità dei modelli sottostanti costituiscono l’unità di misura della variabile dei suddetti rischi.
UTILIZZO NEL TRADING
Con particolare riferimento ai mercati finanziari, nel ciclo di trading (convenzionalmente ripartito in tre fasi: analisi pre-negoziazione, esecuzione e post-negoziazione), l’AI trova alcune delle sue applicazioni più promettenti nella esecuzione. Difatti, specialmente quando sono coinvolti ordini di grandi dimensioni, l’intelligenza artificiale può essere alla base di algoritmi di esecuzione delle transazioni che, da un lato, ottimizzano i costi di esecuzione di un’operazione già effettuata, dall’altro minimizzano i costi derivanti dal suo impatto sul mercato (ossia l’effetto di un’operazione sui prezzi di mercato quando viene eseguita), che costituisce il costo di transazione più rilevante stimato.
Su questi ordini di trading di grandi dimensioni, che sono generalmente suddivisi in più “ordini figlio” e completati in diversi giorni lavorativi, l’Autorità ha poi rilevato che alcuni intermediari e grandi investitori (e.g. fondi pensione e hedge fund) hanno sviluppato modelli di apprendimento automatico per suddividere ed eseguire i “meta-ordini” in modo ottimale in diverse sedi e tempi di negoziazione, in modo da ridurre al minimo il loro impatto sul mercato e quindi i suddetti costi di transazione.
In tale ambito, l’obiettivo perseguito dalla tecnologia coincide perfettamente con quello della normativa di settore; si pensi alla regola della best execution, che stabilisce il dovere per le imprese di investimento di eseguire gli ordini alle migliori condizioni possibili tenendo conto del prezzo, dei costi, della velocità, della probabilità di esecuzione e regolamento, dell’entità, della natura e di ogni altra considerazione rilevante per l’esecuzione dell’ordine stesso.
Tuttavia una delle difficoltà principali che questi modelli devono affrontare è la scarsità di dati specifici sui “meta-ordini”, che solo l’organizzazione che esegue l’ordine possiede e la propensione ad individuare sistemi per condividere i dati si scontra con le norme per la protezione della riservatezza degli stessi. Ciò ha portato gli sviluppatori ad elaborare modelli addestrati su set di informazioni estremamente limitati, ma il maggiore ricorso all’uso di dati sintetici potrebbe ridurre la spiegabilità dei modelli, limitando la capacità di discernere l’effetto di ciascuna variabile sul risultato.
LA POST-NEGOZIAZIONE
Nella post-negoziazione, che comprende come noto segnalazione, compensazione e regolamento, l’uso di AI può consentire una maggiore efficienza nella fase del regolamento, ad esempio ottimizzando l’allocazione delle liquidità per predire la probabilità che un determinato contratto non venga regolato a causa di una distribuzione inefficiente di tali somme. In questo contesto, tuttavia, le risposte fornite dalle controparti centrali (CCP) e dai depositari centrali di titoli (CSD) intervistati dall’ESMA suggeriscono che, almeno per il momento, l’utilizzo di machine learning e intelligenza artificiale non sia ampiamente diffuso. Tale evidenza è corroborata dall’ammontare degli investimenti in AI, piuttosto limitato per quanto riguarda le controparti centrali. I depositari centrali, per parte loro, hanno rappresentato che queste istituzioni operano su infrastrutture tecnologiche all’epoca sviluppate con investimenti pensati per il lungo periodo, ma che la pianificazione di espansione dell’uso dell’AI è prevista per il prossimo futuro.
In argomento va segnalato che alcuni fornitori di servizi di data reporting e trade repository hanno avviato lo sviluppo di soluzioni di intelligenza artificiale – basate su modelli di apprendimento automatico o di elaborazione del linguaggio naturale – per un più efficiente e accurato rilevamento delle anomalie, per la verifica e i controlli della qualità dei dati e l’estrazione automatizzata delle informazioni da fonti non strutturate, sebbene attualmente si rivolgano per lo più a servizi cloud offerti da fornitori di terze parti.
Avuto riguardo all’analisi dei rischi per categoria, l’Autorità ha individuato le potenziali criticità di un uso pervasivo dell’intelligenza artificiale nel sistema finanziario e i fattori a cui sono comunemente associate le maggiori preoccupazioni. Essi sono carenza di explainability, letteralmente traducibile in linguaggio informatico con “spiegabilità”, dell’AI; distorsioni algoritmiche (algorithmic bias); concentrazione, interconnessione e rischio sistemico; rischio operativo; qualità dei dati e rischio di modello.
La spiegabilità integra senz’altro uno dei fattori di rischio peculiari dell’AI e, in special modo per alcuni tipi di machine learning, l’assenza di spiegabilità di un modello AI può potenzialmente inficiarne le prestazioni e, conseguentemente, compromettere la gestione del rischio stesso.
Ma non tutti i rischi citati afferiscono esclusivamente a modelli o algoritmi contrassegnati come intelligenza artificiale e, in effetti, essi attengono per lo più alla categoria di rischi preesistenti, che possono essere amplificati quando si utilizzano sistemi di intelligenza artificiale che in genere operano su scala, complessità e automazione maggiori rispetto agli strumenti statistici tradizionali.
RISORSE E CONCENTRAZIONE
Così la crescente diffusione dell’intelligenza artificiale nei mercati comporta naturalmente rischi di concentrazione e interconnessione delle infrastrutture tecnologiche in capo a pochi grandi attori. Al riguardo, l’Autorità ha ritenuto che, poiché compiere progressi sostanziali nello sviluppo dei sistemi di AI richiede un uso intensivo delle risorse, potrebbero sorgere barriere all’ingresso tali da incrementare la esternalizzazione degli investimenti in tecnologia e infrastrutture ai pochi grandi gestori patrimoniali con risorse adeguate. A ben vedere, tale circostanza, riducendo la concorrenza, favorirebbe la concentrazione dei rischi in un ridotto numero di imprese (ivi comprese le controparti centrali).
La concentrazione degli strumenti di intelligenza artificiale fra pochi fornitori in oligopolio può oltretutto dar luogo a rischio sistemico, specialmente nel contesto delle negoziazioni algoritmiche, agevolando comportamenti di gregge, convergenza delle strategie di investimento e reazioni a catena incontrollate che inaspriscono la volatilità durante gli shock. Sebbene i possibili effetti negativi del trading algoritmico possano essere esacerbati dall’uso di modelli di AI complessi, opachi o in rapido aggiornamento, tali rischi non derivano necessariamente dall’uso dell’AI e difatti la disciplina MiFID II contiene già disposizioni in proposito.
In merito ai possibili nuovi rischi, nel rapporto di revisione dell’ESMA sul trading algoritmico si legge che “la maggior parte degli interessati non è in grado di identificare rischi e impatti sulle strutture di mercato diversi da quelli già menzionati nella MiFID II, che meriterebbero ulteriore attenzione normativa“.
LE DISTORSIONI DELL’ALGORITMO
Passando in rassegna le distorsioni algoritmiche, l’Autorità le definisce come comportamenti sistematici di un algoritmo che creano risultati che possono essere considerati ingiusti, ad esempio perché penalizzano determinati individui in base a caratteristiche biologiche, e che differiscono dalla funzione prevista dall’algoritmo. La distorsione può emergere dalla progettazione dell’algoritmo o dal modo in cui i dati vengono utilizzati.
Rispetto alle applicazioni nel settore bancario e assicurativo, il rischio di distorsione algoritmica è limitato dalla natura dell’attività in funzione della quale i dati personali dei clienti sono raccolti. Tuttavia ciò non esclude possibili distorsioni nei modelli di asset allocation, conducendo a risultati non attesi e/o minacciando l’integrità delle negoziazioni sul mercato. Analogamente l’overfitting è foriero di criticità quando, a causa di un eccessivo numero di input o della estrema flessibilità del modello, ne riduce la capacità predittiva sui dati non osservati.
L’ESMA dedica alcuni cenni ai rischi connessi alla qualità dei set di informazioni utilizzati nella fase di apprendimento e al potenziale impatto sulle prestazioni delle applicazioni di intelligenza artificiale e machine learning, valorizzando il ruolo fondamentale dei dati come elemento imprescindibile per trarre risultanze attendibili dall’impiego dell’AI. Pertanto il successo degli strumenti di intelligenza artificiale è direttamente proporzionale alla qualità dei dati che ne costituiscono il presupposto: più è scarsa la qualità dei dati, maggiore è il rischio di inaffidabilità del modello.
Rischio di modello, rischio operativo, preoccupazioni etiche e di affidabilità emergono con maggiore intensità nel contesto delle operazioni di rating del credito; sebbene il ricorso a tecnologie di AI sia ancora piuttosto limitato nei modelli di business attualmente diffusi, molti enti risultano aver già adottato misure di prevenzione in tal senso. In generale l’impiego sistematico di modelli di intelligenza artificiale nei mercati finanziari può esasperare il rischio operativo derivante da processi di controllo interno inadeguati o da eventi esterni, in primo luogo il rischio di cybersicurezza.
La sistematizzazione dei rischi così composta si trova a dialogare, in parte sovrapponendosi, con i pericoli tipizzati dalla dottrina del diritto dei mercati finanziari già nelle more dell’adozione della normativa Emir sugli strumenti derivati OTC, le controparti centrali e i repertori di dati sulle negoziazioni. Nel prodotto derivato, là dove «il rischio è un elemento negoziale essenziale al quale viene attribuito un prezzo» (Lucantoni), sono state circoscritte tre tipologie di rischio: r. operativo, r. di controparte e r. sistemico, distinguendo i rischi che si atteggiano in relazione alla eventuale assunzione della posizione in derivati: r. emittente/controparte, r. di mercato e r. di liquidità, tutti limitati dal rispetto delle regole di condotta stabilite per le fasi della post-negoziazione.
Sotto il profilo del rischio operativo, è stato autorevolmente notato che esso interagisce in vario modo con i presidi di tutela e i doveri di protezione posti dall’ordinamento in capo agli intermediari nei confronti degli investitori e la cui ampiezza dipende dal grado di trasparenza dei contratti e dal livello di standardizzazione degli stessi. Il rischio di controparte comporta invece che – in una rete di posizioni bilaterali – una controparte risulti inadempiente prima della data prevista per il regolamento (recte l’esecuzione) del contratto. Il rischio sistemico è invece la ripercussione a livello macroeconomico dell’effetto combinato dei primi due.
Nel complesso, le applicazioni di intelligenza artificiale e machine learning da parte dei partecipanti al mercato hanno carattere graduale e risultano settorializzate ad adempimenti determinati al fine di ottimizzare fasi specifiche della loro attività. Una revisione rapida e dirompente dei processi aziendali sembra un’ipotesi piuttosto remota; fra le cause l’Autorità annovera una varietà di fattori, quali i vincoli tecnologici, le preferenze dei clienti e l’incertezza del quadro normativo vigente. Su quest’ultimo aspetto, non sussistono particolari ostacoli posti dai legislatori alla diffusione della tecnologia basata sull’intelligenza artificiale, ma la prospettiva di un uso regolato dell’AI è accolta con favore dagli operatori e contribuirebbe a ridurre la diffidenza che molti player nutrono nei confronti della sua adozione.
I BENEFICI
In conclusione l’ESMA ha registrato come l’uso di queste tecnologie non abbia ancora carattere pervasivo nei mercati finanziari con riferimento ai cicli di vita di trading e post-trading, tuttavia gli apparentemente limitati impieghi attuali offrono già benefici concretamente apprezzabili con particolare riferimento alla esecuzione di ordini nella post-negoziazione; segnatamente: una migliore gestione dell’esecuzione di ordini massicci e sequenziali, una ottimale allocazione delle risorse disponibili ed una maggiore capacità di prevedere i fallimenti di mercato.
L’aspettativa di lungo periodo degli operatori è riuscire a facilitare i propri processi decisionali e, ad avviso dell’Autorità, “l’intelligenza artificiale ha il potenziale per rendere i processi aziendali e decisionali critici significativamente più veloci, più complessi e apparentemente meno trasparenti, tutti aspetti centrali della regolamentazione e della vigilanza“. Al fine di mitigare i rischi derivanti dalla complessità di alcuni sistemi di AI e dai volumi spesso ingenti di dati utilizzati, pare dunque necessario apprestare presidi di governance adeguati tali da garantire un’efficace ripartizione delle responsabilità dei fornitori e degli utenti.
In quest’ottica, è possibile affermare che i rischi connessi all’uso dell’intelligenza artificiale nei mercati finanziari sono rilevanti ma sembrano essere ancora limitati e pertanto gestibili con una adeguata supervisione dei processi in atto. Per quanto illustrato, tuttavia, le istanze di protezione dei soggetti controinteressati ad un impiego consapevole e circostanziato dell’intelligenza artificiale sui mercati sollecitano un costante monitoraggio sugli sviluppi dell’AI, affinché anche i rischi potenziali siano ben compresi e presi in considerazione.