With the advent of increasingly powerful and effective machine learning and artificial intelligence models, the fields of application for these algorithms have multiplied over time and the financial sector is one of these fields. There has been a rapid expansion of robot advisory services specializing in asset allocation that are able to fully harness the potential of these Machine Learning models. These automated advisors not only cut down on costs but also enhance service quality by engaging investors and fostering market transparency. However, the main criticism levelled against these tools is their limited ability to explain the logic behind the proposed solutions, leaving users grappling with a complex black-box model. The aim of this study is to propose a methodology that can make the results obtained understandable and interpretable. To achieve this goal, we employ Shapley values to analyze predictions generated by a machine learning model, which is based on the outcomes of a dynamic Markowitz portfolio optimization model. This approach offers explanations for the chosen portfolio weights, thereby improving transparency and trust in the advisory process.
Intelligenza Artificiale spiegabile per l’ottimizzazione di portafoglio Con l'avvento di modelli di machine learning e intelligenza artificiale sempre più potenti ed efficaci, i campi di applicazione di questi algoritmi si sono moltiplicati nel tempo. Il settore finanziario è uno tra questi. Negli ultimi anni si è verificata una rapida espansione dei servizi di robo advisor, specializzati nella gestione di portafoglio, che sono in grado di sfruttare appieno il potenziale di questi modelli di Machine Learning. Tali consulenti virtuali, non solo riducono i costi, ma migliorano anche la qualità del servizio coinvolgendo gli investitori e promuovendo la trasparenza del mercato. Tuttavia, la principale critica rivolta a questi strumenti è la loro limitata capacità di spiegare la logica dietro le soluzioni proposte, lasciando gli utenti alle prese con un modello complesso che non rende evidenti i parametri che più hanno avuto impatto sull’output finale. Lo scopo di questo studio è proporre una metodologia che possa rendere comprensibili e interpretabili i risultati ottenuti. Per raggiungere questo obiettivo, utilizziamo i valori di Shapley per analizzare le previsioni generate da un modello di machine learning che ottimizza un portafoglio sulla base di una variazione del modello di Markowitz. Questo approccio rende esplicite le motivazioni alla base dei pesi suggeriti, migliorando così la trasparenza e la fiducia nel processo di consulenza.
Explainable Artificial Intelligence for portfolio optimization
APIS, LORENZO
2022/2023
Abstract
With the advent of increasingly powerful and effective machine learning and artificial intelligence models, the fields of application for these algorithms have multiplied over time and the financial sector is one of these fields. There has been a rapid expansion of robot advisory services specializing in asset allocation that are able to fully harness the potential of these Machine Learning models. These automated advisors not only cut down on costs but also enhance service quality by engaging investors and fostering market transparency. However, the main criticism levelled against these tools is their limited ability to explain the logic behind the proposed solutions, leaving users grappling with a complex black-box model. The aim of this study is to propose a methodology that can make the results obtained understandable and interpretable. To achieve this goal, we employ Shapley values to analyze predictions generated by a machine learning model, which is based on the outcomes of a dynamic Markowitz portfolio optimization model. This approach offers explanations for the chosen portfolio weights, thereby improving transparency and trust in the advisory process.È consentito all'utente scaricare e condividere i documenti disponibili a testo pieno in UNITESI UNIPV nel rispetto della licenza Creative Commons del tipo CC BY NC ND.
Per maggiori informazioni e per verifiche sull'eventuale disponibilità del file scrivere a: unitesi@unipv.it.
https://hdl.handle.net/20.500.14239/3693