I sistemi più recenti di intelligenza artificiale, come ad esempio quelli basati su deep learning, benché solitamente molto accurati, spesso non consentono una facile compresione delle dinamiche che li portano a generare le proprie “predizioni”.
L’Explainable AI è un campo di ricerca che studia come meglio comprendere ed interpretare sistemi opachi, quali ad esempio le reti neurali, attraverso l’uso di “spiegazioni”. Tali spiegazioni consentono di identificare i meccanismi di funzionamento interni di questi sistemi e conseguentemente di capire se potervi fare affidamento per prendere decisioni. Ad esempio una spiegazione per una predizione corretta generata da una rete neurale consente di capire se tale predizione è corretta per i motivi giusti. Oppure una spiegazione può aiutare a capire per quali ragioni un sistema basato su AI produce una predizione sbagliata e, conseguentemente, può aiutare a capire come migliorare il sistema (o i dati utilizzati per addestrarlo).
In questo intervento vedremo una panoramica sul campo dell’explainable AI, illustrando alcune delle tecniche più conosciute per la generazione di spiegazioni; a seguire verranno presentate delle tecniche di Explainable AI specifiche per sistemi che utilizzano AI per task di data management. Infine vedremo come alcune spiegazioni possono operativamente essere utilizzate per migliorare i sistemi stessi.
Tommaso Teofili è Principal Software Engineer a Red Hat e dottorando all’Università Roma Tre. Svolge attività di ricerca e sviluppo nel campo dell’Explainable AI, nonché appassionato di tematiche di NLP e Information Retrieval. Contribuisce attivamente a diversi progetti open source come membro dell’Apache Software Foundation.
Riferimenti:
Opportunities and Challenges in Explainable Artificial Intelligence (XAI): A Survey
TrustyAI Explainability Toolkit
Effective Explanation for Entity Resolution Models