di Andrea Lepone
I settori in cui l’Intelligenza Artificiale sta rivoluzionando il nostro vivere sono già numerosi e destinati a crescere. Pensiamo, per citarne alcuni, all’istruzione, al diritto, alla finanza, alla chimica, alla farmacia, alla medicina, all’agricoltura e al giornalismo, tra gli altri.
Innanzi ad un processo di espansione dell’IA a ritmi esponenziali, diventa dunque importante non trascurare una questione da considerare come priorità assoluta: la “spiegabilità dell’IA”. Essa è la capacità di comprendere come un sistema di IA prende le sue decisioni, ovvero di capire in termini umani perché un sistema di IA ha assunto una determinata decisione, prodotto un determinato effetto o più in generale generato questo o quel tipo di output.
Se non possiamo capire come un algoritmo di IA abbia elaborato una particolare previsione o decisione, come possiamo fidarci dei suoi risultati? La spiegabilità in tutti questi contesti non è solo una questione di fiducia, ma può avere implicazioni dirette sulla vita delle persone, sulla loro salute, sul loro apprendimento, sulla giustizia e sulle condizioni economiche. Per fare qualche esempio, nel settore dell’istruzione, l’IA può personalizzare l’istruzione per ogni studente, identificare le aree in cui gli studenti potrebbero avere bisogno di supporto aggiuntivo e fornire feedback in tempo reale. Ma se non possiamo comprendere come un sistema di IA giunga a una particolare decisione o previsione, come possiamo garantire che l’istruzione sia equa ed efficace? La “spiegabilità dell’IA” qui è fondamentale per garantire un apprendimento equo e personalizzato. Ed ancora: in campo giuridico gli algoritmi di previsione potrebbero essere in grado di analizzare i dati storici dei casi giudiziari per prevedere l’esito di un caso e ciò potrebbe aiutare le parti del processo a costruire strategie più efficaci e aiutare i giudici a prendere decisioni più informate. La stessa IA potrebbe essere utilizzata per monitorare le decisioni giudiziarie e identificare eventuali pregiudizi o disparità, contribuendo a garantire che il sistema giudiziario sia equo e imparziale. Ciò necessiterebbe di sistemi di IA complessi, dove sarebbe difficile capire come il sistema stia effettivamente fornendo i suoi output, un problema particolarmente rilevante nel diritto, dove la motivazione di una decisione è spesso altrettanto importante quanto la decisione stessa. Ma a questo punto viene da chiedersi: se non possiamo capire come un sistema di IA arrivi a una particolare decisione, come possiamo garantire che sia giusta e imparziale? La “spiegabilità” anche qui, come nel caso dell’istruzione, è fondamentale, per garantire nello specifico la giustizia e l’equità. Inoltre, a proposito di “spiegabilità”, un altro aspetto da considerare riguarda i casi in cui un sistema di IA controlla o monitora un altro sistema di IA, in un processo a cascata che potrebbe sfuggire alla comprensione umana. Questa complessità può aumentare ulteriormente se ci sono molti di questi “livelli” di IA, rendendo estremamente difficile per gli esseri umani capire come il sistema nel suo insieme stia prendendo le sue decisioni. Questo scenario solleva questioni non solo di spiegabilità, ma anche di controllo. Se non possiamo comprendere pienamente come questi sistemi interconnessi di IA stiano operando, come possiamo sperare di esercitare un controllo efficace o una regolamentazione adeguata? Vero è che un ruolo determinante nel campo della spiegabilità già lo stanno avendo, e lo avranno sempre più in futuro, i ricercatori che stanno sviluppando nuovi metodi e tecniche per migliorare la spiegabilità dell’IA, come l’apprendimento automatico interpretabile, che cerca di creare modelli di IA che non solo sono precisi, ma anche facilmente comprensibili per gli esseri umani nella direzione di assicurare i migliori risultati dell’IA salvaguardando i valori fondamentali della società.