Cosa è la Trustworthy AI
La Trustworthy AI è l’Intelligenza Artificiale sostenibile, affidabile, di cui ci si può fidare, che promuove il benessere degli esseri umani e dell’ambiente e rispetta i diritti umani fondamentali. E’ diventata una necessità sempre più urgente. Perché sulla fiducia si costruiscono le fondamenta delle società, delle economie, del loro sviluppo sostenibile e gli individui e le organizzazioni saranno quindi in grado di realizzare il pieno potenziale dell’Intelligenza Artificiale solo se è possibile stabilire la fiducia nel suo sviluppo, distribuzione e utilizzo. Così sarà possibile mitigarne o addirittura prevenirne i rischi e i pericoli. La tecnologia dell’intelligenza artificiale (AI) continua infatti a fare passi da gigante e sta diventando un abilitatore essenziale per le aziende di ogni settore. In questa fase, uno degli ostacoli alla diffusione dell’AI su larga scala non è più la tecnologia stessa; piuttosto, è un insieme di sfide che paradossalmente sono molto più umane: etica, governance e valori.
Trattasi di un campo di ricerca altamente interdisciplinare e dinamico. Il gruppo di esperti indipendenti di Intelligenza Artificiale della Commissione Europea ha pubblicato le sue linee guida per la Trustworthy AI all’inizio del 2019. Queste linee guida hanno rapidamente preso piede nella ricerca e nella pratica e hanno gettato le basi per l’adozione del termine Trustworthy AI in altre linee guida e principi quadro come quelli dell’OCSE e della Casa Bianca.
Man mano che l’AI si espande in quasi ogni aspetto della vita moderna, i rischi di un comportamento scorretto dell’AI aumentano in modo esponenziale, al punto che quei rischi possono letteralmente diventare una questione di vita o di morte. Esempi di AI scorretta includono sistemi che discriminano le persone in base alla loro razza, età o sesso e sistemi di social media che diffondono disinformazione. Questi esempi sono solo la punta dell’iceberg. Man mano che l’AI viene implementata su scala più ampia, i rischi associati aumenteranno probabilmente, con conseguenze potenzialmente gravi per la società in generale e conseguenze ancora maggiori per le aziende responsabili. Dal punto di vista aziendale, queste potenziali conseguenze includono qualsiasi cosa, da azioni legali, multe, clienti arrabbiati, imbarazzo, danni alla reputazione e distruzione di valore per gli azionisti.
Tuttavia, poiché l’AI sta diventando una capacità aziendale richiesta, non solo un “nice to have”, le aziende non hanno più la possibilità di evitare i rischi dell’AI semplicemente evitando del tutto l’AI. Devono invece imparare a identificare e gestire i rischi in modo efficace. Per sfruttare il potenziale della collaborazione tra uomo e macchina, le organizzazioni devono avere un piano per l’AI che venga adottato in ogni reparto o funzione. Disponendo di un quadro etico, le organizzazioni creano un linguaggio comune attraverso il quale articolare la fiducia e contribuire a garantire l’integrità dei dati tra tutti i loro stakeholder interni ed esterni. Avere una struttura e un obiettivo comuni per applicare la governance e la gestione dei rischi associati all’AI in modo coerente in tutta l’azienda può consentire un’adozione più rapida e coerente dell’AI.
Per affrontare meglio le sfide relative all’etica e alla governance dell’IA, occorre conoscere alcune dimensioni chiave che, se considerate nella progettazione, sviluppo e fasi operative dell’implementazione del sistema di intelligenza artificiale, possono aiutare a salvaguardare l’etica e costruire una strategia di intelligenza artificiale affidabile.
Le caratteristiche dell’intelligenza artificiale “trustworthy”
Giusta e non di parte
Un’AI affidabile deve essere progettata e formata per seguire un processo equo e coerente e prendere decisioni eque. Deve includere anche controlli interni ed esterni per ridurre i pregiudizi discriminatori. Il pregiudizio (bias) è una sfida continua per gli esseri umani e la società, non solo per l’AI. Tuttavia, la sfida è ancora più grande per l’AI perché manca di una comprensione sfumata degli standard sociali, per non parlare del “buon senso” e tutto questo può portare a decisioni tecnicamente corrette ma socialmente inaccettabili. L’intelligenza artificiale apprende dai set di dati utilizzati per addestrarla e, se tali set di dati contengono pregiudizi del mondo reale, i sistemi di intelligenza artificiale possono apprendere, amplificare e propagare tali bias a velocità e scala digitale. Ad esempio, un sistema di intelligenza artificiale sviluppato per inserire annunci di lavoro online potrebbe indirizzare ingiustamente annunci per lavori più remunerati ai visitatori maschi di un sito web perché i dati del mondo reale mostrano che gli uomini in genere guadagnano più delle donne. Allo stesso modo, una società di servizi finanziari che utilizza l’AI per esaminare le domande di mutuo potrebbe scoprire che il suo algoritmo discrimina ingiustamente le persone in base a fattori socialmente non accettabili, come razza, sesso o età. In entrambi i casi, la società responsabile dell’AI potrebbe subire conseguenze significative, comprese sanzioni normative e danni alla reputazione. Per evitare problemi legati all’equità e al pregiudizio, le aziende devono prima determinare ciò che considerano “equo”. Questo può essere molto più difficile di quanto sembri poiché per ogni dato problema generalmente non esiste un’unica definizione di “giusto” su cui tutte le persone siano d’accordo. Le aziende devono anche cercare attivamente le distorsioni all’interno dei loro algoritmi e dati, apportando le modifiche necessarie e implementando i controlli per garantire che ulteriori distorsioni non si manifestino inaspettatamente. Quando viene rilevata una distorsione, è necessario comprenderla e quindi mitigarla attraverso processi consolidati per risolvere il problema e ricostruire la fiducia dei clienti.
Trasparente e spiegabile
Affinché ci si possa fidare dell’AI, tutti i partecipanti hanno il diritto di capire come vengono utilizzati i loro dati e come l’AI prende le decisioni. Gli algoritmi, gli attributi e le correlazioni dell’AI devono essere aperti all’ispezione e le sue decisioni devono essere completamente spiegabili. Poiché le decisioni e i processi che si basano sull’AI aumentano sia in numero che in importanza, l’AI non può più essere trattata una “scatola nera” che riceve input e genera output senza una chiara comprensione di ciò che sta accadendo all’interno. Ad esempio, i Retailer online che utilizzano l’intelligenza artificiale per fornire consigli sui prodotti ai clienti possono subire pressioni per spiegare i loro algoritmi e come vengono prese le decisioni sui consigli. Tra le questioni importanti da considerare in quest’area figurano l’identificazione dei casi d’uso dell’IA per i quali la trasparenza e la spiegabilità sono particolarmente importanti e quindi la comprensione di quali dati vengono utilizzati e come vengono prese le decisioni per tali casi d’uso. Inoltre, per quanto riguarda la trasparenza, c’è una crescente pressione per informare esplicitamente le persone quando interagiscono con l’AI, invece di tenere l’AI mascherata da persona reale.
Responsabile
I sistemi di AI degni di fiducia devono permettere di stabilire chi è responsabile degli output. Incolpare la tecnologia stessa per decisioni sbagliate ed errori di calcolo non è sufficiente, non per le persone che vengono danneggiate, e certamente non per le autorità di regolamentazione. Questo è un problema chiave che probabilmente diventerà sempre più importante man mano che l’AI viene utilizzata per applicazioni sempre più critiche come la diagnosi delle malattie, la gestione patrimoniale e la guida autonoma. Ad esempio, se un veicolo senza conducente provoca una collisione, chi è responsabile del danno? L’autista? Il proprietario del veicolo? Il produttore? I programmatori di intelligenza artificiale? L’amministratore delegato della società? Allo stesso modo, si consideri l’esempio di una società di investimento che utilizza una piattaforma automatizzata basata sull’AI per operare per conto dei propri clienti. Se un cliente investe i suoi risparmi di una vita attraverso quella società e poi perde tutto a causa di algoritmi scadenti, dovrebbe esserci un meccanismo in atto per identificare chi è responsabile del problema e chi è responsabile di sistemare le cose. Occorre analizzare quali leggi e regolamenti potrebbero determinare la responsabilità legale e se i sistemi di AI sono verificabili e coperti dalle leggi esistenti. Ma anche come verranno comunicati i problemi al pubblico e alle autorità di regolamentazione e quali conseguenze dovranno affrontare le parti responsabili.
Robusta
Affinché l’AI possa ottenere un’adozione diffusa, deve essere robusta almeno quanto i sistemi, i processi e le persone tradizionali che migliora o sostituisce. Affinché l’AI sia considerata affidabile, deve essere disponibile quando dovrebbe essere disponibile e deve generare output coerenti e affidabili, eseguendo attività correttamente in condizioni non ideali e quando si incontrano situazioni e dati imprevisti. Un’AI affidabile deve crescere bene, rimanendo solida e affidabile man mano che il suo impatto si espande e cresce. E se fallisce, deve fallire in un modo prevedibile e previsto. Si consideri l’esempio di un’azienda sanitaria che utilizza l’AI per identificare anomalie nelle scansioni cerebrali e prescrivere un trattamento appropriato. Per essere affidabile, è assolutamente essenziale che gli algoritmi producano risultati coerenti e affidabili poiché potrebbero essere in gioco vite umane.
Rispettosa della privacy
La privacy è una questione critica per tutti i tipi di sistemi di dati, ma è lo è particolarmente per l’AI dal momento che le sofisticate informazioni generate dai sistemi di intelligenza artificiale spesso derivano da dati più dettagliati e personali. Un’AI affidabile deve rispettare le normative sui dati e utilizzare i dati solo per gli scopi dichiarati e concordati. Il problema della privacy dell’AI spesso si estende oltre le mura di un’azienda. Ad esempio, la privacy dei dati audio acquisiti dagli assistenti vocali ha fatto notizia di recente, con controversie sorte sulla misura in cui i fornitori e i partner di un’azienda hanno accesso ai dati e se i dati debbano essere condivisi con le forze dell’ordine. Le aziende devono indicare quali dati dei clienti vengono raccolti e perché, e se i dati vengono utilizzati nel modo in cui i clienti hanno compreso e concordato. Inoltre, ai clienti dovrebbe essere concesso il livello di controllo richiesto sui propri dati, inclusa la possibilità di accettare o rifiutare la condivisione dei propri dati. E se i clienti hanno dubbi sulla privacy dei dati, hanno bisogno di percorsi per esprimere tali preoccupazioni.
Sicura e protetta
Per essere affidabile, l’AI deve essere protetta dai rischi per la sicurezza informatica che potrebbero causare danni fisici e/o digitali. Sebbene la sicurezza e la protezione siano chiaramente importanti per tutti i sistemi informatici, sono particolarmente cruciali per l’AI a causa del ruolo e dell’impatto ampi e crescenti dell’AI sulle attività del mondo reale. Ad esempio, se un sistema finanziario basato sull’intelligenza artificiale viene violato, il risultato potrebbe essere un danno alla reputazione e la perdita di denaro o dati. Queste sono gravi conseguenze, ovviamente. Tuttavia, non sono così gravi come le potenziali conseguenze dell’hacking di un veicolo guidato dall’intelligenza artificiale, che potrebbe mettere a rischio la vita delle persone. Un altro esempio di rischio per la sicurezza informatica dell’AI è una recente violazione dei dati che ha coinvolto milioni di impronte digitali e record di riconoscimento facciale . Questa violazione è stata particolarmente grave perché ha coinvolto i dati biometrici delle persone, che sono permanenti e non possono essere modificati (a differenza di una password rubata o di altri tipi di dati standard che possono essere modificati rapidamente e facilmente per limitare i danni). Per contribuire a garantire la sicurezza e la protezione dei loro sistemi di intelligenza artificiale, le aziende devono considerare e affrontare a fondo tutti i tipi di rischi esterni, fisici e digitali e quindi comunicare tali rischi agli utenti. Sebbene i rischi esterni tendano ad ottenere la massima attenzione, i rischi interni come le frodi possono essere altrettanto gravi. Per ogni caso d’uso dell’AI, le aziende devono valutare se i potenziali benefici superano sufficientemente i rischi associati.