Home Blog AI Act: una svolta e ...

AI Act: una svolta epocale per la regolamentazione delle applicazioni dell’Intelligenza Artificiale

Fabrizio Milano d'Aragona

L’Unione Europea ha compiuto un passo significativo verso la regolamentazione dell’Intelligenza Artificiale, con l’approvazione da parte del Parlamento Europeo dell’AI Act in data 14 giugno 2023. Questo atto legislativo rappresenta la prima regolamentazione dell’Intelligenza Artificiale e mira a proteggere i diritti e i valori dell’UE.

Il processo di approvazione finale è previsto entro la fine dell’anno, e si ipotizza che le nuove regole entreranno in vigore tra il 2024 e il 2025: prima di diventare ufficialmente legge, infatti, i dettagli del regolamento dovranno essere discussi con il Consiglio dell’UE e con la Commissione europea.

L’AI Act stabilisce un quadro giuridico uniforme per regolamentare lo sviluppo, la commercializzazione e l’uso dei sistemi di AI, garantendo al contempo la compliance con le normative e la tutela di cittadini e imprese.

Un passo importante che ha consolidato la volontà dell’UE di porsi come leader mondiale nella regolamentazione tecnologica. 

L’AI Act fa parte della più ampia strategia “A Europe fit for the digital age” delineata dalla Commissione europea: il testo definisce i livelli di rischio associati ai diversi sistemi di AI  e ne classifica le applicazioni in base alla pericolosità. I sistemi “a rischio inaccettabile”, che costituiscono una minaccia per le persone e i loro diritti, sono vietati. 

Un esempio concreto molto semplice? I modelli di AI generativa, come ChatGPT di OpenAI e Bard di Google, saranno consentiti, così come l’utilizzo dei loro output, ma solo a condizione che questi ultimi siano chiaramente etichettati come generati tramite AI.

 

Il punto di vista di Datrix sull’AI Act

Questi provvedimenti europei sull’AI sono un passo importante per affrontare le sfide legate all’evoluzione dell’intelligenza artificiale, anche se si tratta appunto di un primo passo: dovremo rimanere in attesa di comprendere l’evoluzione della normativa e come verrà applicata.

Infatti, definire principi e linee guida per la tutela dei cittadini nell’utilizzo dell’AI è indubbiamente necessario e positivo. Tuttavia, il modo in cui queste regole saranno formulate farà tutta la differenza. È fondamentale coinvolgere attivamente attori con competenze tecniche e di business nella creazione delle regolamentazioni. Questo aspetto è cruciale poiché le decisioni prese avranno un impatto significativo sullo sviluppo industriale.

Il fatto che le istituzioni stiano discutendo di temi legati all’AI indica quanto siano diventati cruciali nell’attuale contesto: queste tematiche sono particolarmente importanti nell’ottica di promuovere lo sviluppo industriale, ma è altrettanto fondamentale evitare di essere troppo rigidi nel regolamentare ogni aspetto. La transizione verso un utilizzo più consapevole dell’intelligenza artificiale è inevitabile, ma la normativa non deve essere bloccante e le regole devono essere chiare e comprensibili.

 

AI Act: tra normativa e progresso, tutela e innovazione

È impensabile bloccare le aziende europee, specialmente le PMI e le startup, in questo processo. È una sfida complessa poiché c’è il rischio di rimanere indietro rispetto ad altre realtà internazionali. Ovviamente, la normativa è necessaria, ma è altrettanto importante garantire risorse e incentivi alle imprese e all’ecosistema affinché possano integrare e implementare l’IA in modo efficace e conforme alle regole stabilite.

Come abbiamo già vissuto con la digitalizzazione, c’è un innegabile lato positivo nel progresso tecnologico, ma anche un “dark side” che richiede attenzione. Pertanto, è giusto stabilire linee guida che regolamentino l’applicazione dell’AI, ma le nuove norme dovrebbero evitare un essere di burocratizzazione, pena il rallentamento del mondo delle imprese e il rischio di rimanere indietro, come UE, rispetto al resto del mondo. 

Proprio come è avvenuto con la digital transformation, che in Italia ha avuto una lenta adozione, per poi accelerare a seguito della pandemia, è necessario supportare il cambiamento e non frenarlo. Nel contesto della digitalizzazione, ad esempio, i giganti del web stavano già emergendo e innovando il modo di fruire i principali servizi del quotidiano, con gli utenti già impegnati in un uso massiccio dell’online e dell’e-commerce, mentre i governi discutevano su come regolamentare il tutto. 

Va sottolineato che gli algoritmi e i sistemi di AI evolvono a una velocità vertiginosa, il che rende essenziale fissare paletti chiari, ma evitando eccessive complicazioni burocratiche. Troppo vincoli potrebbero comportare la necessità di continui aggiornamenti normativi. Quindi, è necessario trovare un equilibrio tra regolamentazione e flessibilità per assicurare un adeguato sviluppo e utilizzo dell’AI nel panorama europeo e globale.

L’obiettivo principale della normativa dovrebbe essere, quindi, quello di aiutare le aziende a trasformarsi e quello di comprendere i reali bisogni della società contemporanea.

Attualmente, l’AI viene ampiamente applicata dai grandi attori digitali e dagli operatori finanziari, ma molti settori e funzioni stanno iniziando a muovere i primi passi in questa direzione. In questo senso, i modelli di AI deputati all’efficientamento dei processi industriali ed energetici saranno sempre più cruciali nel prossimo futuro.

L’AI trova la propria utilità nella capacità di elaborare una mole di dati che sta aumentando esponenzialmente: questi dati devono essere interpretati e utilizzati, altrimenti rappresentano solo un dispendio ulteriore di denaro e una maggiore complessità per le imprese. Sfruttare l’AI in modo strategico significa migliorare l’efficienza operativa e garantire maggiore ottimizzazione di tempo, spazio e risorse. 

 

 

Appendice

Applicazioni consentite e non consentite dell’AI per le imprese, cosa contiene ad oggi l’AI Act

L’Artificial Intelligence Act prevede diverse applicazioni e sanzioni per garantire la sicurezza, la trasparenza e l’etica dell’Intelligenza Artificiale in Europa. Ovviamente, sarà concesso del tempo alle aziende per adeguarsi alle nuove norme, e potrebbe essere introdotto un codice di condotta volontario per le principali aziende sviluppatrici di AI.

Ecco i punti chiave messi in evidenza nell’AI Act, fonte Altalex.

La classificazione del rischio sull’uso di tecnologie AI-based

L’AI Act classifica le applicazioni dell’IA in quattro livelli di rischio:

  • rischio inaccettabile,
  • rischio elevato,
  • rischio limitato
  • rischio minimo o nullo

I sistemi a rischio inaccettabile, che rappresentano una minaccia per la sicurezza e i diritti delle persone, sono vietati. 

Divieto di applicazioni basate su dati sensibili e biometrici

L’AI Act vieta la categorizzazione biometrica basata su attributi o caratteristiche sensibili, come sesso, razza o etnia, o persino riconoscimento delle emozioni in determinati contesti. Ciò mira a prevenire la discriminazione e a proteggere i diritti umani.

Non solo, vietata l’identificazione biometrica remota: la norma impone restrizioni all’uso dell’identificazione biometrica a distanza in spazi accessibili al pubblico, al netto di controlli da parte delle istituzioni deputate alla pubblica sicurezza.

Sanzioni per manipolazione e vulnerabilità

I sistemi di AI che utilizzano tecniche manipolative, subliminali o che sfruttano le vulnerabilità di individui o gruppi specifici sono considerati a rischio inaccettabile e – ça va sans dire – vietati.

Protezione della salute e dell’ambiente

L’AI Act copre anche rischi ambientali e infrastrutture critiche, come le reti energetiche. I sistemi di AI in questi settori devono essere conformi agli standard ambientali europei e agli standard di impronta ecologica.

Settori ad alto rischio

L’AI Act identifica diversi settori in cui l’uso dell’intelligenza artificiale può comportare un rischio significativo per la salute, la sicurezza o i diritti fondamentali delle persone.

Questi includono infrastrutture critiche, formazione educativa o professionale, componenti di sicurezza dei prodotti, occupazione, servizi privati e pubblici essenziali, applicazione della legge, gestione della migrazione e dell’asilo, amministrazione della giustizia e processi democratici.

Obblighi per sistemi ad alto rischio

I sistemi di AI considerati ad alto rischio devono soddisfare obblighi rigorosi prima di poter essere immessi sul mercato. Ciò include la valutazione e la mitigazione dei rischi, l’informazione chiara e dettagliata per gli utenti, la documentazione completa per le autorità, la registrazione delle attività e altro ancora.