L’intelligenza artificiale (IA) rappresenta una delle tecnologie più promettenti e, allo stesso tempo, più complesse dell’ultimo secolo. In risposta alla rapida diffusione di queste tecnologie, l’Unione Europea ha proposto una normativa, ossia l’IA Act. Questo regolamento mira a creare un quadro giuridico chiaro e coerente per l’uso dell’intelligenza artificiale all’interno dell’UE, affrontando le sfide etiche e tecniche che essa comporta.
Cos’è l’IA Act?
L’IA Act è una proposta di regolamento presentata dalla Commissione Europea nel 2021, che mira a disciplinare l’uso dell’intelligenza articiale in modo proporzionato al rischio associato. È entrata in vigore il 2 Agosto 2024.
A differenza di altre normative, come il GDPR, l’IA Act non riguarda solo la protezione dei dati personali, ma tocca anche aspetti legati alla sicurezza, all’affidabilità e all’impatto sociale delle tecnologie di intelligenza artificiale.
Gli Obiettivi dell’IA Act
Gli obiettivi dell’IA Act possono essere riassunti in quattro punti principali:
Protezione dei diritti fondamentali
La legge si propone di salvaguardare i diritti fondamentali degli individui, come la privacy, la non discriminazione e la dignità umana. Questo implica che i sistemi di intelligenza artificiale non devono essere utilizzati in modi che possano violare questi diritti, come nel caso di applicazioni pericolose o invasive, ad esempio la sorveglianza di massa.
Promozione dell’innovazione
Sebbene l’IA Act imponga una serie di restrizioni e obblighi, intende anche promuovere l’innovazione all’interno dell’UE. La normativa cerca di trovare un equilibrio tra la necessità di regolamentare tali sistemi e l’obiettivo di sostenere lo sviluppo di nuove tecnologie, garantendo che l’Europa rimanga competitiva a livello globale.
Garanzia della chiarezza giuridica
Uno degli scopi fondamentali dell’IA Act è fornire un quadro giuridico chiaro per le aziende e i ricercatori che sviluppano o utilizzano sistemi di intelligenza artificiale. Ciò riduce l’incertezza legale e facilita l’adozione di queste tecnologie in modo conforme alle leggi.
Rapporto di fiducia
Perché l’intelligenza artificiale venga accettata e utilizzata a pieno potenziale, è necessario che ci sia fiducia tra i cittadini e gli utenti. L’IA Act mira a costruire questa fiducia attraverso la trasparenza e la responsabilità, assicurando che questi sistemi siano progettati e utilizzati in modo responsabile.
Categorizzazione del rischio
Uno dei pilastri dell’IA Act è la categorizzazione dei sistemi in base al rischio che rappresentano. La legge propone una classificazione che li suddivide in quattro categorie principali:
- Rischio inaccettabile: include sistemi di che rappresentano una minaccia per la sicurezza, i diritti fondamentali o la dignità umana. Un esempio potrebbe essere l’utilizzo dell’intelligenza artificiale per il social scoring, ossia sistemi che valutano i comportamenti online e offline dei cittadini assegnando loro un punteggio.
- Rischio alto: comprende sistemi di IA che richiedono una regolamentazione rigorosa e che devono essere soggetti a valutazioni di conformità prima della loro immissione sul mercato. Tra questi rientrano i sistemi utilizzati in settori critici come la sanità, i trasporti e l’istruzione.
- Rischio limitato: si tratta di sistemi che presentano un rischio moderato e che devono rispettare specifici requisiti di trasparenza. Gli utenti devono essere informati che stanno interagendo con un sistema di intelligenza artificiale (es. chatbot o applicazioni di riconoscimento vocale).
- Rischio minimo: comprende tutte le altre applicazioni di IA che presentano un rischio minimo o nullo per i diritti e la sicurezza degli individui. Questi sistemi non sono soggetti a requisiti particolari.
Uniformarsi alle regole: la risposta degli Stati membri
Per uniformarsi all’IA Act, gli Stati membri dell’UE dovranno implementare una serie di misure e adattare le proprie legislazioni nazionali. Questo include la creazione di autorità competenti per la supervisione e il monitoraggio dei sistemi di IA, la definizione di sanzioni per il mancato rispetto delle regole, e la promozione di pratiche di conformità tra le aziende. In particolare, gli Stati membri dovranno:
- Istituire autorità nazionali di supervisione: queste autorità avranno il compito di garantire che i sistemi di IA siano conformi alle normative e di intervenire in caso di violazioni.
- Promuovere la formazione e l’educazione: è essenziale che i professionisti e i cittadini comprendano le implicazioni dell’IA e le regole stabilite dall’IA Act. Gli Stati membri saranno incoraggiati a promuovere programmi di formazione e sensibilizzazione.
- Introdurre figure competenti: sarà essenziale che alcune figure lavorative vengano introdotte ed implementate, ad esempio la figura del CISO (Chief Information Security Officer), poiché rappresenta il punto di riferimento per la sicurezza delle informazioni e la gestione del rischio all’interno delle organizzazioni. Integrare tale ruolo permette di affrontare in modo più efficace le sfide poste dall’introduzione e dall’uso dei sistemi di intelligenza artificiale.
- Collaborare a livello europeo: la cooperazione tra Stati membri sarà fondamentale per garantire l’efficacia dell’IA Act. Le autorità nazionali dovranno lavorare a stretto contatto con l’Agenzia europea per l’Intelligenza Artificiale, che avrà il compito di coordinare le iniziative e promuovere lo scambio di informazioni.
Impatti e considerazioni sul diritto informatico
L’IA Act avrà un impatto significativo sul panorama del diritto informatico, in quanto introduce nuove responsabilità per gli sviluppatori, i fornitori e gli utenti di sistemi di IA. Le aziende dovranno assicurarsi che i loro prodotti siano conformi non solo alle leggi nazionali, ma anche a quelle europee, il che potrebbe comportare la necessità di investire in nuovi processi di conformità e di gestione del rischio.
Sebbene il regolamento offra un quadro che mira a proteggere i diritti dei cittadini, gli Stati membri e le imprese dovranno affrontare numerose sfide per conformarsi alle nuove regole, ma questa legge potrebbe stabilire un nuovo standard globale per la regolamentazione dell’IA, influenzando non solo l’Europa, ma anche altri paesi nel mondo.
Dobbiamo considerare che una legge come questa risulti essere assolutamente necessaria, in quanto tali sistemi presentano un grande potenziale, ma anche un grande rischio per gli utenti non alfabetizzati ed informati adeguatamente riguardo i rischi a cui vanno incontro. Siamo di fronte a nuovi tipi di tecnologie di cui non conosciamo ancora neanche tutte le loro potenzialità. Un po’ come quando Benigni in “Non ci resta che piangere” ha presentato delle innovazioni tecnologiche a Leonardo Da Vinci, rendendosi contro di non conoscerne assolutamente la struttura, ma solo la più banale utilità. Allo stesso modo quasi tutti gli utenti di sistemi dotati di IA non sono a conoscenza del potenziale che usano, né dei rischi che potrebbero conseguire.
Tutto ciò considerando che ad oggi i creatori e programmatori di questo genere di nuove tecnologie sono davvero un piccolo gruppo elitario, di conseguenza la regolamentazione risulta essere molto più che indispensabile.