05/11/2024 Elearning Formazione
I rischi dell'AI definiti dal Regolamento (UE) 2024/1689
Il
Regolamento (UE) 2024/1689 del 13.06.24 (Pubblicato in Gazz. Ufficiale
dell’Unione Europea il 12.07.24) C.D. AI Act prende in considerazione quelli
che possono essere i rischi dell’AI. Infatti definisce, nell’art. 3 un sistema
di IA è definito come: «un sistema automatizzato progettato per funzionare
con livelli di autonomia variabili e che può presentare adattabilità dopo la
diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che
riceve come generare output quali previsioni, contenuti, raccomandazioni o
decisioni che possono influenzare ambienti fisici o virtuali».
Nella
definizione di rischio “la combinazione della probabilità del verificarsi di
un danno e la sua gravità, che va da quello inaccettabile, all’alto rischio
(sistemico, significativo o grave), a quello limitato e al rischio minimo”.
La
finalità del regolamento sull’intelligenza artificiale è la limitazione del
rischio e delle pratiche vietate. Il regolamento prevede regole diverse per
diversi livelli di rischio che vanno dal rischio basso, rischio medio e alto
rischio.
Il
regolamento si applicherà a decorrere dal 2 agosto 2026 tuttavia dal 02
febbraio 2025 si applicheranno le Disposizioni Generali (Capo I art. da 2 a
4) e il Capo II che contiene le pratiche di IA vietate (articolo 5). Dal 02
agosto 2025 si applicherà il Capo III, Sezione 4 (Autorità di notifica e
organismi notificati), il Capo V (Modelli di IA per finalità generali), il Capo
VII (Governance), il Capo XII (Sanzioni) e l’articolo 78 (che disciplina la
riservatezza) ad eccezione dell’articolo 101 (che riguarda le sanzioni
pecuniarie per i fornitori di modelli di IA per finalità generali). Dal 02
agosto 2027 si applicherà l’articolo 6, paragrafo 1, che fissa le regole di
classificazione per i sistemi di IA ad alto rischio e i corrispondenti
obblighi.
L’IA
che utilizza tecniche subliminali che agiscono senza che una persona ne sia
consapevole o tecniche volutamente manipolative o ingannevoli; di IA che
valutano il comportamento sociale; di IA che creano o ampliano le banche dati
di riconoscimento facciale mediante scraping non mirato di immagini facciali da
internet o da filmati di telecamere a circuito chiuso.
Per
fare un esempio, esistono fenomeni inquietanti che debbono essere classificati
come esperimenti sociali, come quello cinese noto come «sistema di
credito sociale», per il quale a ciascun cittadino della Repubblica
popolare cinese, viene attribuito un punteggio rappresentante la sua reputazione,
dando così vita a un sistema di sorveglianza di massa fondato
sull’utilizzo di tecnologie per l’analisi di megadati gestito dall’IA,
che peraltro prevede specifiche sanzioni (come l’inserimento di una
black list pubblica, l’inibizione dell’accesso a posti di rilievo in ambito
lavorativo e pubblico o il divieto di pernottare in alberghi).Soluzioni
come questa sono capaci di mettere in discussione le fondamenta dello Stato
di diritto e i più elementari princìpi afferenti alla schiera dei diritti
umani, ma quanto accade in Cina (per fortuna) è una eccezione, almeno per ora.
Le
Deepfake: A.I. viene utilizzata per diffondere notizie false grazie
anche all’interazione tra algoritmi utilizzati dal mondo dei social media.
Senza sottovalutare il rischio di attacco informatico quindi si può avere
accesso a dati sensibili.
Nell’
Art. 9 del predetto regolamento ci si occupa del sistema di gestione del
rischio. Dopo AI Act ha risposto il Consiglio d’Europa che ha approvato
il primo trattato (decisione n. 2218/24 del 28.08.24) nel mondo sul
tema dell’intelligenza artificiale. Il testo è frutto del lavoro di un comitato
intergovernativo che ha coinvolto attivamente i 46 Stati membri del
Consiglio d’Europa, l’Unione Europea e altre 11 nazioni (Argentina,
Australia, Canada, Costa Rica, Santa Sede, Israele, Giappone, Messico, Perù,
Stati Uniti d’America e Uruguay). Rispetto al AI Act, la Convenzione
insiste nella necessità di una piena padronanza dei sistemi di intelligenza
artificiale (art. 3) allo scopo di garantire il rispetto dei: Diritti umani
– Democrazia- Stato di diritto intrinsecamente interconnessi. Tra gli scopi
c’è la possibilità di promuovere la prosperità umana, il benessere individuale
e sociale, l’uguaglianza di genere, l’emancipazione di donne e fanciulle,
favorire il progresso e l’innovazione. I rischi sociali sono le minacce alla
dignità umana, all’autonomia individuale, ai diritti umani, alla democrazia,
allo stato di diritto, rischi di discriminazione, creare o aggravare
diseguaglianze, utilizzo per scopi repressivi, adozione di pratiche di
sorveglianza, censure arbitrarie o illegali, compressione della privacy.