05/11/2024 Elearning Formazione

I rischi dell'AI definiti dal Regolamento (UE) 2024/1689

Il Regolamento (UE) 2024/1689 del 13.06.24 (Pubblicato in Gazz. Ufficiale dell’Unione Europea il 12.07.24) C.D. AI Act prende in considerazione quelli che possono essere i rischi dell’AI. Infatti definisce, nell’art. 3 un sistema di IA è definito come: «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali».

Nella definizione di rischio “la combinazione della probabilità del verificarsi di un danno e la sua gravità, che va da quello inaccettabile, all’alto rischio (sistemico, significativo o grave), a quello limitato e al rischio minimo”.

La finalità del regolamento sull’intelligenza artificiale è la limitazione del rischio e delle pratiche vietate. Il regolamento prevede regole diverse per diversi livelli di rischio che vanno dal rischio basso, rischio medio e alto rischio.

Il regolamento si applicherà a decorrere dal 2 agosto 2026 tuttavia dal 02 febbraio 2025 si applicheranno le Disposizioni Generali (Capo I art. da 2 a 4) e il Capo II che contiene le pratiche di IA vietate (articolo 5). Dal 02 agosto 2025 si applicherà il Capo III, Sezione 4 (Autorità di notifica e organismi notificati), il Capo V (Modelli di IA per finalità generali), il Capo VII (Governance), il Capo XII (Sanzioni) e l’articolo 78 (che disciplina la riservatezza) ad eccezione dell’articolo 101 (che riguarda le sanzioni pecuniarie per i fornitori di modelli di IA per finalità generali). Dal 02 agosto 2027 si applicherà l’articolo 6, paragrafo 1, che fissa le regole di classificazione per i sistemi di IA ad alto rischio e i corrispondenti obblighi.

L’IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli; di IA che valutano il comportamento sociale; di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso.

Per fare un esempio, esistono fenomeni inquietanti che debbono essere classificati come esperimenti sociali, come quello cinese noto come «sistema di credito sociale», per il quale a ciascun cittadino della Repubblica popolare cinese, viene attribuito un punteggio rappresentante la sua reputazione, dando così vita a un sistema di sorveglianza di massa fondato sull’utilizzo di tecnologie per l’analisi di megadati gestito dall’IA, che peraltro prevede specifiche sanzioni (come l’inserimento di una black list pubblica, l’inibizione dell’accesso a posti di rilievo in ambito lavorativo e pubblico o il divieto di pernottare in alberghi).Soluzioni come questa sono capaci di mettere in discussione le fondamenta dello Stato di diritto e i più elementari princìpi afferenti alla schiera dei diritti umani, ma quanto accade in Cina (per fortuna) è una eccezione, almeno per ora.

Le Deepfake: A.I. viene utilizzata per diffondere notizie false grazie anche all’interazione tra algoritmi utilizzati dal mondo dei social media. Senza sottovalutare il rischio di attacco informatico quindi si può avere accesso a dati sensibili.

Nell’ Art. 9 del predetto regolamento ci si occupa del sistema di gestione del rischio. Dopo AI Act ha risposto il Consiglio d’Europa che ha approvato il primo trattato (decisione n. 2218/24 del 28.08.24) nel mondo sul tema dell’intelligenza artificiale. Il testo è frutto del lavoro di un comitato intergovernativo che ha coinvolto attivamente i 46 Stati membri del Consiglio d’Europa, l’Unione Europea e altre 11 nazioni (Argentina, Australia, Canada, Costa Rica, Santa Sede, Israele, Giappone, Messico, Perù, Stati Uniti d’America e Uruguay). Rispetto al AI Act, la Convenzione insiste nella necessità di una piena padronanza dei sistemi di intelligenza artificiale (art. 3) allo scopo di garantire il rispetto dei: Diritti umani – Democrazia- Stato di diritto intrinsecamente interconnessi. Tra gli scopi c’è la possibilità di promuovere la prosperità umana, il benessere individuale e sociale, l’uguaglianza di genere, l’emancipazione di donne e fanciulle, favorire il progresso e l’innovazione. I rischi sociali sono le minacce alla dignità umana, all’autonomia individuale, ai diritti umani, alla democrazia, allo stato di diritto, rischi di discriminazione, creare o aggravare diseguaglianze, utilizzo per scopi repressivi, adozione di pratiche di sorveglianza, censure arbitrarie o illegali, compressione della privacy.

Keep in touch.

Hai bisogno di informazioni?
Contattaci adesso! Clicca sul pulsante qui di seguito per avere tutti i nostri contatti o compilare un modulo di richiesta informazioni. Un nostro incaricato ti contatterà quanto prima e sarà a tua completa disposizione, per informarti sul mondo E-Learning Formazione.

Italfor Srl

  • Via A. Gusmai, 5
  • 76125 Trani (Bt)
  • P. IVA: 07887220726
  • Note legali

  • Termini e condizioni di utilizzo
  • Privacy Policy Cookie Policy
  • Codice Etico