Nell’era digitale, i sistemi di intelligenza artificiale (AI) si sono diffusi con una forza pervasiva in tutti gli ambiti della vita dell’uomo.
La raccolta dei dati personali costituisce la spina dorsale dei sistemi di IA, che attingono a una varietà di fonti (sensori IoT, interazioni online, transazioni commerciali, database pubblici e privati, ecc).
È fondamentale, dunque, che tale raccolta avvenga in un contesto di trasparenza, al fine di garantire che tutti i cittadini, indipendentemente dal loro livello di competenza tecnica, possano comprendere come i loro dati vengono utilizzati.
In un quadro di sviluppo tecnologico così repentino, il panorama legislativo mondiale ha iniziato ad evolversi. Molti Paesi hanno intrapreso un percorso per regolamentare l’uso dell’IA.
Nel Comunicato rilasciato al termine del vertice del G7 del giugno 2024, i leader hanno voluto ribadire l’intenzione di cooperare sul tema dell’IA, con l’obiettivo di perseguire una trasformazione digitale inclusiva e “umanocentrica”, che sostenga la crescita economica e lo sviluppo sostenibile, in linea con i valori democratici condivisi e il rispetto dei diritti umani.
Il 12 luglio 2024 è stato pubblicato nella Gazzetta Ufficiale dell’UE, il Regolamento (UE) 2024/1689 che stabilisce regole armonizzate sull’intelligenza artificiale.
Ai sensi dell’AI Act, si definisce “Sistema di IA” quel “sistema che presenta congiuntamente le seguenti caratteristiche: consiste in un sistema automatizzato progettato per funzionare con livelli di autonomia variabili; può presentare adattabilità dopo la diffusione; per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
L’AI Act introduce un approccio “basato sul rischio”, prevedendo regole quanto più rigorose tanto maggiore è il rischio individuato dall’utilizzo dell’IA. E, soprattutto, prescrive l’obbligo di rispettare le disposizioni del Regolamento (UE) 2016/679 e della Direttiva 2002/58/CE105 in materia di protezione dei dati personali.
Il rispetto delle norme poste a presidio della tutela e protezione dei dati personali rappresenta, quindi, un punto fermo nel contesto dell’IA.
In Italia, il Consiglio dei Ministri ha approvato un disegno di legge sull’IA che individua regole capaci di riequilibrare il rapporto tra le opportunità offerte dalle nuove tecnologie e i rischi legati al loro uso improprio.
L’approccio antropocentrico è al centro della legislazione italiana e mira ad assicurare che la tecnologia serva l’umanità e non viceversa.
Le lezioni apprese dai recenti disastri informatici delineano un futuro in cui la tutela dei dati personali sarà sempre più centrale nei dialoghi internazionali sulla governance dell’IA.
A gennaio 2024, 26 miliardi di dati profilabili e categorizzabili sono stati messi sul mercato mentre il 19 luglio il crash Windows ha paralizzato mezzi di trasporto e comunicazioni, rendendo inaccessibili e inutilizzabili i dati personali di moltissimi utenti. Tali eventi richiamano l’importanza dell’educazione civica digitale, quale competenza fondamentale per preparare i cittadini a navigare e a proteggersi nell’intricato universo digitale.
Promuovere l’educazione civica digitale come materia di studio fin dal primo ciclo scolastico e la formazione digitale tra i cittadini, è divenuto un must: solo così potremo sperare di costruire una società digitale sicura, dove i dati personali siano protetti e rimangano nella proprietà e nel controllo dei cittadini.
ECONOMIC CHALLENGE 2024
“Progettare il futuro per le nostre vite”
12 OTTOBRE 2024 – Perugia – San Francesco al Prato
VISITA IL SITO WEB