Il Regolamento europeo sull’intelligenza artificiale richiede una riflessione del Governo e del Parlamento Italiano?

da Pietro Cusati (Giurista-Giornalista)

Il Parlamento europeo  con l’approvazione del regolamento sull’intelligenza artificiale impone agli Stati membri l’ adeguamento di alcune norme degli ordinamenti interni. Il regolamento sull’intelligenza artificiale prevede il controllo delle Autorità di protezione dei dati personali su processi algoritmici che utilizzino dati personali.L’obiettivo  del regolamento europeo è  quello di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di intelligenza artificiale ad alto rischio, promuovendo l’innovazione e assicurando all’Europa un ruolo guida nel settore. Il regolamento stabilisce obblighi sulla base dei possibili rischi e del livello d’impatto.Le nuove norme prevedono  alcune applicazioni di intelligenza artificiale  che calpestano i diritti dei cittadini. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva ,se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona, e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.In linea di principio le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono  la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l’autorizzazione giudiziaria dovrà essere collegata a un reato.Obblighi  anche per  sistemi ad alto rischio .che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto. Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base , assistenza sanitaria, alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici,come nel caso di sistemi usati per influenzare le elezioni. Per questi sistemi vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.I paesi dell’UE dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali , in modo che PMI e start-up possano sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *