Il Parlamento europeo ha approvato, il 14 giugno ha approvato la posizione negoziale sull’Ai Act, il regolamento sull’Intelligenza artificiale proposto dalla Commissione europea nella primavera del 2021. Il testo, terminata la fase di negoziazione con le istituzioni europee, sarà approvato probabilmente entro la fine dell’anno, così da entrare in vigore il 1 gennaio 2024.
L’Unione Europea sarà, dunque, la prima grande struttura a carattere sovranazionale che approverà una normativa per regolare i sistemi di Intelligenza Artificiale, ponendo obblighi ma anche offrendo opportunità tanto per i fornitori che per coloro che impiegano applicativi di IA. L’obiettivo delle istituzioni europee, infatti, è quello rendere il continente un luogo ove l’intelligenza artificiale e i suoi sviluppi possano prosperare proteggendo, allo stesso tempo, i cittadini dai rischi che l’uso degli applicativi di IA può generare.
Le categorie di rischio nell’AI Act del Parlamento europeo
La proposta di regolamentazione delle istituzioni europee si basa su un approccio basato sul rischio, differenziato in «inaccettabile», «alto» e «basso-minimo».
Per quanto riguarda la categoria dei rischi inaccettabili, il testo approvato dal Parlamento europeo prevede la messa al bando di tutti quei sistemi di IA il cui uso potrebbe minacciare i diritti fondamentali dei cittadini.
Rientrano in questo campo, in particolare, i sistemi di categorizzazione biometrica remota negli spazi pubblici, sia in tempo reale che a posteriori. L’identificazione a posteriori sarà permessa solo previa autorizzazione giudiziaria per consentire alle Forze dell’ordine di perseguire reati gravi già commessi – si vieta, dunque, il predictingpolicing. Tutti gli emendamenti che richiedevano eccezioni per i sistemi di riconoscimento biometrico sono stati infatti respinti: non è da escludere, tuttavia, che parte di questa posizione possa essere ridiscussa nei prossimi mesi.
Stabilito dunque il confine lesivo dei diritti umani da non superare, l’AI Act prevede la regolamentazione di quegli applicativi definiti ad alto rischio. Rientrano in questa categoria, ad esempio, tutti i sistemi di IA che permettono di prendere decisioni sulla vira dei cittadini, come gli applicativi per la valutazione del credito. Ma non solo: anche alcunialgoritmi dei social media rientrano nella classificazione dell’alto rischio.
La regolamentazione, infine, impatterà anche i sistemi di Intelligenza artificiale a basso rischio, come le applicazioni AI based che si occupano del riconoscimento di immagini.
Aggiorna il personale con progetti di formazione finanziata
Projectland gestisce ogni anno decine di piani formativi finanziati e sostiene i Clienti in ogni fase del processo, dalla presentazione del piano fino alla sua rendicontazione.
Personalizziamo il rapporto di consulenza sulla base delle esigenze aziendali intervenendo come supporto o in outsourcing.