HomeEuropean Banking News

Il Parlamento europeo approva l’AI Act, cosa cambierà per le nostre aziende?

Stop al riconoscimento facciale in tempo reale. Entro l’anno l’Ue potrebbe varare il primo regolamento al mondo sull’intelligenza artificiale

Il Parlamento europeo approva l’AI Act, cosa cambierà per le nostre aziende?

Fonte: Il Sole 24 Ore Il Parlamento europeo ha dato il via libera oggi all'AI Act, che entra così nella fase finale. L'approvazione definitiva dall'U

Benetton: maxi progetto Sd- Wan per oltre 300 sedi, in campo Tim e Sparkle
Cybersicurezza: ridurre il digital divide e investire nelle aziende italiane
Ci sono 7 aziende italiane tra le migliori 100 al mondo nel 2023: ecco quali sono

Fonte: Il Sole 24 Ore

Il Parlamento europeo ha dato il via libera oggi all’AI Act, che entra così nella fase finale. L‘approvazione definitiva dall’Unione europea dovrebbe arrivare a fine anno (secondo fonti vicine alle istituzioni europee) e questo regolamento sull’intelligenza artificiale (IA) entrare in vigore nel 2024.
Come già noto, le norme seguono un approccio basato sul rischio e stabiliscono obblighi per i fornitori e per coloro che impiegano sistemi di IA a seconda del livello di rischio che l’IA può generare. Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il social scoring (classificazione delle persone in base al loro comportamento sociale o alle loro caratteristiche personali).

Le novità del testo odierno

La novità odierna (rispetto al testo noto) è il ban totale di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico (bocciati emendamenti che prevedevano eccezioni). Possibili i sistemi di identificazione biometrica a distanza “a posteriori”, ma solo per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria.

 Parte la corsa alla compliance

Il testo è passato insomma definitivamente da una prima istituzione Ue in plenaria e si può considerare abbastanza consolidato; le aree di modifica saranno poche e riguardano quasi solo il riconoscimento facciale, dove c’è intenso dibattito sulle eventuali eccezioni al ban.
Si può dire che è partita già la corsa alla compliance da parte delle aziende che fanno e usano AI. «Dall’entrata in vigore ci sono due anni di grace period, che però alle aziende servono tutti per costruire i processi di compliance al regolamento», spiega Massimo Pellegrino, partner di Intellera, società di consulenza specializzata. Solo l’IA generativa (quella di Chatgpt e sistemi simili) può portare 4,4 miliardi di valore all’economia globale e fare risparmiare il 60-70 per cento del tempo ai lavoratori, secondo un rapporto uscito oggi da McKinsey. Un valore che le aziende si preparano a cogliere. Secondo gli ultimi dati del Politecnico di Milano, il 61 per cento delle grandi aziende italiane ha avviato progetti di IA, il 34 per cento li sta già adottando.

L’interesse e la consapevolezza nelle Pmi è in forte crescita. Ma fare le pentole senza coperchi è un rischio grosso, per le aziende: significa esporsi a responsabilità per danni dall’IA e sanzioni privacy (tra l’altro). Il regolamento Ue spiega come fare per adottare bene l’IA dal punto di vista del rispetto delle norme.

Come adottare bene l’IA, con l’AI act

«L’Europa regola soprattutto le aziende produttrici di IA e a cascata quelle che la usano; queste devono accertarsi al meglio con le informazioni a loro disposizione che i sistemi AI sviluppati dai produttori siano conformi alle regole europee», spiega Stefano da Empoli, presidente dell’istituto di ricerca I-Com. Da Empoli e Pellegrino concordano che il primo passo da fare è un catalogo delle app IA usate o che si vogliono usare per capire il livello di rischio collegato secondo il modello presente nell’IA act. «Il principale impatto sulle imprese sta nel meccanismo previsto dall’approccio basato sul rischio che rappresenta l’architrave principale del provvedimento», spiega da Empoli. «In primo luogo, escludendo i relativamente pochi casi di proibizione assoluta, le imprese devono sincerarsi se la componente AI dei prodotti che vogliono immettere sul mercato sia contenuta nella ben più nutrita lista delle applicazioni ad alto rischio», aggiunge. «Se questo è il caso, occorre procedere ad una valutazione di conformità che può essere svolta internamente oppure da un soggetto terzo certificato. A causa della scarsità di expertise qualificata e della mancanza di procedure standardizzate, facile prevedere che almeno inizialmente questa seconda opzione sarà percorsa più raramente», continua da Empoli.

Commenti