30 Ottobre 2023

European AI Act: cos’è e cosa cambia per le aziende europee?

Home / News / Wave News / European AI Act: cos’è e cosa cambia per le aziende europee?

Autore

Team di Wave Informatica

Categoria

Wave News

Nell’aprile del 2021, la Commissione Europea ha proposto il primo quadro normativo dell’Unione Europea in materia di Intelligenza Artificiale, denominato European AI Act, con lo scopo di regolamentare una tecnologia che può portare – e sta già portando – grossi vantaggi alle aziende, ma che necessita di una regolamentazione più o meno stringente.

Cos’è l’Intelligenza Artificiale?

Facciamo subito un breve riassunto di cosa si intende per AI, o Intelligenza Artificiale.

L’Intelligenza Artificiale si occupa di sviluppare sistemi informatici in grado di imitare le capacità cognitive di un essere umano, simulandone il ragionamento, il comportamento, il linguaggio.

Per raggiungere un obiettivo tanto ambizioso, è necessario istruire i sistemi, ovvero insegnare loro in che modo elaborare i dati ricevuti per poi produrre una risposta efficace.

Qui entra in gioco una branca dell’AI che si chiama Machine Learning e che si occupa di creare pattern di apprendimento automatico attraverso algoritmi. Alcuni algoritmi di Machine Learning famosi sono l’algoritmo di Google, che restituisce un elenco di pagine web in base a ciò che viene ricercato dall’utente, i filtri antispam dei client di posta elettronica e il riconoscimento vocale dei nostri smartphone.

Sapevi che il Machine Learning può aiutarti a migliorare i processi aziendali, risparmiare tempo e aumentare i guadagni? Ne abbiamo parlato nell’articolo Le potenzialità del Machine Learning applicate al Software BPM.

Obiettivi dello European AI Act

Date le enormi potenzialità dell’Intelligenza Artificiale, l’Unione Europea ha deciso di intraprendere un percorso di regolamentazione con l’obiettivo di garantire che tale tecnologia rispetti sempre i principi di:

  • sicurezza
  • trasparenza
  • tracciabilità
  • assenza di discriminazione
  • rispetto per l’ambiente.

Inoltre, ha sottolineato l’importanza di una supervisione umana, e non automatizzata.

Nuove regole in base al livello di rischio

Per stabilire quali regole bisogna seguire per l’impiego di Intelligenza Artificiale, l’AI Act stabilisce diversi livelli di rischio per ogni tipo di di sistema.

Nello specifico, i livello di rischio sono 3. Vediamoli un po’ più nel dettaglio.

Rischio inaccettabile

Questi sistemi sono considerati pericolosi per le persone e di conseguenza verranno vietati.

Sono inclusi in questa categoria sistemi che hanno le seguenti caratteristiche:

  • manipolazione cognitivo comportamentale di persone o gruppi specifici, ad esempio giocattoli ad attivazione vocale che potrebbero incoraggiare comportamenti pericolosi nei bambini;
  • social scoring (punteggio sociale), ovvero un sistema che classifica le persone in base ad un punteggio alimentato dal comportamento, dallo stato socioeconomico o da caratteristiche personali;
  • identificazione biometrica remota in tempo reale, come ad esempio videocamere in luoghi pubblici che utilizzino il riconoscimento facciale per identificare le persone in tempo reale.

Sono previste delle eccezioni, comunque, per esempio il riconoscimento facciale è vietato se eseguito in tempo reale, ma può essere utilizzato in differita se vi è necessità di indagare su reati gravi e se c’è stata l’autorizzazione di un tribunale.

Rischio alto

Rientrano nel livello di rischio alto i sistemi che hanno un’influenza negativa sulla sicurezza o sui diritti fondamentali delle persone.

A loro volta, questi sistemi vengono poi suddivisi in due ulteriori categorie:

  1. Sistemi utilizzati nei prodotti che rientrano nella direttiva 2001/95/CE sulla sicurezza generale dei prodotti (GPSD);
  2. sistemi rientranti in otto ambiti specifici:
    • identificazione biometrica e categorizzazione delle persone fisiche;
    • gestione infrastrutture critiche;
    • istruzione e formazione;
    • occupazione, gestione lavoratori e accesso al lavoro autonomo;
    • accesso a servizi privati essenziali e servizi pubblici;
    • applicazione della legge;
    • migrazione, asilo e controllo delle frontiere;
    • assistenza nell’interpretazione giuridica e applicazione della legge.

In ogni caso questi sistemi andranno valutati attentamente, sia prima che dopo la loro immissione sul mercato.

Rischio limitato

I sistemi di IA a rischio limitato dovranno permettere agli utenti di compiere scelte informate, attraverso dei requisiti minimi di trasparenza.

Ciò vuol dire che dopo aver interagito con tali applicazioni, gli utenti potranno decidere se continuare ad utilizzarle o meno e devono sapere che stanno interagendo con delle intelligenze artificiali, ad esempio sistemi di generazione o manipolazione di immagini, audio o contenuti video, come i deepfakes.

Cosa è previsto per l’Intelligenza Artificiale Generativa come ChatGPT?

Il termine “Intelligenza Artificiale Generativa” identifica quel tipo di IA in grado di generare contenuti, come ad esempio testi, immagini, video o suoni.

Secondo il testo dello European AI Act, i sistemi di questo tipo, come ad esempio il celebre ChatGPT, potranno operare a patto di rispettare i requisiti di trasparenza:

  • Informare gli utenti che i contenuti sono stati generati da Intelligenza Artificiale;
  • fare in modo che i sitemi non possano generare contenuti illegali;
  • pubblicare un indice delle informazioni protette da copyright utilizzate per alimentare il modello di apprendimento del sistema.

Le implicazioni dello European AI Act per le aziende

In Italia l’interesse per l’Intelligenza Artificiale è cresciuto notevolmente negli ultimi anni: nel report di febbraio 2023 dell’Osservatorio Artificial Intelligence del Politecnico di Milano, si calcola che il mercato dell’IA in Italia ha raggiunto un valore di 500 milioni di euro, ben 32 punti percentuali in più rispetto al 2021.

Nel report, inoltre, si evidenzia che il 61% delle grandi imprese italiane hanno già avviato un progetto di Intelligenza Artificiale, mentre nelle PMI la percentuale si attesta al 15% con una previsione di aumento nei prossimi due anni.

È chiaro, dunque, che le potenzialità dell’impiego di Intelligenza Artificiale nelle imprese è altissimo, ma prima di avviare nuovi progetti è importante assicurarsi che i sistemi di IA utilizzati siano conformi allo European AI Act, che dovrebbe essere approvato entro fine anno ed entrare in vigore nel 2024.

Aggiornamento del 09.12.2023

Il Parlamento e il Consiglio europeo hanno approvato l’AI Act, facendo sì che i 27 Stati dell’Unione Europea siano dotati della prima legge al mondo sull’Intelligenza Artificiale.