EUROPEAN AI ACT: NUOVE FRONTIERE PER INVESTITORI STRANIERI

EUROPEAN AI ACT: NUOVE FRONTIERE PER INVESTITORI STRANIERI

“L’AI Act traspone i valori europei in una nuova era. Focalizzando la regolamentazione sui rischi identificabili, l’accordo odierno favorirà l’innovazione responsabile in Europa. (…) La nostra legge sull’intelligenza artificiale darà un contributo sostanziale allo sviluppo di regole e principi globali per un’intelligenza artificiale incentrata sull’uomo”, così Ursula Von Der Leyen – presidente della Commissione Europea – ha commentato l’accordo raggiunto dalle istituzioni europee sull’Artificial Intelligence Act dell’Unione Europea (EU AI Act o AI Act) lo scorso 9 dicembre, dopo un negoziato durato circa 36 ore.

Ad oggi il testo dell’AI Act – che consta di 85 articoli e 9 allegati – rappresenta l’accordo politico raggiunto da Commissione Europea, Consiglio e Parlamento Europeo. Il testo non è ancora entrato in vigore e, nei prossimi mesi, sarà soggetto all’approvazione formale di Parlamento e Consiglio; si prevede che le sue disposizioni entrino in vigore nell’arco dei prossimi 2 anni.


Come noto, l’intelligenza artificiale è quella tecnologia che consente di simulare i processi dell’intelligenza umana attraverso l’utilizzo di algoritmi integrati; si tratta di una tecnologia in rapido sviluppo che, specialmente negli ulti anni, ha fortemente inciso sul modo in cui viviamo e lavoriamo.


Per leggere il comunicato stampa ufficiale rilasciato dalla Commissione Europea, si rimanda al seguente link:

file:///C:/Users/lenovo/Downloads/Commission_welcomes_political_agreement_on_Artificial_Intelligence_Act_.pdf

L’AI Act nasce dall’esigenza di trovare un compromesso tra sviluppo tecnologico e tutela dei diritti fondamentali, cercando di bilanciare tra innovazione e prevenzione. In tal senso, sebbene siano stati previsti una serie di requisiti di trasparenza, sicurezza e accountability a tutela di coloro che in prima persona utilizzeranno tali tecnologie, l’approccio adottato è stato comunque comprensivo nei confronti dell’innovazione tecnologica; si è, infatti, cercato di non sacrificare la competitività delle aziende europee sul mercato globale.


Per far ciò, le istituzioni europee hanno previsto un approccio basato sul rischio, tramite la creazione di 4 macrocategorie: “Rischio Minimo”, “Rischio Elevato”, “Rischio specifico sulla trasparenza” e “Rischio Inaccettabile”; questo in quanto all’interno della normativa, vengono previsti obblighi differenti in capo a fornitori ed utenti a seconda del livello di rischio in cui rientrano le varie tecnologie AI.


La nuova normativa comporta che i produttori saranno chiamati a dimostrare che i loro prodotti non rappresentano un rischio per le persone rientrando dunque in una delle prime tre categorie sopra elencate, in quanto sviluppati nel rispetto di tutti i criteri di compliance legale; prima di poter immettere la tecnologia finale sul mercato, infatti, i produttori dovranno rispettare stringenti criteri di trasparenza.


In particolare, le tecnologie AI rientranti all’interno della categoria “Rischio elevato” includono i sistemi critici come, per esempio, quelli per la fornitura di dispositivi medici; tali sistemi potranno entrare all’interno del mercato europeo solo previo rispetto di alcuni rigorosi requisiti, con possibilità di una certificazione europea.


Le tecnologie rientranti in “Rischio specifico per la trasparenza”, invece, riguardano i sistemi quali i chatbot, con cui le persone spesso si interfacciano; in questi casi, è stato previsto che chiunque si interfacci con tali sistemi deve essere preventivamente messo a conoscenza del fatto che sta interagendo con un’intelligenza artificiale. Inoltre, tutti i contenuti generati dall’AI dovranno essere etichettati come tali.


Per quanto riguarda i sistemi rientranti in rischio minimo, questi ultimi riguardano principalmente sistemi di raccomandazione per gli acquisti; in questi casi, le imprese produttrici hanno la facoltà di adottare codici di condotta su base volontaria.


La macrocategoria “Rischio Inaccettabile”, infine, si distingue dalle precedenti in quanto racchiude tutti quei sistemi considerati come una minaccia ai diritti fondamentali e, pertanto, vietati.


Sempre in tema di compliance legale, sarà poi interessante capire come applicare la normativa in tema di protezione della proprietà intellettuale alle nuove tecnologie AI in via di sviluppo.

Altro passaggio fondamentale dell’AI Act è sicuramente quello in cui viene chiaramente delineato cosa non è permesso fare tramite tali sistemi, e cioè quali usi della tecnologia AI sono vietati. A tal proposito, è sicuramente vietata la categorizzazione biometrica dei dati sensibili, dove per dati sensibili si intendono, a titolo esemplificativo, l’etnia, la religione, lo stato di salute o gli orientamenti politici. Non sono permessi i sistemi improntati al social scoring e quelli in grado di manipolare le emozioni umane; non da ultimo, sono vietati i sistemi AI che mirano a sfruttare le vulnerabilità personali, quali la situazione sociale o economica, l’età o eventuali disabilità.


In sede di negoziato, il tema più divisivo è stato quello legato all’utilizzo di sistemi AI da parte delle forze di polizia; l’accordo raggiunto prevede che le forze dell’ordine potranno ricorrere a sistemi di riconoscimento biometrico solo in 3 casi tassativamente previsti, e cioè in caso (i) di minaccia terroristica, (ii) di ricerca mirata di vittime di reati e, infine, (iii) in cui sia necessario procedere all’identificazione di persone sospettate di aver commesso reati gravi.

Quanto fin qui riportato fornisce un quadro molto generale dei principali temi su cui è stata raggiunta un’intesa politica in seno all’EU.

Con l’AI Act l’Europa si pone come primo continente ad aver previsto una normativa armonizzata in tale settore e ciò apre il campo a scenari interessanti da un punto di vista di mercato; è, infatti, auspicabile che tale regolamentazione incentivi investitori stranieri a portare i loro capitali in Europa per investire in un settore che, ad oggi, rappresenta il nostro futuro prossimo e che probabilmente, nell’arco dei prossimi anni, arriverà a stravolgere le nostre abitudini di vita.

Per chiunque decida di investire nelle tecnologie AI, questo è sicuramente il momento opportuno per farlo.

Come sopra accennato, le disposizioni previste all’interno dell’AI Act – una volta che quest’ultimo verrà approvato – entreranno in vigore in maniera progressiva nell’arco dei successivi 2 anni.

Questo garantisce un’ampia finestra temporale per consentire a eventuali investitori stranieri extra-UE di costituire una società in Europa per provare ad investire – con un investimento estero diretto – in un mercato in rapida crescita, ora finalmente normato.

Se desiderate rimanere aggiornati sugli sviluppi della normativa in oggetto, potete inviare una mail all’indirizzo info@dandreapartners.com.

D’Andrea & Partners Legal Counsel e PHC Advisory Tax & Accounting (società del Gruppo DP) offrono servizi di assistenza e consulenza in ambito legale e fiscale. Per qualsiasi richiesta di informazioni, siete invitati a contattarci al seguente indirizzo: info@dpgroup.biz.

I contenuti di cui sopra sono forniti solo a scopo informativo. La pubblicazione di questo articolo non crea un rapporto avvocato-cliente tra DP Group e il lettore e non costituisce consulenza legale. La consulenza legale, infatti, deve essere adattata alle circostanze specifiche di ciascun caso concreto.


EUROPEAN AI ACT: NUOVE FRONTIERE PER INVESTITORI STRANIERI(图1)

EUROPEAN AI ACT: NUOVE FRONTIERE PER INVESTITORI STRANIERI(图2)