UN APPROCCIO COMUNE ALLA TECNOLOGIA—Le conseguenze dei diversi quadri giuridici in materia di intelligenza artificiale

Negli ultimi tempi il settore dell’Intelligenza Artificiale (AI) è costantemente sotto i riflettori, dimostrando la crescente rilevanza del proprio ruolo nella società moderna. Tuttavia, da un grande potere derivano grandi responsabilità e spetta ai legislatori garantire uno sviluppo sano e sostenibile del settore. Confrontiamo lo stato attuale della politica sull’intelligenza artificiale in Cina e in Europa e delineiamo ciò che alcune di queste normative potrebbero contenere per il futuro di questa tecnologia.

La recente ascesa del settore AI è stata a dir poco eccezionale. Auto a guida autonoma, androidi senzienti e sistemi di intelligenza artificiale che hanno ripetutamente superato le loro controparti umane in giochi come Jeopardy e Go. Le cose che una volta appartenevano al regno della fantascienza sono diventate realtà. Le persone nella loro quotidianità’ richiedono l’uso di motori di ricerca su Internet, sistemi di navigazione globale e software di riconoscimento vocale. Tuttavia, sono state sollevate accuse nei confronti del settore AI per aver soppiantato i lavori a manodopera non qualificata, ma recenti sviluppi mostrano che anche i colletti bianchi, come avvocati e chirurghi, sono stati rimpiazzati. Nonostante l’intelligenza artificiale permei ogni livello della società, poco si è detto sulle decisioni che i politici dovrebbero concretamente prendere per orientare questa tecnologia nella giusta direzione.

Tra gli esperti di intelligenza artificiale si è dibattuto sulla regolamentazione, specialmente nelle prime fasi di sviluppo della tecnologia, in quanto sarebbe costrittiva alla sua evoluzione. Tuttavia, considerando il fatto che probabilmente l’IA sarà ampiamente implementata nella società, sarebbe saggio predisporre regolamenti che possano mantenere l’ordine in caso si verifichino alcuni disastrosi risultati già immaginabili.

In linea generale, la classe politica dei vari Paesi del mondo ha avuto difficoltà nel trovare il modo in cui l’IA debba essere adeguatamente regolata. Tuttavia, i governi nazionali si sono concentrati sull’aumento di ricerca e sviluppo nell’IA. Ciò ha reso necessario il reclutamento e il mantenimento di personale altamente qualificato con specifiche competenze nel settore. In linea con questo orientamento politico, il presidente Xi Jinping ha sottolineato l’importanza dell’IA in Cina e ha coraggiosamente proclamato che la Cina diventerà un leader mondiale in questo campo entro il 2030.

Al fine di raggiungere questi obiettivi ambiziosi, il governo cinese ha elaborato una politica nazionale e  globale con il quale regolare e promuovere lo sviluppo dell’intelligenza artificiale della Cina. Il Piano di sviluppo dell’IA di nuova generazione (Piano), annunciato dal Consiglio di Stato della Repubblica Popolare Cinese (Consiglio di Stato) nel luglio 2017, ha tentato di chiarire i fraintendimenti legati allo sviluppo dell’IA “facendo studi su alcune questioni legali sull’applicazione dell’IA”.

Sebbene le disposizioni stabilite nel Piano siano nella fase iniziale e siano principalmente orientate all’attuazione e al sostegno delle politiche, comprende anche sezioni dedicate anche all’impatto legale, etico e sociale dell’IA. In particolare, il Piano esamina l’impatto dell’IA sulla sicurezza nazionale e sulla protezione della privacy della Cina e raccomanda la costruzione di un sistema di monitoraggio e valutazione dell’IA per sovrintenderne l’uso nel settore del lavoro. In merito ai rapporti di lavoro, il Piano incoraggia le aziende a fornire una formazione approfondita sull’istruzione e conoscenza dell’AI. Ciò garantisce un agevole trasferimento di lavoratori non qualificati ad un’altra professione non direttamente influenzata dagli sviluppi dell’IA. Il Ministero della Scienza e della Tecnologia della Repubblica Popolare Cinese (MOST) istituirà anche un organo di controllo per monitorare e far progredire l’attuazione del Piano. Per monitorarne l’applicazione, il MOST da allora ha assegnato alcuni dei più famosi giganti di Internet in Cina per aiutare a coordinare il programma e favorirne lo sviluppo. Baidu guiderà la ricerca sui veicoli autonomi, Tencent si occuperà delle innovazioni in campo medico e Alibaba lavorerà sullo sviluppo delle smart cities e iFlyTek migliorerà le interfacce vocali.

Al contrario, l’approccio politico in Europa è stato relativamente più cauto. La pubblicazione delle Regole civili europee in Robotica ha portato all’attenzione del pubblico la necessità di un approccio, agli investimenti e alla legalità dell’IA, coerente a livello europeo. La Commissione Europea riconosce la necessità di investimenti in IA, come dimostrato dall’istituzione del Partenariato per la robotica in Europa (SPARC), un partenariato pubblico-privato con l’obiettivo di stabilire una strategia di robotica funzionante Un’iniziativa congiunta che prevede investimenti che dovrebbero raggiungere 2,8 miliardi di euro con 700 milioni di euro di investimenti finanziari provenienti dalla Commissione Europea nell’ambito di Horizon 2020 nel corso di 7 anni. Questo progetto cooperativo è di gran lunga il più grande programma di ricerca a base civile per l’IA nel mondo.

In Europa, la Commissione Europea ha definito l’IA come l’elemento che “conferisce ai sistemi la capacità di analizzare il proprio  ambiente e di prendere decisioni con un certo grado di autonomia per il raggiungimento dei propri obiettivi”. La Commissione Europea è stata più reattiva quando si è trattato di elaborare una legislazione adeguata per l’IA in quanto, al fine di valutarne la sicurezza, gli esperti sono stati consultati prima della stesura di un nuovo e completo quadro giuridico, poiché alcune applicazioni dell’AI possono sollevare nuove questioni etiche e legali. In tale ottica, il regolamento generale sulla protezione dei dati (GDPR) garantisce protezione e certezza giuridica in merito alle applicazioni basate sull’intelligenza artificiale per la riservatezza dei dati dei cittadini europei. La Commissione Europea ha inoltre recentemente accolto con favore le definitive Linee Guida etiche per un’Intelligenza Artificiale Affidabile preparate dal Gruppo ad Alto Livello sull’Intelligenza Artificiale (AI HLEG), pubblicate l’8 aprile 2019, che elencano i sette requisiti chiave che i sistemi di intelligenza artificiale devono soddisfare per essere affidabili.

Per quanto riguarda la gestione dell’impatto che l’IA avrà sulla società europea, la Commissione europea ha già istituito la Digital Jobs and Skill Coalition, un organo che mira ad equipaggiare la forza lavoro europea le competenze necessarie per prosperare in un ambiente di lavoro digitalizzato / automatizzato.

La Cina, si ritrova più vicina alla “trappola del reddito medio”. Il costo del lavoro continua ad aumentare e le imprese straniere saranno meno propense ad investire. Al fine di evitare questa “trappola”, il Consiglio di Stato ha iniziato a implementare il monitoraggio e la valutazione dei sistemi di IA. Sul fronte europeo, sebbene si riconosca l’enorme potenziale dell’IA, attualmente l’UE si trova nel bel mezzo delle proprie problematiche in materia di disoccupazione. Sono necessarie ulteriori analisi prima di attuare un quadro giuridico più completo, tuttavia sono già state stabilite alcune basi efficaci che mostrano risultati promettenti.

D’Andrea & Partners è uno Studio Legale internazionale e punto di riferimento per le aziende che vogliono accedere al mercato globale e avere successo. Fondata dal suo managing partner, Carlo Diego D’Andrea, avvocato e pioniere del diritto italiano ed europeo in Cina, oggi lo studio è composto da professionisti provenienti da diversi paesi del mondo. Oltre alla principale sede operativa di Shanghai, D’Andrea & Partners ha diverse filiali in Cina e al di fuori del paese in Italia, India, Vietnam e Russia. I clienti dell’azienda comprendono grandi gruppi industriali, oltre a medie imprese italiane, europee, cinesi e globali.