Torna al blog

L'approccio dell'utente all'IA

Post Cover - L'approccio dell'utente all'IA



A marzo 2024 si è concluso il percorso dell’IA Act - durato quattro anni - con l’approvazione definitiva del Parlamento Europeo. E’ il tentativo di partecipare alla corsa assieme agli Stati Uniti e alla Cina, contribuendo con la forza della regolamentazione a reindirizzare le modalità con cui l’IA viene impiegata.

L’IA Act proibisce l’utilizzo dell’intelligenza artificiale nella creazione di database di riconoscimento biometrico attraverso lo scraping di filmati di video sorveglianza e contenuti video presenti in internet. E’ vietata l’applicazione per il riconoscimento delle emozioni - in particolare sul luogo di lavoro o a scuola - e per creare sistemi di social scoring, già presenti in Cina, utili a governi e aziende per indirizzare e manipolare i comportamenti.

Viene poi limitata l’applicazione dell’AI nel cosiddetto predictive policing - ovvero la prevenzione predittiva delle attività criminali - per evitare fenomeni di profilazione razziale, patrimoniale, o di altro tipo.

Ci sono poi adempimenti precisi - riguardanti la trasparenza, la rintracciabilità delle azioni dell’IA e la sorveglianza umana - richiesti a chi utilizza l’IA in settori ad alto rischio, sensibili per i diritti del cittadino o per l’impatto che hanno sulla comunità o sull’ambiente. Infrastrutture, formazione, sanità ed altri servizi, forze dell’ordine, decisioni sull’impiego, tra le principali.

E’ il tentativo più avanzato al mondo di regolazione dell’uso e sviluppo delle IA. Ma le istituzioni europee combattono questa battaglia con armi spuntate: non hanno la possibilità di attuare una vera e propria strategia per un approccio efficace allo sviluppo dell’intelligenza artificiale. Non senza la collaborazione degli stati membri, che sono restii a impiegare le risorse necessarie a competere in un settore in espansione e dalle potenzialità dirompenti.

Il quadro dei capitali privati e degli investimenti pubblici restituisce un’Europa costantemente al terzo posto in un mercato in forte espansione: i dati del 2023 vedono gli Stati Uniti in cima alla classifica dei capitali privati investiti sullo sviluppo dell’intelligenza artificiale (circa 44 miliardi di euro), mentre la Cina è seconda con distacco (12,5 miliardi di euro). L’UE ha attirato poco meno di 6 miliardi di euro che, sommati ai 4 miliardi del Regno Unito, non raggiungono comunque le cifre cinesi.

Sul piano degli investimenti pubblici il quadro non è certo più roseo. Gli stati membri sono restii a investire in settori ad alta innovazione. Quando c’è la volontà, poi, emerge l’ostacolo dell’inefficienza dell’approccio frammentario tenuto dall’Unione sul fronte degli investimenti pubblici: Next Generation EU consente agli stati membri di accedere a risorse aggiuntive per la digitalizzazione, compresi gli investimenti per lo sviluppo dell’intelligenze artificiale. Ma la compresenza e l’intreccio di piani diversi e scarsamente integrati tra loro non consente di inserirsi nella sfida tra Cina e Stati Uniti.

L’approccio dell’Unione è quello che vorrei definire come “approccio dell’utente”. Proprio come il comune consumatore, infatti, anche l’Europa pare rimanere in attesa del nuovo prodotto proveniente dalle grandi multinazionali cinesi e americane.

L’approccio dell’utente è un problema oramai strutturale della (assente) politica industriale europea. L’Europa ha una presenza secondaria sul mercato dei dispositivi elettronici personali, primi fra tutti gli smartphones, così come in quello dei softwares e delle grandi piattaforme.Per disporre di questi strumenti, le aziende e i consumatori europei dipendono da processi di progettazione e produzione in mano ad altri stati. La stagnazione economica che a vario titolo interessa gli stati membri dipende anche dalla mancanza di investimenti in settori nuovi ed in espansione, e necessita di un’inversione di rotta che riscuota il sistema economico.

C’è poi la questione legata più strettamente all’impatto sulla vita democratica e sui diritti dei cittadini europei. I limiti dell’approccio puramente regolamentatore tenuto dall’Unione sono già emersi in passato: contro la pervasività potenziale dell’IA, l’approccio dell’utente potrebbe avere conseguenze disastrose.

L’IA, infatti, è anche uno strumento con il quale potenziare tecnologie preesistenti o basare nuova innovazione. Può essere controllata democraticamente solo se lo sviluppo avviene in casa. Un prodotto esterno alla UE finisce per attenersi in misura minore al quadro legislativo europeo, portando ad un bivio spinoso: da un lato, la concreta possibilità di utilizzare declinazioni dell’intelligenze artificiale che non rispecchiano i valori dell’Unione; dall’altro, l’alternativa di un tessuto socioeconomico che non impiega lo strumento dell’IA e, quindi, perde il treno dell’innovazione tecnologica, con tutte le conseguenze del caso.

Lo sviluppo dell’IA necessita di maggiore attenzione da parte delle istituzioni europee, ma anche di una maggiore consapevolezza da parte degli stati che compongono l’Unione. Stretti nella morsa delle lobby e dei vari gruppi di interesse, desiderosi di mantenere il proprio vantaggio all’interno del proprio circoscritto sistema politico, i membri della classe dirigente paiono non vedere la drammaticità della situazione.

L’Europa ha bisogno di sviluppare un approccio collaborativo, integrato e coraggioso, in grado di governare e sviluppare il fenomeno dell’intelligenza artificiale. Non si può ridurre l’approccio europeo - collocato a metà tra quello americano refrattario alla regolazione e quello cinese di forte indirizzamento pubblico nella scelta delle finalità degli strumenti - ad un regolamento, per quanto esaustivo sia. Serve una politica industriale comune.

Nota: Questo articolo utilizza le informazioni elaborate dal Servizio Ricerca del Parlamento Europeo, che ha seguito l’iter dell’IA ACT e continua a monitorarne gli effetti e ricadute.

Torna al blog