LA CRESCITA ECONOMICA SECONDO IL PARADIGMA DELL’UNIONE EUROPEA: FOCUS SULL’INTELLIGENZA ARTIFICIALE di Alessandra Di Giovambattista
FOCUS SULL’INTELLIGENZA ARTIFICIALE.
di Alessandra Di Giovambattista
19-07-2023
Recentemente, in occasione del XXX anniversario della nascita del Mercato Unico Europeo(1 gennaio del 1993), la Commissione europea ha presentato due comunicazioni; con la prima, guardando al passato, ha ripercorso i risultati conseguiti con l’istituzione del mercato unico, con la seconda si è posta l’obiettivo di rafforzare ed approfondire il mercato unico, garantendone la competitività a lungo termine. I risultati conseguiti in questi 30 anni di mercato unico europeo, che nel suo insieme rappresenta il 15% del PIL mondiale, sono riconducibili a benefici per i cittadini e le imprese che devono però continuare a consolidarsi attraverso modifiche ed adattamenti alle nuove realtà, con un potenziale di miglioramento che potrebbe assicurare 713 mld di euro di valore aggiunto entro la fine del 2029. Con la seconda comunicazione la commissione europea si è confrontata con l’obiettivo di migliorare il flusso commerciale dei beni e servizi all’interno dell’Unione europea (UE) fondato su un modello di crescita economica che utilizzi la competitività sostenibile, la sicurezza, l’autonomia strategica e la concorrenza leale. Pertanto la commissione si è proposta di lavorare su nove tematiche: 1) il mercato unico funzionante; 2) l’ accesso al capitale privato e agli investimenti, con particolare riguardo all’approfondimento dell'Unione dei mercati dei capitali e al completamento dell'Unione bancaria; 3) gli investimenti pubblici e le infrastrutture; 4)la ricerca e l’ innovazione; 5) l’energia; 6) la circolarità; 7) la digitalizzazione; 8) l’istruzione e le competenze; 9) il commercio e l’autonomia strategica aperta. Tra i vari argomenti si vuol porre, oggi, l’attenzione sull’intelligenza artificiale: croce e delizia di questo nostro tempo che ha attraversato il mondo del reale approdando su quello virtuale ed impattando trasversalmente sulle nostre vite e sui nostri interessi. Uno studio del Parlamento europeo ha evidenziato i rischi connessi all’intelligenza artificiale; in sintesi riconducibili alla tutela dei diritti umani e delle libertà fondamentali, con particolare riferimento alla discriminazione, alla protezione dei dati ed alla vita privata. Secondo la Commissione europea, i sistemi di intelligenza artificiale presentano in via generale, le seguenti caratteristiche: a) opacità (cioè limitata capacità della mente umana di comprendere il funzionamento di determinati sistemi di intelligenza artificiale), b) la complessità, c) l’adattamento continuo e l’imprevedibilità, d) il comportamento autonomo, e) i dati (cioè dipendenza funzionale dai dati utilizzati ed immessi e dalla loro qualità).
Inoltre una nuova ondata di tecnologie riconducibili all’intelligenza artificiale per finalità generali, con capacità generative, come ChatGPT, sta trasformando rapidamente il modo in cui tali sistemi di intelligenza sono costruiti e diffusi e solleva una serie di preoccupazioni in merito alla privacy, ai diritti di proprietà intellettuale e alla diffusione della disinformazione. In particolare la tecnologia generativa, come ChatGPT, utilizza grandi modelli linguistici per dare vita ad opere d’arte, musica, opere letterarie che dovrebbero essere soggetti ad obblighi rigorosi di trasparenza; in particolare bisognerebbe imporre ai fornitori di tali tecnologie generative di specificare che le opere sono frutto dell’insieme di informazioni caricate sull’intelligenza artificiale e non sono opere generate da esseri umani, nonché di formare e progettare i modelli escludendo che questi a loro volta possano generare contenuti illegali e pubblicare in modo trasparente informazioni circa l’uso di dati protetti dal diritto d’autore.In materia di intelligenza artificiale la Commissione europea ha pubblicato un Libro bianco in cui ha evidenziato la necessità di un quadro legislativo orientato agli investimenti in tali tecnologie con il doppio obiettivo di promuovere l’adozione dell’intelligenza artificiale e di affrontare e possibilmente risolvere, nel contempo, i rischi riconducibili all’applicazione di queste nuove tecnologie. All’origine la Commissione europea, nel 2019, aveva dato indicazioni non vincolanti con delle linee guida etiche, al fine di garantire un’intelligenza artificiale affidabile, basate su delle mere raccomandazioni politiche e di investimento. Successivamente, nel 2021, con la comunicazione “Favorire un approccio europeo all’intelligenza artificiale” la Commissione europea ha posto il focus sui vincoli legislativi. Poiché la normativa vigente che protegge i diritti fondamentali e garantisce la sicurezza ed i diritti dei consumatori – con particolare riferimento alleleggi sulla protezione dei dati e sulla non discriminazione – non sembra adeguata per affrontare i rischi riconducibili alle tecnologie relative all’intelligenza artificiale, la Commissione europea ha proposto l’adozione di regole armonizzate per lo sviluppo, l’immissione sul mercato e l’uso dellenuove tecnologie. In particolare le disposizioni si basano su una classificazione fondata sul rischio, andando ad indicare i requisiti e gli obblighi necessari per l’implementazione dell’intelligenza artificiale. Questo approccio si basa su una sorta di “piramide del rischio” ascendente (cioè con situazioni che vanno dal rischio basso/medio a quello più elevato fino ad individuare un rischio inaccettabile) per classificare una serie di pratiche generali e di impieghi specifici in determinati settori, a cui la Commissione riconduce differenti misure di attenuazione, o addirittura divieti di alcune azioni ed attività di intelligenza artificiale. I divieti individuati riguardano un insieme limitato di utilizzi dell’intelligenza artificiale ritenuti non compatibili con i valori che l’Unione europea tutela e che sono riconducibili ai diritti fondamentali contenuti nella Carta europea. Alcuni sistemi di tecnologia artificiale presentano dei rischi non tollerabili per la sicurezza delle persone e la garanzia dei diritti fondamentali; un esempio di rischi non accettabili si ritrova nelle “tecniche subliminali” che consentono modalità dannose di manipolazione o l’identificazione biometrica remota “in tempo reale” (come ad esempio il riconoscimento facciale) in spazi accessibili al pubblico per finalità di contrasto delle azioni illecite. In tali circostanze sarebbero vietate le tecniche di intelligenza artificiale, tranne che per pochi limitati casi. Infatti sarebbero autorizzati sistemi “ad alto rischio” riconducibili a tali tecnologie a condizione che rispettino una serie di requisiti ed obblighi, come ad esempio la valutazione della conformità, e siano riconducibili a particolari settori,come ad esempio l’istruzione, l’occupazione, le attività di contrasto di illeciti e la giustizia. Tuttavia sistemi di intelligenza artificiale che presentano un “rischio limitato” sarebbero soggetti a obblighi di trasparenza meno rigidi: come il caso di uso di chatbot (un programma che simula conversazioni umane), oppure dei sistemi di riconoscimento delle emozioni o “deep fake” che utilizzano foto, video, audio, creati da intelligenza artificiale i quali, partendo da situazioni reali, riescono a modificare o ricreare in modo realistico le caratteristiche ed i movimenti di un essere umano nonchéla sua voce.
Le norme europee individuano inoltre spazi di sperimentazione al fine di promuovere l’innovazione nel settore dell’intelligenza artificiale creando un ambiente controllato per testare e monitorare tecnologie innovative, per un periodo di tempo limitato, con la finalità di sostenere le imprese innovative, le PMI e le start-up. Infine lo scorso 14 giugno il Parlamento europeo ha votato alcuni emendamenti al testo della Commissione europea ed una delle modifiche ha riguardato l’inserimento, nella lista dei sistemi ad alto rischio, delle tecnologie usate per influenzare gli elettori e la metodologia implementata per esaminare l’esito delle elezioni (exit poll) e dei sistemi di raccomandazione usati dai social media con più di 45 milioni di utenti (quest’ultimo aspetto riguarda i venditori online e le aziende dell'intrattenimento che utilizzano i suggerimenti in tempo reale o mostrano pubblicità basate su cosa il cliente sta guardando o ascoltando. I social network come LinkedIn e Facebook consigliano, ad esempio, connessioni o amici in base alla tipologia del proprio network). Si apre ora il processo di dibattito che prevede che le discussioni iniziali si concentrino specialmente sull’accoglimento parziale delle questioni più delicate e pressanti, al fine di tutelare diritti e principi non negoziabili comunitari, prima che i legislatori dei diversi paesi raggiungano un accordo definitivo, che potrebbe arrivare anche molto in là nel tempo, lasciando quindi incustodita una grande fascia di diritti e garanzie che l’intelligenza artificiale potrebbeminare e modificare fino al punto di annullare.
Pertanto a chiusura di questo approfondimento si vorrebbero sottolineare le criticità riconducibili all’intelligenza artificiale: Dipendenza: l’essere umano, nella maggioranza dei casi, ha un atteggiamento di pigrizia finalizzato all’economia delle energie; affidarsi all’intelligenza artificiale può significare perdere la capacità creativa e critica che sono le caratteristiche che hanno permesso alle civiltà di evolversi e svilupparsi. Aumento delle disuguaglianze: questo problema è alimentato dalle diverse possibilità di utilizzo da parte dei singoli utenti. Infatti diversi saranno gli obiettivi ed i vantaggi che potrà trarre un’azienda rispetto ad un semplice privato nell’uso delle tecnologie. Privacy: molti degli attuali sistemi di intelligenza artificiale si basano su masse di informazioni carpite su internet in modo casuale e senza che alcuni sappiano dell’uso di tali dati, in violazione della privacy dei singoli.
- Mancanza di legame con la realtà: il mondo dell’intelligenza artificiale non permette più una separazione netta tra mondo reale e mondo virtuale e questo alla lunga può portare a disorientamento e problematiche di tipo relazionali e psicologiche, con perdita delle
relazioni interpersonali ed umane.
- Disinformazione: i dati che utilizza l’intelligenza artificiale sono dati grezzi, presi in maniera randomica sul web (altrimenti una analisi ed una cernita dei dati da parte degli esseri umani porterebbe a rallentare l’alimentazione del software con conseguenze in termini di aumento dei costi). Ciò implica che potrebbero essere diffuse notizie false e del tutto incoerenti (come spesso fa chatGPT) che inoltre non potrebbero essere corrette in tempo reale.
- Uso scorretto dell’intelligenza artificiale: nel caso si verifichi tale evenienza, possono sorgere problemi di tipo etico; infatti il software, essendo un prodotto informatico, non è
possibile impostarlo su problematiche di tipo etico/morale. Ciò comporta che le risposte ottenibili da tali strumenti non compiano un processo di discernimento tra ciò che è giusto e ciò che non lo è. Questo aspetto apre a richieste da parte degli utenti di conoscere le modalità per compiere illeciti, a cui il software può dare risposta, senza distinguere ovviamente tra ciò che è legale e ciò che non lo è, perdendo di vista anche problematiche connesse con la responsabilità delle azioni commesse.
- Perdita di lavoro: questo è un rischio concreto in considerazione del fatto che molti posti dilavoro si sono già persi con la sostituzione di software di intelligenza artificiale. Si pensi ai chatbot che assistono la clientela, spesso anche con molto poco successo, che hanno preso il posto degli esseri umani; è vero che ogni epoca, ad iniziare dalla rivoluzione industriale, ha visto la sostituzione del lavoro umano con quello artificiale, però oggi i tempi di sostituzione sono davvero molto stretti e la rapidità del cambiamento potrebbe non garantire la transizione della perdita del vecchio lavoro con ingaggi in attività di nuova tipologia.
- Mercato finanziario: già in uso, strumenti come BloombergGPT hanno rivoluzionato il settore del mercato finanziario dove si manovrano grandi masse di risorse monetarie con il mero obiettivo della speculazione. Siamo di fronte ad un agire senza etica da parte di queste tecnologie che generano solo del male sia per le aziende sia per i risparmiatori, essendo di fatto utilizzate solo da grandi investitori speculativi. Operazioni di tale portata potrebbero generare delle profonde crisi finanziarie con perdita, per gli operatori economici meno tutelati, di valori cospicui.
- Creazione di armi autonome: è già iniziata la produzione di armi autonome che si basano sull’intelligenza artificiale. si pensi alle armi intelligenti, ai droni, e a tutte le tecnologie che hanno come obiettivo la distruzione, senza saper e poter guardare negli occhi degli esser umani. Il futuro che si presenta potrebbe essere davvero orribile; già oggi le armi nucleari in mano a degli esseri umani fanno paura, ma in mano a macchinari autonomi la strada da percorrere sarebbe solo a senso unico, senza ritorno.
A conclusione di queste osservazioni c’è da porsi una domanda: la razza umana è in pericolo di estinzione? A ben vedere sì; pensiamo all’educazione sempre meno religiosa, etica e morale che diamo ai nostri giovani, alla cultura del mordi e fuggi, alla ineducazione verso il futuro e le prospettive umane e lavorative, all’inverno demografico, alla mancanza di responsabilità. Sono tutte situazioni che portano a pensare l’uomo come limitato sull’asse temporale della vita, verso una strada senza ritorno dove basteranno poche persone potenti che potranno godere di un mondo più o meno florido con alle loro dipendenze macchine senza cuore e senza intelligenza, se non quella rubata a millenni di civiltà, ma finite e limitate anche loro nelle proprie possibilità di sviluppo perché alla fine verrà a mancare la materia prima dei loro dati ed informazioni: larazza umana. Quindi il richiamo verso l’attenzione e la delicatezza della questione porta a considerazioni drastiche: non facciamoci abbindolare da un futuro fantascientifico, smettiamola di fornire consensi all’uso dei nostri dati biometrici e non (pensiamo anche a tutelarci nelle azioni più banali della vita quotidiana, come quella, ad esempio, di sottoscrivere tessere nei supermercati dove ti chiedono notizie, le più disparate che poco hanno a che fare con la richiesta di una semplice carta finalizzata a discutibili sconti), la vita è ora e deve rispondere anche ad una concreta e vivibile speranza nel futuro, e va goduta nel modo più naturale possibile nel
rispetto del creato, tutto, uomini, animali ed ambiente e lasciando che le macchine e gli automatismi ci aiutino nei lavori quotidiani più pesanti, ma non ci sostituiscano in nessuna delle nostre umane funzioni ed azioni, le uniche capaci di proiettarci verso un futuro migliore per i nostri giovani, la vera ed unica ricchezza dell’umanità.