FOCUS SULL’INTELLIGENZA ARTIFICIALE.
di Alessandra Di Giovambattista
Recentemente, in occasione del XXX anniversario della nascita del Mercato Unico Europeo
(1 gennaio del 1993), la Commissione europea ha presentato due comunicazioni; con la prima,
guardando al passato, ha ripercorso i risultati conseguiti con l’istituzione del mercato unico, con la
seconda si è posta l’obiettivo di rafforzare ed approfondire il mercato unico, garantendone la
competitività a lungo termine. I risultati conseguiti in questi 30 anni di mercato unico europeo, che
nel suo insieme rappresenta il 15% del PIL mondiale, sono riconducibili a benefici per i cittadini e
le imprese che devono però continuare a consolidarsi attraverso modifiche ed adattamenti alle
nuove realtà, con un potenziale di miglioramento che potrebbe assicurare 713 mld di euro di valore
aggiunto entro la fine del 2029. Con la seconda comunicazione la commissione europea si è
confrontata con l’obiettivo di migliorare il flusso commerciale dei beni e servizi all’interno
dell’Unione europea (UE) fondato su un modello di crescita economica che utilizzi la competitività
sostenibile, la sicurezza, l’autonomia strategica e la concorrenza leale. Pertanto la commissione si è
proposta di lavorare su nove tematiche: 1) il mercato unico funzionante; 2) l’ accesso al capitale
privato e agli investimenti, con particolare riguardo all’approfondimento dell'Unione dei mercati dei
capitali e al completamento dell'Unione bancaria; 3) gli investimenti pubblici e le infrastrutture; 4)
la ricerca e l’ innovazione; 5) l’energia; 6) la circolarità; 7) la digitalizzazione; 8) l’istruzione e le
competenze; 9) il commercio e l’autonomia strategica aperta.
Tra i vari argomenti si vuol porre, oggi, l’attenzione sull’intelligenza artificiale: croce e
delizia di questo nostro tempo che ha attraversato il mondo del reale approdando su quello virtuale
ed impattando trasversalmente sulle nostre vite e sui nostri interessi. Uno studio del Parlamento
europeo ha evidenziato i rischi connessi all’intelligenza artificiale; in sintesi riconducibili alla tutela
dei diritti umani e delle libertà fondamentali, con particolare riferimento alla discriminazione, alla
protezione dei dati ed alla vita privata. Secondo la Commissione europea, i sistemi di intelligenza
artificiale presentano in via generale, le seguenti caratteristiche: a) opacità (cioè limitata capacità
della mente umana di comprendere il funzionamento di determinati sistemi di intelligenza
artificiale), b) la complessità, c) l’adattamento continuo e l’imprevedibilità, d) il comportamento
autonomo, e) i dati (cioè dipendenza funzionale dai dati utilizzati ed immessi e dalla loro qualità).
Inoltre una nuova ondata di tecnologie riconducibili all’intelligenza artificiale per finalità generali,
con capacità generative, come ChatGPT, sta trasformando rapidamente il modo in cui tali sistemi di
intelligenza sono costruiti e diffusi e solleva una serie di preoccupazioni in merito alla privacy, ai
diritti di proprietà intellettuale e alla diffusione della disinformazione. In particolare la tecnologia
generativa, come ChatGPT, utilizza grandi modelli linguistici per dare vita ad opere d’arte, musica,
opere letterarie che dovrebbero essere soggetti ad obblighi rigorosi di trasparenza; in particolare
bisognerebbe imporre ai fornitori di tali tecnologie generative di specificare che le opere sono frutto
dell’insieme di informazioni caricate sull’intelligenza artificiale e non sono opere generate da esseri
umani, nonché di formare e progettare i modelli escludendo che questi a loro volta possano generare
contenuti illegali e pubblicare in modo trasparente informazioni circa l’uso di dati protetti dal diritto
d’autore.
In materia di intelligenza artificiale la Commissione europea ha pubblicato un Libro bianco
in cui ha evidenziato la necessità di un quadro legislativo orientato agli investimenti in tali
tecnologie con il doppio obiettivo di promuovere l’adozione dell’intelligenza artificiale e di
affrontare e possibilmente risolvere, nel contempo, i rischi riconducibili all’applicazione di queste
nuove tecnologie. All’origine la Commissione europea, nel 2019, aveva dato indicazioni non
vincolanti con delle linee guida etiche, al fine di garantire un’intelligenza artificiale affidabile,
basate su delle mere raccomandazioni politiche e di investimento. Successivamente, nel 2021, con
europea ha posto il focus sui vincoli legislativi. Poiché la normativa vigente che protegge i diritti
fondamentali e garantisce la sicurezza ed i diritti dei consumatori – con particolare riferimento alle
leggi sulla protezione dei dati e sulla non discriminazione – non sembra adeguata per affrontare i
rischi riconducibili alle tecnologie relative all’intelligenza artificiale, la Commissione europea ha
proposto l’adozione di regole armonizzate per lo sviluppo, l’immissione sul mercato e l’uso delle
nuove tecnologie. In particolare le disposizioni si basano su una classificazione fondata sul rischio,
andando ad indicare i requisiti e gli obblighi necessari per l’implementazione dell’intelligenza
artificiale. Questo approccio si basa su una sorta di “piramide del rischio” ascendente (cioè con
situazioni che vanno dal rischio basso/medio a quello più elevato fino ad individuare un rischio
inaccettabile) per classificare una serie di pratiche generali e di impieghi specifici in determinati
settori, a cui la Commissione riconduce differenti misure di attenuazione, o addirittura divieti di
alcune azioni ed attività di intelligenza artificiale. I divieti individuati riguardano un insieme
limitato di utilizzi dell’intelligenza artificiale ritenuti non compatibili con i valori che l’Unione
europea tutela e che sono riconducibili ai diritti fondamentali contenuti nella Carta europea. Alcuni
sistemi di tecnologia artificiale presentano dei rischi non tollerabili per la sicurezza delle persone e
la garanzia dei diritti fondamentali; un esempio di rischi non accettabili si ritrova nelle “tecniche
subliminali” che consentono modalità dannose di manipolazione o l’identificazione biometrica
remota “in tempo reale” (come ad esempio il riconoscimento facciale) in spazi accessibili al
pubblico per finalità di contrasto delle azioni illecite. In tali circostanze sarebbero vietate le tecniche
di intelligenza artificiale, tranne che per pochi limitati casi. Infatti sarebbero autorizzati sistemi “ad
alto rischio” riconducibili a tali tecnologie a condizione che rispettino una serie di requisiti ed
obblighi, come ad esempio la valutazione della conformità, e siano riconducibili a particolari settori,
come ad esempio l’istruzione, l’occupazione, le attività di contrasto di illeciti e la giustizia. Tuttavia
sistemi di intelligenza artificiale che presentano un “rischio limitato” sarebbero soggetti a obblighi
di trasparenza meno rigidi: come il caso di uso di chatbot (un programma che simula conversazioni
umane), oppure dei sistemi di riconoscimento delle emozioni o “deep fake” che utilizzano foto,
video, audio, creati da intelligenza artificiale i quali, partendo da situazioni reali, riescono a
modificare o ricreare in modo realistico le caratteristiche ed i movimenti di un essere umano nonché
la sua voce.
Le norme europee individuano inoltre spazi di sperimentazione al fine di promuovere
l’innovazione nel settore dell’intelligenza artificiale creando un ambiente controllato per testare e
monitorare tecnologie innovative, per un periodo di tempo limitato, con la finalità di sostenere le
imprese innovative, le PMI e le start-up. Infine lo scorso 14 giugno il Parlamento europeo ha votato
alcuni emendamenti al testo della Commissione europea ed una delle modifiche ha riguardato
l’inserimento, nella lista dei sistemi ad alto rischio, delle tecnologie usate per influenzare gli elettori
e la metodologia implementata per esaminare l’esito delle elezioni (exit poll) e dei sistemi di
raccomandazione usati dai social media con più di 45 milioni di utenti (quest’ultimo aspetto
riguarda i venditori online e le aziende dell'intrattenimento che utilizzano i suggerimenti in tempo
reale o mostrano pubblicità basate su cosa il cliente sta guardando o ascoltando. I social network
come LinkedIn e Facebook consigliano, ad esempio, connessioni o amici in base alla tipologia del
proprio network). Si apre ora il processo di dibattito che prevede che le discussioni iniziali si
concentrino specialmente sull’accoglimento parziale delle questioni più delicate e pressanti, al fine
di tutelare diritti e principi non negoziabili comunitari, prima che i legislatori dei diversi paesi
raggiungano un accordo definitivo, che potrebbe arrivare anche molto in là nel tempo, lasciando
quindi incustodita una grande fascia di diritti e garanzie che l’intelligenza artificiale potrebbe
minare e modificare fino al punto di annullare.
Pertanto a chiusura di questo approfondimento si vorrebbero sottolineare le criticità
riconducibili all’intelligenza artificiale:
- Dipendenza: l’essere umano, nella maggioranza dei casi, ha un atteggiamento di pigrizia
finalizzato all’economia delle energie; affidarsi all’intelligenza artificiale può significare
perdere la capacità creativa e critica che sono le caratteristiche che hanno permesso alle
civiltà di evolversi e svilupparsi.
- Aumento delle disuguaglianze: questo problema è alimentato dalle diverse possibilità di
utilizzo da parte dei singoli utenti. Infatti diversi saranno gli obiettivi ed i vantaggi che potrà
trarre un’azienda rispetto ad un semplice privato nell’uso delle tecnologie.
- Privacy: molti degli attuali sistemi di intelligenza artificiale si basano su masse di
informazioni carpite su internet in modo casuale e senza che alcuni sappiano dell’uso di tali
dati, in violazione della privacy dei singoli.
- Mancanza di legame con la realtà: il mondo dell’intelligenza artificiale non permette più una
separazione netta tra mondo reale e mondo virtuale e questo alla lunga può portare a
disorientamento e problematiche di tipo relazionali e psicologiche, con perdita delle
relazioni interpersonali ed umane.
- Disinformazione: i dati che utilizza l’intelligenza artificiale sono dati grezzi, presi in
maniera randomica sul web (altrimenti una analisi ed una cernita dei dati da parte degli
esseri umani porterebbe a rallentare l’alimentazione del software con conseguenze in termini
di aumento dei costi). Ciò implica che potrebbero essere diffuse notizie false e del tutto
incoerenti (come spesso fa chatGPT) che inoltre non potrebbero essere corrette in tempo
reale.
- Uso scorretto dell’intelligenza artificiale: nel caso si verifichi tale evenienza, possono
sorgere problemi di tipo etico; infatti il software, essendo un prodotto informatico, non è
possibile impostarlo su problematiche di tipo etico/morale. Ciò comporta che le risposte
ottenibili da tali strumenti non compiano un processo di discernimento tra ciò che è giusto e
ciò che non lo è. Questo aspetto apre a richieste da parte degli utenti di conoscere le
modalità per compiere illeciti, a cui il software può dare risposta, senza distinguere
ovviamente tra ciò che è legale e ciò che non lo è, perdendo di vista anche problematiche
connesse con la responsabilità delle azioni commesse.
- Perdita di lavoro: questo è un rischio concreto in considerazione del fatto che molti posti di
lavoro si sono già persi con la sostituzione di software di intelligenza artificiale. Si pensi ai
chatbot che assistono la clientela, spesso anche con molto poco successo, che hanno preso il
posto degli esseri umani; è vero che ogni epoca, ad iniziare dalla rivoluzione industriale, ha
visto la sostituzione del lavoro umano con quello artificiale, però oggi i tempi di sostituzione
sono davvero molto stretti e la rapidità del cambiamento potrebbe non garantire la
transizione della perdita del vecchio lavoro con ingaggi in attività di nuova tipologia.
- Mercato finanziario: già in uso, strumenti come BloombergGPT hanno rivoluzionato il
settore del mercato finanziario dove si manovrano grandi masse di risorse monetarie con il
mero obiettivo della speculazione. Siamo di fronte ad un agire senza etica da parte di queste
tecnologie che generano solo del male sia per le aziende sia per i risparmiatori, essendo di
fatto utilizzate solo da grandi investitori speculativi. Operazioni di tale portata potrebbero
generare delle profonde crisi finanziarie con perdita, per gli operatori economici meno
tutelati, di valori cospicui.
- Creazione di armi autonome: è già iniziata la produzione di armi autonome che si basano
sull’intelligenza artificiale. si pensi alle armi intelligenti, ai droni, e a tutte le tecnologie che
hanno come obiettivo la distruzione, senza saper e poter guardare negli occhi degli esseri
umani. Il futuro che si presenta potrebbe essere davvero orribile; già oggi le armi nucleari in
mano a degli esseri umani fanno paura, ma in mano a macchinari autonomi la strada da
percorrere sarebbe solo a senso unico, senza ritorno.
A conclusione di queste osservazioni c’è da porsi una domanda: la razza umana è in pericolo
di estinzione? A ben vedere sì; pensiamo all’educazione sempre meno religiosa, etica e morale
che diamo ai nostri giovani, alla cultura del mordi e fuggi, alla ineducazione verso il futuro e le
prospettive umane e lavorative, all’inverno demografico, alla mancanza di responsabilità. Sono
tutte situazioni che portano a pensare l’uomo come limitato sull’asse temporale della vita, verso
una strada senza ritorno dove basteranno poche persone potenti che potranno godere di un
mondo più o meno florido con alle loro dipendenze macchine senza cuore e senza intelligenza,
se non quella rubata a millenni di civiltà, ma finite e limitate anche loro nelle proprie possibilità
di sviluppo perché alla fine verrà a mancare la materia prima dei loro dati ed informazioni: la
razza umana. Quindi il richiamo verso l’attenzione e la delicatezza della questione porta a
considerazioni drastiche: non facciamoci abbindolare da un futuro fantascientifico, smettiamola
di fornire consensi all’uso dei nostri dati biometrici e non (pensiamo anche a tutelarci nelle
azioni più banali della vita quotidiana, come quella, ad esempio, di sottoscrivere tessere nei
supermercati dove ti chiedono notizie, le più disparate che poco hanno a che fare con la richiesta
di una semplice carta finalizzata a discutibili sconti), la vita è ora e deve rispondere anche ad
una concreta e vivibile speranza nel futuro, e va goduta nel modo più naturale possibile nel
rispetto del creato, tutto, uomini, animali ed ambiente e lasciando che le macchine e gli
automatismi ci aiutino nei lavori quotidiani più pesanti, ma non ci sostituiscano in nessuna delle
nostre umane funzioni ed azioni, le uniche capaci di proiettarci verso un futuro migliore per i
nostri giovani, la vera ed unica ricchezza dell’umanità.