ACCERTAMENTO TRIBUTARIO E INTELLIGENZA ARTIFICIALE: RIFLESSIONI
di Alessandra Di Giovambattista

Riprendendo quanto osservato nel precedente articolo in tema di accertamento tributario, il disegno di legge delega sembra aver messo al centro della riforma fiscale l’utilizzo dell’intelligenza artificiale; ma su cosa si fonda l’intelligenza artificiale? Alla sua base vi sono gli algoritmi, cioè tecniche computazionali e soluzioni in grado di replicare il comportamento umano; ad oggi l’intelligenza artificiale è largamente applicata in vari campi: medicina, robotica, mercato azionario, ricerca scientifica. Gli algoritmi, alla base dell’intelligenza artificiale, prenderanno piede anche nell’ambito amministrativo finanziario per effetto della riforma tributaria, in particolare nell’ambito dell’attività di accertamento fiscale. Già dalle prime frasi comprendiamo che stiamo incamminandoci in un campo minato, davvero delicato: si lascia spazio agli algoritmi risolti dalle macchine attraverso l’intelligenza artificiale per trovare soluzione a questioni e problematiche che richiedono approfondimenti normativi ed amministrativi da parte dell’intelligenza e dell’esperienza umana. Ad oggi il legislatore delegato si è posto il problema di garantire il pieno rispetto della normativa in tema di protezione dei dati personali: sul punto a livello comunitario non mancano precise indicazioni a tutela dei cittadini che potranno essere direttamente utilizzate negli ordinamenti dei singoli stati membri. In Italia sia il Garante per la protezione dei dati personali sia il Consiglio di Stato si sono già espressi sull’utilizzo degli algoritmi nel diritto amministrativo ponendo particolare attenzione alla tutela dei dati personali; la riforma in parola offre allora spunti di riflessione per fare una ricognizione sulle possibilità dell’uso dell’intelligenza artificiale in ambito giuridico, con riferimento specifico al diritto tributario, nonché sulle limitazioni di essa e sulle garanzie da adottare a favore dei contribuenti.
La riforma fiscale, come osservato nel precedente articolo, prevede un incisivo utilizzo delle nuove tecnologie informatiche per cercare di rendere efficace la intercomunicazione delle banche dati presenti nell’anagrafe tributaria nonché per rendere più puntuali le analisi e le selezioni dei contribuenti a rischio di evasione. Sono quindi evidenziati, nella legge delega, sia il pieno utilizzo dei dati che affluiscono al sistema informativo dell’anagrafe tributaria sia il potenziamento dell’analisi del rischio, ma anche il ricorso alle tecnologie digitali e alle soluzioni di intelligenza artificiale, il tutto, dovrebbe avvenire, nel rispetto della normativa in tema di protezione dei dati personali. L’intelligenza artificiale dovrebbe rafforzare anche il regime di adempimento collaborativo che, attraverso l’aggiornamento e l’introduzione di nuovi istituti, anche premiali, potrà incentivare forme di collaborazione tra l’Amministrazione finanziaria e i contribuenti. L’obiettivo dell’utilizzo degli algoritmi - che peraltro rappresenta uno dei focus fissati dal PNRR per la riforma ed il miglioramento della qualità del fisco italiano per il quale sono state destinate risorse finanziarie - è rappresentato non tanto dall’aumento dell’attività di accertamento ma soprattutto, dal promuovere e stimolare la crescita delle basi imponibili (c.d. compliance fiscale). In tale contesto possiamo vedere un regime anticipatore dell’utilizzo dei big data e degli algoritmi con i regimi della fatturazione elettronica e della trasmissione telematica dei corrispettivi con i quali si incrociano i dati di natura quantitativa/qualitativa al fine dei controlli di natura fiscale, con la speranza che però si salvaguardi la riservatezza dei dati personali.
Ulteriore aspetto che dovrà essere migliorato con l’utilizzo delle modalità informatiche di incrocio dei dati di natura economica, finanziaria e patrimoniale, è quello relativo al sistema nazionale della riscossione che potrà essere reso più snello eliminando duplicazioni procedurali con riduzione dei costi e miglioramenti di efficienza ed efficacia del sistema della riscossione stessa.
Ciò è quanto ci dice la riforma fiscale e le esperienze finora vissute in tale ambito, ma è necessario introdurre alcuni spunti di riflessione: l’uso dell’intelligenza artificiale e degli algoritmi obbliga alla tutela dei dati personali, in quanto pur riconoscendo al metodo un indubbio valore conoscitivo/predittivo (anche se con le dovute cautele e con tanti dubbi circa la correttezza e la reale capacità predittiva di tali informazioni) non può non considerarsi la delicatezza della questione se si pensa alla possibilità dell’uso che potrebbero farne soggetti con obiettivi di natura diversa da quella squisitamente fiscale. Sul punto si pensi, a mero esempio, all’insieme delle informazioni sanitarie, rilevabili nelle specifiche banche dati, fornite dai contribuenti con scopi puramente tributari e finalizzate all’ottenimento delle detrazioni fiscali; tali dati, manipolati in modo non deontologicamente corretto, potrebbero essere usati in maniera fraudolenta ed inopportuna rispetto all’obiettivo fiscale. Si tenga presente, ad esempio, che con la finalità di contrastare l’evasione, molte delle tutele previste dal codice per la protezione dei dati personali sono state disattese dall’amministrazione finanziaria utilizzando il decreto del 28 giugno 2022, in attuazione dell’articolo 1, commi da 681 a 686 della legge n. 160 del 2019 (legge di bilancio per il 2020). In tale ambito è già intervenuto il Garante della privacy che ha evidenziato le lacune ad oggi esistenti nella normativa a tutela dei dati e delle informazioni dei contribuenti. Si rammenta a tal proposito che i citati commi da 681 a 686 della L. n. 160 del 2019 prevedono che a fini antievasione sono da considerarsi di interesse pubblico rilevante i dati personali presenti in anagrafe tributaria e nelle altre banche dati, con la possibilità, per la pubblica amministrazione o per le società da questa incaricate, di procedere al trattamento dei dati personali in deroga alle disposizioni del codice della privacy; al tal riguardo si evidenzia che viene abrogata, con l’articolo 9 del successivo DL n. 139 del 2021, la possibilità per il Garante di poter prescrivere, in capo al titolare dell’attività di rilevanza pubblica, misure e accorgimenti a garanzia dell’interessato, qualora il trattamento possa esporre il soggetto a rischi elevati di violazione della propria sfera personale.
Quindi l’Agenzia delle entrate, la Guardia di finanza, o altro ente che agisce per conto della pubblica amministrazione, potranno liberamente disporre di informazioni senza dover interagire con il Garante dei dati personali, essendo sufficiente evidenziare che l’utilizzo dei dati è per fini antievasione; ma il problema effettivo è, come già sottolineato, se siano davvero interessanti i dati relativi alla condizione di salute della persona (si consideri che in anagrafe tributaria si trovano, oltre alle semplici indicazioni esposte in fattura, anche i dati relativi alla tipologia di prestazioni sanitarie ricevute dal contribuente nelle strutture pubbliche o convenzionate) ai fini della lotta all’evasione, oppure le scelte di finanziamento di enti ed associazioni no profit e benefiche, o anche le scelte circa la tipologia di acquisti che vengono effettuati da ogni soggetto che si reca al mercato (abbiamo fatto caso che oggi, a differenza di alcuni anni fa, per avere la tessera del supermercato viene richiesto il codice fiscale? Per quale motivo, se non per ragioni di controllo? All’Agenzia delle entrate interessa che il negozio della grande distribuzione paghi il dovuto emettendo lo scontrino fiscale ed invii telematicamente gli incassi o la tipologia di spesa quotidiana che fa ogni contribuente? Possiamo immaginare che a fini anti evasione ci siano dei diligenti impiegati pubblici che controllano gli acquisti di tutti gli italiani per capirne il tenore di vita rispetto a quanto dichiarato, o piuttosto è verosimile ipotizzare una inizio di dittatura dei big data e dell’intelligenza artificiale?). E’ legittimo supporre un uso distorto delle informazioni sanitarie, e più in generale di natura personale, per motivi di controllo e/o di potenziali atti illeciti nei confronti del contribuente assoggettato ad una “simulata” procedura di verifica fiscale? Chi saranno poi i soggetti, pubblici o privati, che potranno manipolare, trattare o anche solo visionare i dati personali di ognuno di noi, con la scusa della pseudo meritoria “attività antievasione e antielusione”, di cui si è già avuto modo di parlare? Potenzialmente potremmo trovarci da una parte migliaia di individui, da ipotizzare non solo connazionali ma anche stranieri, che gestiscono dati, e dall’altra la parte debole, i contribuenti, del tutto inconsapevoli, inermi ed estromessi da ogni forma di tutela e garanzia.
Queste considerazioni, insieme a situazioni concrete che sono già emerse inducono a sottolineare come non sarà di facile soluzione trovare un equilibrio nell’uso dell’intelligenza artificiale in ambito fiscale, rispettando le norme interne e comunitarie in materia di trattamento e protezione dei dati personali. L’utilizzo dell’intelligenza artificiale e degli algoritmi nell’ambito della giustizia amministrativa ha già permesso di mettere in luce alcune criticità che hanno prodotto dei principi generali, sottolineati con la sentenza del Consiglio di Stato n. 2270 dell’8 aprile 2019, che potrebbero essere utilizzati anche nel diritto tributario e qui riassunti: il principio di conoscibilità in base al quale il contribuente/cittadino ha diritto di conoscere l’esistenza dei processi decisionali basati su trattamenti automatizzati che lo riguardano al fine di ricevere informazioni significative circa la logica utilizzata per la determinazione delle conclusioni e di dare la possibilità di comprenderne facilmente le modalità di definizione del procedimento in un atteggiamento di massima trasparenza; il principio di non esclusività della decisione algoritmica secondo il quale il processo decisionale deve essere un procedimento in cui sia presente l’intervento dell’uomo capace di verificare, validare o smentire la decisione che si è formata in modo automatizzato; il principio di non discriminazione algoritmica secondo il quale il titolare del trattamento dei dati (es, Agenzia delle entrate o Guardia di finanza) deve garantire l’utilizzo delle procedure matematico, statistiche, informatiche appropriate per l’analisi della situazione che si intende verificare al fine di assicurare che possano essere rettificate tutte quelle variabili e fattori che comportino inesattezze o non permettano la massima rispondenza al caso in esame e sia così minimizzato il rischio di errori e massimizzata la garanzia della sicurezza dei dati personali con l’obiettivo di non discriminare il soggetto in base alla razza, all’origine etnica, alle scelte ed opinioni politiche, alla religione professata o alle convinzioni personali, allo stato di salute o genetico, all’orientamento sessuale.
Ciò detto è di tutta evidenza la delicatezza della problematica dell’avvento dell’intelligenza artificiale in ambito tributario, ma potremmo dire in tutti gli ambiti, che dovrà essere affrontata con attenzione, cura e sensibilità umana; occorre escludere la dittatura degli algoritmi e delle soluzioni robotizzate che utilizzando dati del passato propongono dati di natura predittiva. In tale contesto mi viene da pensare come e quanto sarebbe stato predittivo ed affidabile, per determinare ad esempio il concordato biennale preventivo, un algoritmo che avesse studiato il trend dei redditi percepiti da tutti gli operatori economici nell’anno 2020, considerando che il dato sarebbe stato costruito con l’uso delle variabili dell’anno precedente, cioè il 2019, che non potevano aver scontato, né previsto, gli effetti nefasti della COVID-19. Se si fosse davvero verificato un evento di tal genere c’è da immaginare che molto probabilmente l’uso degli algoritmi e dell’intelligenza artificiale avrebbero finito per scavare un solco ancora più profondo tra fisco e contribuenti che in taluni casi si sarebbero trovati a dover pagare imposte per redditi non percepiti (es. gli operatori del settore del turismo e della ristorazione), ed in altri casi a lucrare un extra reddito esentasse (es. tutto il settore delle aziende farmaceutiche e delle farmacie ed il settore sanitario in generale), con buona pace della compliance.
Mi piace terminare questo approfondimento sottolineando, in via generale, che l’intelligenza artificiale è un campo di ricerca che pone in forte contrasto scienziati e filosofi poiché mette in gioco aspetti etici, teorici e pratici. L’attenzione va rivolta verso il fatto che l’intelligenza artificiale mira a dotare le macchine di programmi e sistemi che hanno delle caratteristiche considerate tipicamente umane; ma è del tutto errato pensare che la comprensione e l’elaborazione di abitudini e fatti avvenuti nel passato possano essere oggettivi e neutrali e possano anticipare gli eventi del futuro in quanto la programmazione della macchina sarà sempre in mano all’uomo che esprime nel suo operato i suoi difetti di pregiudizio, discriminazione, voglia di potere, manipolazione. La macchina autonomamente non sarà mai in grado di superare tali problematiche e men che meno ignari ed inermi soggetti che si troveranno succubi di un nuovo tecno-potere nazionale e sovranazionale che potrà controllare ed incanalare verso un determinato obiettivo (non sempre condivisibile) le potenziali libere scelte dei cittadini.
Secondo Stephen Hawking l’intelligenza artificiale avrebbe il potenziale per rivoluzionare il nostro mondo e potrebbe essere la migliore, o la peggiore, cosa mai accaduta all’umanità. Il distinguo, nella sua opinione, starà nelle modalità in cui verrà sviluppata. Anche Elon Musk di recente ha firmato una lettera aperta, con più di 1.000 tra scienziati e ricercatori, pubblicata dal Future of Life Institute (facilmente rintracciabile su internet), in cui si legge che “i sistemi di intelligenza artificiale dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità”; un cambiamento che dovrebbe essere pianificato e gestito in modo accurato e con risorse adeguate. Ma questo non sta avvenendo e ultimamente “i laboratori di intelligenza artificiale si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile”. E ancora si legge: "Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili”. Invito tutti ad una profonda riflessione legata alla rivalutazione della bellezza di alcuni elementi che ci distinguono dal mondo inanimato: la sensibilità, la fantasia ed il rispetto per tutte le forme di vita, in primis, per l’essere umano.