LA CRESCITA ECONOMICA SECONDO IL PARADIGMA DELL’UNIONE EUROPEA:

FOCUS SULL’INTELLIGENZA ARTIFICIALE.

di Alessandra Di Giovambattista

Recentemente, in occasione del XXX anniversario della nascita del Mercato Unico Europeo

(1 gennaio del 1993), la Commissione europea ha presentato due comunicazioni; con la prima,

guardando al passato, ha ripercorso i risultati conseguiti con l’istituzione del mercato unico, con la

seconda si è posta l’obiettivo di rafforzare ed approfondire il mercato unico, garantendone la

competitività a lungo termine. I risultati conseguiti in questi 30 anni di mercato unico europeo, che

nel suo insieme rappresenta il 15% del PIL mondiale, sono riconducibili a benefici per i cittadini e

le imprese che devono però continuare a consolidarsi attraverso modifiche ed adattamenti alle

nuove realtà, con un potenziale di miglioramento che potrebbe assicurare 713 mld di euro di valore

aggiunto entro la fine del 2029. Con la seconda comunicazione la commissione europea si è

confrontata con l’obiettivo di migliorare il flusso commerciale dei beni e servizi all’interno

dell’Unione europea (UE) fondato su un modello di crescita economica che utilizzi la competitività

sostenibile, la sicurezza, l’autonomia strategica e la concorrenza leale. Pertanto la commissione si è

proposta di lavorare su nove tematiche: 1) il mercato unico funzionante; 2) l’ accesso al capitale

privato e agli investimenti, con particolare riguardo all’approfondimento dell'Unione dei mercati dei

capitali e al completamento dell'Unione bancaria; 3) gli investimenti pubblici e le infrastrutture; 4)

la ricerca e l’ innovazione; 5) l’energia; 6) la circolarità; 7) la digitalizzazione; 8) l’istruzione e le

competenze; 9) il commercio e l’autonomia strategica aperta.

Tra i vari argomenti si vuol porre, oggi, l’attenzione sull’intelligenza artificiale: croce e

delizia di questo nostro tempo che ha attraversato il mondo del reale approdando su quello virtuale

ed impattando trasversalmente sulle nostre vite e sui nostri interessi. Uno studio del Parlamento

europeo ha evidenziato i rischi connessi all’intelligenza artificiale; in sintesi riconducibili alla tutela

dei diritti umani e delle libertà fondamentali, con particolare riferimento alla discriminazione, alla

protezione dei dati ed alla vita privata. Secondo la Commissione europea, i sistemi di intelligenza

artificiale presentano in via generale, le seguenti caratteristiche: a) opacità (cioè limitata capacità

della mente umana di comprendere il funzionamento di determinati sistemi di intelligenza

artificiale), b) la complessità, c) l’adattamento continuo e l’imprevedibilità, d) il comportamento

autonomo, e) i dati (cioè dipendenza funzionale dai dati utilizzati ed immessi e dalla loro qualità).

Inoltre una nuova ondata di tecnologie riconducibili all’intelligenza artificiale per finalità generali,

con capacità generative, come ChatGPT, sta trasformando rapidamente il modo in cui tali sistemi di

intelligenza sono costruiti e diffusi e solleva una serie di preoccupazioni in merito alla privacy, ai

diritti di proprietà intellettuale e alla diffusione della disinformazione. In particolare la tecnologia

generativa, come ChatGPT, utilizza grandi modelli linguistici per dare vita ad opere d’arte, musica,

opere letterarie che dovrebbero essere soggetti ad obblighi rigorosi di trasparenza; in particolare

bisognerebbe imporre ai fornitori di tali tecnologie generative di specificare che le opere sono frutto

dell’insieme di informazioni caricate sull’intelligenza artificiale e non sono opere generate da esseri

umani, nonché di formare e progettare i modelli escludendo che questi a loro volta possano generare

contenuti illegali e pubblicare in modo trasparente informazioni circa l’uso di dati protetti dal diritto

d’autore.

In materia di intelligenza artificiale la Commissione europea ha pubblicato un Libro bianco

in cui ha evidenziato la necessità di un quadro legislativo orientato agli investimenti in tali

tecnologie con il doppio obiettivo di promuovere l’adozione dell’intelligenza artificiale e di

affrontare e possibilmente risolvere, nel contempo, i rischi riconducibili all’applicazione di queste

nuove tecnologie. All’origine la Commissione europea, nel 2019, aveva dato indicazioni non

vincolanti con delle linee guida etiche, al fine di garantire un’intelligenza artificiale affidabile,

basate su delle mere raccomandazioni politiche e di investimento. Successivamente, nel 2021, con

 la comunicazione “Favorire un approccio europeo all’intelligenza artificiale” la Commissione

europea ha posto il focus sui vincoli legislativi. Poiché la normativa vigente che protegge i diritti

fondamentali e garantisce la sicurezza ed i diritti dei consumatori – con particolare riferimento alle

leggi sulla protezione dei dati e sulla non discriminazione – non sembra adeguata per affrontare i

rischi riconducibili alle tecnologie relative all’intelligenza artificiale, la Commissione europea ha

proposto l’adozione di regole armonizzate per lo sviluppo, l’immissione sul mercato e l’uso delle

nuove tecnologie. In particolare le disposizioni si basano su una classificazione fondata sul rischio,

andando ad indicare i requisiti e gli obblighi necessari per l’implementazione dell’intelligenza

artificiale. Questo approccio si basa su una sorta di “piramide del rischio” ascendente (cioè con

situazioni che vanno dal rischio basso/medio a quello più elevato fino ad individuare un rischio

inaccettabile) per classificare una serie di pratiche generali e di impieghi specifici in determinati

settori, a cui la Commissione riconduce differenti misure di attenuazione, o addirittura divieti di

alcune azioni ed attività di intelligenza artificiale. I divieti individuati riguardano un insieme

limitato di utilizzi dell’intelligenza artificiale ritenuti non compatibili con i valori che l’Unione

europea tutela e che sono riconducibili ai diritti fondamentali contenuti nella Carta europea. Alcuni

sistemi di tecnologia artificiale presentano dei rischi non tollerabili per la sicurezza delle persone e

la garanzia dei diritti fondamentali; un esempio di rischi non accettabili si ritrova nelle “tecniche

subliminali” che consentono modalità dannose di manipolazione o l’identificazione biometrica

remota “in tempo reale” (come ad esempio il riconoscimento facciale) in spazi accessibili al

pubblico per finalità di contrasto delle azioni illecite. In tali circostanze sarebbero vietate le tecniche

di intelligenza artificiale, tranne che per pochi limitati casi. Infatti sarebbero autorizzati sistemi “ad

alto rischio” riconducibili a tali tecnologie a condizione che rispettino una serie di requisiti ed

obblighi, come ad esempio la valutazione della conformità, e siano riconducibili a particolari settori,

come ad esempio l’istruzione, l’occupazione, le attività di contrasto di illeciti e la giustizia. Tuttavia

sistemi di intelligenza artificiale che presentano un “rischio limitato” sarebbero soggetti a obblighi

di trasparenza meno rigidi: come il caso di uso di chatbot (un programma che simula conversazioni

umane), oppure dei sistemi di riconoscimento delle emozioni o “deep fake” che utilizzano foto,

video, audio, creati da intelligenza artificiale i quali, partendo da situazioni reali, riescono a

modificare o ricreare in modo realistico le caratteristiche ed i movimenti di un essere umano nonché

la sua voce.

Le norme europee individuano inoltre spazi di sperimentazione al fine di promuovere

l’innovazione nel settore dell’intelligenza artificiale creando un ambiente controllato per testare e

monitorare tecnologie innovative, per un periodo di tempo limitato, con la finalità di sostenere le

imprese innovative, le PMI e le start-up. Infine lo scorso 14 giugno il Parlamento europeo ha votato

alcuni emendamenti al testo della Commissione europea ed una delle modifiche ha riguardato

l’inserimento, nella lista dei sistemi ad alto rischio, delle tecnologie usate per influenzare gli elettori

e la metodologia implementata per esaminare l’esito delle elezioni (exit poll) e dei sistemi di

raccomandazione usati dai social media con più di 45 milioni di utenti (quest’ultimo aspetto

riguarda i venditori online e le aziende dell'intrattenimento che utilizzano i suggerimenti in tempo

reale o mostrano pubblicità basate su cosa il cliente sta guardando o ascoltando. I social network

come LinkedIn e Facebook consigliano, ad esempio, connessioni o amici in base alla tipologia del

proprio network). Si apre ora il processo di dibattito che prevede che le discussioni iniziali si

concentrino specialmente sull’accoglimento parziale delle questioni più delicate e pressanti, al fine

di tutelare diritti e principi non negoziabili comunitari, prima che i legislatori dei diversi paesi

raggiungano un accordo definitivo, che potrebbe arrivare anche molto in là nel tempo, lasciando

quindi incustodita una grande fascia di diritti e garanzie che l’intelligenza artificiale potrebbe

minare e modificare fino al punto di annullare.

Pertanto a chiusura di questo approfondimento si vorrebbero sottolineare le criticità

riconducibili all’intelligenza artificiale:

- Dipendenza: l’essere umano, nella maggioranza dei casi, ha un atteggiamento di pigrizia

finalizzato all’economia delle energie; affidarsi all’intelligenza artificiale può significare

perdere la capacità creativa e critica che sono le caratteristiche che hanno permesso alle

civiltà di evolversi e svilupparsi.

- Aumento delle disuguaglianze: questo problema è alimentato dalle diverse possibilità di

utilizzo da parte dei singoli utenti. Infatti diversi saranno gli obiettivi ed i vantaggi che potrà

trarre un’azienda rispetto ad un semplice privato nell’uso delle tecnologie.

- Privacy: molti degli attuali sistemi di intelligenza artificiale si basano su masse di

informazioni carpite su internet in modo casuale e senza che alcuni sappiano dell’uso di tali

dati, in violazione della privacy dei singoli.

- Mancanza di legame con la realtà: il mondo dell’intelligenza artificiale non permette più una

separazione netta tra mondo reale e mondo virtuale e questo alla lunga può portare a

disorientamento e problematiche di tipo relazionali e psicologiche, con perdita delle

relazioni interpersonali ed umane.

- Disinformazione: i dati che utilizza l’intelligenza artificiale sono dati grezzi, presi in

maniera randomica sul web (altrimenti una analisi ed una cernita dei dati da parte degli

esseri umani porterebbe a rallentare l’alimentazione del software con conseguenze in termini

di aumento dei costi). Ciò implica che potrebbero essere diffuse notizie false e del tutto

incoerenti (come spesso fa chatGPT) che inoltre non potrebbero essere corrette in tempo

reale.

- Uso scorretto dell’intelligenza artificiale: nel caso si verifichi tale evenienza, possono

sorgere problemi di tipo etico; infatti il software, essendo un prodotto informatico, non è

possibile impostarlo su problematiche di tipo etico/morale. Ciò comporta che le risposte

ottenibili da tali strumenti non compiano un processo di discernimento tra ciò che è giusto e

ciò che non lo è. Questo aspetto apre a richieste da parte degli utenti di conoscere le

modalità per compiere illeciti, a cui il software può dare risposta, senza distinguere

ovviamente tra ciò che è legale e ciò che non lo è, perdendo di vista anche problematiche

connesse con la responsabilità delle azioni commesse.

- Perdita di lavoro: questo è un rischio concreto in considerazione del fatto che molti posti di

lavoro si sono già persi con la sostituzione di software di intelligenza artificiale. Si pensi ai

chatbot che assistono la clientela, spesso anche con molto poco successo, che hanno preso il

posto degli esseri umani; è vero che ogni epoca, ad iniziare dalla rivoluzione industriale, ha

visto la sostituzione del lavoro umano con quello artificiale, però oggi i tempi di sostituzione

sono davvero molto stretti e la rapidità del cambiamento potrebbe non garantire la

transizione della perdita del vecchio lavoro con ingaggi in attività di nuova tipologia.

- Mercato finanziario: già in uso, strumenti come BloombergGPT hanno rivoluzionato il

settore del mercato finanziario dove si manovrano grandi masse di risorse monetarie con il

mero obiettivo della speculazione. Siamo di fronte ad un agire senza etica da parte di queste

tecnologie che generano solo del male sia per le aziende sia per i risparmiatori, essendo di

fatto utilizzate solo da grandi investitori speculativi. Operazioni di tale portata potrebbero

generare delle profonde crisi finanziarie con perdita, per gli operatori economici meno

tutelati, di valori cospicui.

- Creazione di armi autonome: è già iniziata la produzione di armi autonome che si basano

sull’intelligenza artificiale. si pensi alle armi intelligenti, ai droni, e a tutte le tecnologie che

hanno come obiettivo la distruzione, senza saper e poter guardare negli occhi degli esseri

umani. Il futuro che si presenta potrebbe essere davvero orribile; già oggi le armi nucleari in

mano a degli esseri umani fanno paura, ma in mano a macchinari autonomi la strada da

percorrere sarebbe solo a senso unico, senza ritorno.

A conclusione di queste osservazioni c’è da porsi una domanda: la razza umana è in pericolo

di estinzione? A ben vedere sì; pensiamo all’educazione sempre meno religiosa, etica e morale

che diamo ai nostri giovani, alla cultura del mordi e fuggi, alla ineducazione verso il futuro e le

prospettive umane e lavorative, all’inverno demografico, alla mancanza di responsabilità. Sono

tutte situazioni che portano a pensare l’uomo come limitato sull’asse temporale della vita, verso

una strada senza ritorno dove basteranno poche persone potenti che potranno godere di un

mondo più o meno florido con alle loro dipendenze macchine senza cuore e senza intelligenza,

se non quella rubata a millenni di civiltà, ma finite e limitate anche loro nelle proprie possibilità

di sviluppo perché alla fine verrà a mancare la materia prima dei loro dati ed informazioni: la

razza umana. Quindi il richiamo verso l’attenzione e la delicatezza della questione porta a

considerazioni drastiche: non facciamoci abbindolare da un futuro fantascientifico, smettiamola

di fornire consensi all’uso dei nostri dati biometrici e non (pensiamo anche a tutelarci nelle

azioni più banali della vita quotidiana, come quella, ad esempio, di sottoscrivere tessere nei

supermercati dove ti chiedono notizie, le più disparate che poco hanno a che fare con la richiesta

di una semplice carta finalizzata a discutibili sconti), la vita è ora e deve rispondere anche ad

una concreta e vivibile speranza nel futuro, e va goduta nel modo più naturale possibile nel

rispetto del creato, tutto, uomini, animali ed ambiente e lasciando che le macchine e gli

automatismi ci aiutino nei lavori quotidiani più pesanti, ma non ci sostituiscano in nessuna delle

nostre umane funzioni ed azioni, le uniche capaci di proiettarci verso un futuro migliore per i

nostri giovani, la vera ed unica ricchezza dell’umanità.