L’intelligenza artificiale rappresenta una delle più profonde discontinuità dell’età contemporanea, ponendosi non solo quale fattore di innovazione tecnologica ed economica capace di automatizzare processi complessi, ma configurandosi quale tecnologia di governo in grado di orientare meccanismi decisionali che producono effetti giuridicamente rilevanti su diritti, libertà, assetti economici e concorrenziali.
In tale contesto la proposta di regolamento del Parlamento europeo e del Consiglio in materia di intelligenza artificiale, cd. “Omnibus Digitale Europeo” – che si colloca in un momento di profonda trasformazione del diritto europeo, chiamato a confrontarsi con tecnologie capaci di incidere strutturalmente sulle modalità di esercizio del potere, pubblico e privato – assume una valenza che trascende la mera regolazione tecnica. L’intervento non si limita, infatti, a colmare un vuoto normativo con un intervento frammentario e settoriale, ma è volto a costruire una cornice giuridica europea orizzontale in materia di intelligenza artificiale, presentandosi come un “omnibus regolatorio” destinato a operare in modo trasversale rispetto ad una pluralità di ambiti tradizionalmente presidiati da discipline autonome, senza sostituirle, ma riconducendole a unità attraverso la lente del rischio algoritmico.
Si tratta di una normativa che vuole assumere la funzione di norma-cerniera tra diritto della protezione dei dati, diritto dei consumatori, diritto della concorrenza, sicurezza dei prodotti, diritto del lavoro e responsabilità civile e amministrativa in un’ottica non di sostituzione delle discipline vigenti, ma di loro ricomposizione sistemica.
La proposta di regolamento, guardando all’intelligenza artificiale non quale tecnologia neutra e mero strumento di efficienza economica ma, di contro, quale tecnologia ad alto potenziale trasformativo in grado di incidere sulle modalità di esercizio dei diritti fondamentali della persona e sull’equilibrio dei mercati, adotta un approccio proattivo e preventivo, ossia orientato a intercettare il rischio prima che esso si traduca in una lesione giuridicamente rilevante. L’oggetto della disciplina non è infatti l’algoritmo in quanto tale, ma il contesto applicativo e gli effetti potenzialmente pregiudizievoli che l’uso dell’intelligenza artificiale è in grado di produrre.
In quest’ottica, il diritto dell’intelligenza artificiale viene costruito attraverso l’adozione di un approccio basato sul rischio, cioè un diritto che non si esaurisce in una tassonomia statica delle applicazioni di intelligenza artificiale, ma che si configura come tecnica dinamica di allocazione del rischio regolatorio chiamata a bilanciare interessi potenzialmente confliggenti all’interno di un quadro normativo unitario nel quale la tutela delle libertà fondamentali assurge a condizione di legittimità e non si atteggia quale limite esterno all’innovazione e alla competitività.
Il legislatore europeo, ancorandosi ad una tecnica di ponderazione e graduazione del rischio, si colloca così nel solco della tradizione normativa UE fondata sul principio di proporzionalità, rinunciando quindi consapevolmente a una definizione astratta di liceità o illiceità dell’intelligenza artificiale e ad una sua regolazione uniforme e optando invece per una classificazione graduata dei sistemi in funzione dell’ambito di utilizzo, della finalità perseguita e dell’impatto potenziale su diritti fondamentali e interessi pubblici rilevanti. Ne deriva una struttura normativa nella quale il grado di intervento regolatorio cresce proporzionalmente al rischio generato dall’uso concreto del sistema di intelligenza artificiale, preservando ampi spazi di libertà per lo sviluppo e l’adozione di soluzioni a basso o nullo rischio.
Il rischio diventa così la categoria giuridica attraverso cui il diritto seleziona, distingue e modula l’intensità dell’intervento regolatorio in un’ottica dinamica, capace di accompagnare l’innovazione, non già ponendosi come suo limite, ma come strumento di governo della stessa.
La scelta è stata, quindi, quella di collocare la tutela dei diritti fondamentali non solo sul piano delle garanzie ex post, ma su quello della sua prevenzione strutturale attraverso un processo che incide sulle fasi a monte del ciclo di vita dei sistemi di intelligenza artificiale, imponendo obblighi che riguardano la progettazione, lo sviluppo, l’addestramento e la messa in esercizio degli algoritmi.
Quanto sopra trova piena conferma nel principio di accountability che gli operatori economici sono chiamati ad adottare. L’impresa, infatti, non è vista quale soggetto passivo nella gestione dell’intelligenza artificiale, ma è chiamata a una governance proattiva: non deve evitare sanzioni, ma praticare una consapevole assunzione del rischio calcolato attraverso un solido sistema di risk management. Responsabilizzazione che eleva l’impresa a custode di un’innovazione sicura: il rischio non rappresenta un’incognita da temere, ma una variabile governata che qualifica l’intero modello di business e ne garantisce la stabilità nel tempo.
Si guardi, nello specifico, al principio della trasparenza dei sistemi di intelligenza artificiale generativa, che impone obblighi chiari di informazione e tracciabilità dei modelli di intelligenza artificiale. In tal senso il legislatore non solo mette al riparo i diritti delle persone, ma permette alle imprese di costruire un rapporto di profonda fidelizzazione con il cliente, mitigando i rischi legali derivanti dall’opacità algoritmica attraverso un sistema trasparente che abbatte le asimmetrie informative. In un mercato globale diffidente verso gli algoritmi “scatola nere”, la trasparenza e l’equità dei dati diventano il fattore differenziante che mitigano i rischi legali e trasformano la compliance in un vantaggio reputazionale. La proposta europea impone, infatti, standard elevatissimi per la governance e la qualità dei dati nei sistemi ad alto rischio, richiedendo che i dataset siano pertinenti, rappresentativi e privi di errore e che la “pseudonimizzazione” agisca quale strumento di conversione perfetta.
Parimenti può dirsi per la lotta ai bias discriminatori, che impone alle aziende audit rigorosi sui dataset. Si tratta di una volontà di protezione dell’uguaglianza e della dignità umana attraverso l’eliminazione di pregiudizi che non ha soltanto una finalità etica, ma che porta alla creazione di software intrinsecamente più precisi, performanti e capaci di operare con successo nei mercati globali eterogenei. In altre parole, la visione di un’intelligenza artificiale che attraverso il rispetto dell’equità si qualifica come tecnicamente superiore.
Questa esigenza – avvertita dall’Europa – di un diritto dell’intelligenza artificiale non statico, ma dinamico e graduato sul rischio, appare particolarmente rilevante anche sotto il profilo della tutela dell’innovazione e della competitività del mercato europeo. Esso, infatti, lungi dal porsi quale limite esterno all’innovazione e allo sviluppo del mercato, persegue l’obiettivo di preservare e rafforzare la competitività del mercato europeo, peraltro in un contesto globale fortemente concorrenziale, attraverso la creazione di un mercato interno dell’intelligenza artificiale fondato sulla fiducia, nel quale operatori economici e utenti possano fare affidamento su standard comuni di sicurezza, trasparenza e affidabilità e nel quale la tutela dei diritti fondamentali e lo sviluppo del mercato non si pongono come obiettivi alternativi, bensì come componenti di un medesimo disegno istituzionale.
La graduazione degli obblighi consente, infatti, di attenuare l’effetto dissuasivo che una regolazione indifferenziata avrebbe potuto produrre sugli operatori economici, specialmente in termini di costi di compliance, offrendo agli sviluppatori ed utilizzatori di sistemi di intelligenza artificiale un quadro normativo prevedibile e coerente, idoneo a favorire investimenti responsabili e sostenibili.
In sostanza la norma smette di essere il freno a mano dell’innovazione per trasformarsi nel suo binario più veloce: un’architettura giuridica capace di convertire l’affidabilità in un asset di mercato e la tutela dei diritti fondamentali nel più potente motore di competitività globale. La regolazione diventa, quindi, strumento abilitante dell’innovazione stessa, nella misura in cui sia in grado di generare fiducia, certezza giuridica e condizioni di concorrenza leale, con la conseguenza di affidare al diritto il compito di orientare lo sviluppo dell’intelligenza artificiale affinché l’innovazione resti compatibile con i valori fondativi dell’ordinamento europeo. In tale contesto, la compliance normativa si atteggia non come un mero adempimento, ma come fattore di competitività e di posizionamento strategico delle imprese europee, chiamate a integrare la dimensione giuridica nella propria strategia di innovazione.
La competizione moderna si vince, infatti, sulla capacità di prevenire crisi sistemiche. La valutazione dell’impatto sui diritti fondamentali, che spinge le imprese verso una gestione proattiva e resiliente del rischio, non limita l’azione imprenditoriale ma la qualifica: un’impresa che integra preventivamente la tutela dei diritti umani nel proprio design tecnologico è un’impresa che si mette al riparo da danni reputazionali e sanzioni paralizzanti, garantendosi una stabilità operativa che i mercati non regolamentati non possono offrire.
Mentre i modelli globali oscillano tra deregolamentazione e controllo centralizzato, l’Europa offre dunque una terza via, non limitandosi a sancire diritti, ma proponendo un’arena di competitività simmetrica nella quale i medesimi obblighi di compliance sono imposti a qualsiasi operatore economico, senza distinzioni tra un gigante tecnologico extra UE e una start- up. La protezione dei diritti fondamentali diventa così il filtro di qualità che seleziona tecnologie virtuose ed espelle quelle predatorie, assicurando alle imprese una concorrenza leale basata sul merito tecnologico e sulla solidità giuridica.
In conclusione, nella sua dimensione di omnibus regolatorio, la proposta europea si presenta quale luogo di sintesi tra tutela dei diritti fondamentali e competitività del mercato attraverso la logica della proporzionalità del rischio, offrendo un modello di governo dell’innovazione che ambisce a porsi come riferimento anche oltre i confini dell’Unione. La sua effettiva capacità di realizzare tale equilibrio dipenderà dalla fase applicativa, ma è già evidente come l’Europa abbia scelto di inaugurare un modello di regolazione dell’innovazione nel quale il diritto è al centro della trasformazione digitale e ha il compito di garantire che l’innovazione resti compatibile con i diritti e valori fondamentali dell’ordinamento europeo.