AI Act, Concorrenza e Fairness: Questioni di compliance, sovrapposizioni nelle legislazioni UE e scenario regolatorio globale
L’AI Act introduce nuove regole UE sull’intelligenza artificiale, imponendo requisiti stringenti per sistemi ad alto rischio. Tra trasparenza, incertezza normativa e costi di compliance elevati, il regolamento solleva dubbi su concorrenza, accesso al mercato e impatti per PMI e startup, con possibili effetti distorsivi sul mercato unico.
Andrea Stazi
6/13/202510 min read
L'AI Act è un nuovo regolamento sul digitale dell'Unione Europea con un'ampia portata, che si applica a diversi soggetti con sede nell'Unione o che hanno un impatto su di essa.
Esso estende indirettamente i poteri investigativi delle autorità di concorrenza, consentendo l'accesso a documentazione, dataset e persino al codice sorgente per l'IA ad alto rischio.
Le disposizioni che promuovono la trasparenza potrebbero inavvertitamente facilitare la collusione o l'abuso mirato di posizione dominante esponendo dati aziendali sensibili. In tal senso, l'Act creerebbe barriere all'ingresso nel mercato e distorcerebbe il mercato unico, gravando in modo sproporzionato sulle PMI a causa degli elevati costi di compliance.
Il linguaggio vago o ambiguo in disposizioni chiave potrebbe dare luogo a una significativa incertezza giuridica e a potenziali contenziosi, esacerbati da elevate multe per la non conformità. La classificazione del rischio per settore è problematica e il potere della Commissione di modificare l'elenco ad alto rischio potrebbe creare ulteriore incertezza.
Esiste una sovrapposizione e un potenziale conflitto con altre legislazioni dell'UE - DMA, DSA, GDPR, Data Act, Data Governance Act, Cloud and AI Development Act e nuova versione del Cybersecurity Act, norme settoriali - che causa la duplicazione degli oneri di compliance. L'incertezza riguardo al regime di responsabilità civile per i danni causati dall'IA può ostacolare il private enforcement del diritto della concorrenza.
Il concetto di fairness è rilevante, in particolare in relazione a “diversità, non discriminazione e correttezza” nello sviluppo dell'IA, e appare distinto dalla correttezza tradizionale del diritto della concorrenza (ad esempio, prezzi sleali).
A livello globale, la regolamentazione dell'intelligenza artificiale implica la gestione dei complessi compromessi tra la prevenzione dell'arbitraggio normativo e la gestione dei costi della frammentazione.
Data l'importanza strategica dell’IA, un futuro caratterizzato dalla frammentazione, forse con una cooperazione limitata all'interno di alcuni blocchi, appare più probabile di una vasta armonizzazione internazionale, riflettendo il dinamico gioco in corso tra interessi nazionali e strategie aziendali.
1. AI Act e questioni di compliance
Ci troviamo oggi in un momento cruciale nella regolamentazione dell'intelligenza artificiale, in particolare nell'Unione Europea, dove l’AI Act è in procinto di entrare in vigore, nonostante molti dubbi e questioni relative soprattutto alla recente diffusione dell’intelligenza artificiale generativa.
Se riuscirà ad entrare in vigore, il percorso verso la compliance all'AI Act appare “tortuoso”, dato che promuove una regolamentazione ex-ante che richiede alle aziende di seguire un processo a più fasi.
Ciò include: i) l'identificazione del proprio ruolo: fornitore, utilizzatore, ecc., ii) la classificazione del proprio sistema di IA in base al livello di rischio, fino all'alto rischio che è il più regolamentato, iii) la conduzione di una valutazione di conformità se il sistema è ad alto rischio, iv) la registrazione di sistemi di IA ad alto rischio autonomi in un database dell'UE, e infine v) la firma di una dichiarazione di conformità e l'applicazione della marcatura CE prima di immettere il sistema sul mercato.
La valutazione del rischio è la barriera legale più significativa. Il termine rischio appare “sfocato” e la regolamentazione è criticata per aver confuso il settore sensibile di applicazione con la natura del sistema di IA utilizzato.
Sebbene l'IA in settori come la biometria o l'istruzione sia classificata ad alto rischio in base al settore, si sostiene che il rischio dovrebbe considerare anche l'autonomia o la prevedibilità di un sistema di IA. Un agente conversazionale apparentemente a basso rischio, se autonomo e manipolativo, potrebbe comportare rischi elevati.
Questa classificazione basata sul settore, applicata uniformemente, risulta problematica e potenzialmente dannosa per la concorrenza, soprattutto per le piccole e medie imprese nei mercati sensibili che potrebbero non avere la capacità finanziaria per la compliance.
A tale incertezza si aggiunge la definizione ampia dei “sistemi di intelligenza artificiale”, che potrebbe inavvertitamente includere tecnologie non tipicamente considerate IA, complicando la valutazione del rischio e potenzialmente frammentando il mercato interno.
Inoltre, l'elenco dei casi d'uso ad alto rischio può essere modificato dalla Commissione tramite atti delegati basati su criteri ampi come il rischio di danni alla salute, alla sicurezza o ai diritti fondamentali. Sebbene la previsione sia intesa ad adattarsi al rapido sviluppo tecnologico, si è rilevato che questo potere di modificare l'elenco in base a criteri ampi crea incertezza giuridica e potrebbe scoraggiare l'innovazione e i nuovi operatori del mercato.
La complessità è aggravata dal requisito per le aziende di valutare il rischio di danno non solo in termini di salute e sicurezza, ma anche di impatto sui diritti fondamentali.
Ciò implica la previsione degli impatti basata su una giurisprudenza complessa, frammentata ed in evoluzione, un compito che si sostiene essere particolarmente impegnativo e potenzialmente irragionevole per le aziende, soprattutto i nuovi operatori senza competenze legali.
La compliance rispetto ad altre regole è stata anche criticata perché vista come utopica; gli obblighi di data governance, ad esempio, sono considerati irrealistici nel loro requisito di set di dati completi e privi di errori. L'obbligo di mantenere una documentazione tecnica estesa è ritenuto ingombrante e una potenziale distorsione a favore delle aziende più grandi che possono permettersi le necessarie competenze tecniche e legali.
Infine, una questione importante è evidentemente l'interconnessione o sovrapposizione con altra legislazione dell'UE. I sistemi o prodotti di intelligenza artificiale possono essere soggetti all'AI Act insieme al GDPR, al Data Act, al Data Governance Act, al Data Act, al Digital Markets Act, al Digital Services Act, al Cloud and AI Development Act e alla nuova versione del Cybersecurity Act di prossima adozione, e alle normative sui prodotti settoriali come quelle per i dispositivi medici o i macchinari.
Ciò può dare luogo a notevoli e complessi oneri di compliance, alla duplicazione delle valutazioni di conformità e ad incertezza giuridica, in particolare per quanto riguarda la responsabilità per i danni, dove l'interazione con la proposta di direttiva sulla responsabilità dell'IA non è chiara.
Questa frammentazione delle fonti e i requisiti sovrapposti aumentano significativamente i costi di compliance, agendo come una forte barriera economica, specialmente per le startup e le PMI finanziariamente vulnerabili, e potenzialmente ritardando o impedendo l'ingresso nel mercato. La moltitudine di obiettivi dell'AI Act, del resto, rende anche difficile la valutazione di proporzionalità e può portare a conflitti tra diritti fondamentali e libertà economiche.
2. Implicazioni per il diritto della concorrenza e le dinamiche competitive
Passiamo ora a considerare le implicazioni più dirette dell'AI Act per il diritto della concorrenza e le dinamiche competitive, Nonostante l’AI Act affermi che esso si applica “fatte salve le disposizioni del diritto della concorrenza dell'Unione”, l'Act influisce sul diritto della concorrenza in tre modi chiave: poteri procedurali, antitrust computazionale e analisi delle pratiche anticoncorrenziali.
In primo luogo, per quanto riguarda i poteri procedurali, l'AI Act estende indirettamente le competenze investigative delle autorità di concorrenza. Richiede alle autorità nazionali di sorveglianza del mercato, responsabili dell'applicazione dell'AI Act, di segnalare annualmente alle autorità nazionali di concorrenza e alla Commissione le informazioni identificate durante le loro attività che "possono essere di potenziale interesse" per l'applicazione del diritto della concorrenza dell'UE.
Ciò garantisce alle autorità di concorrenza un accesso indiretto a informazioni e dati sensibili, come documentazione, set di dati e persino codice sorgente per i sistemi di IA ad alto rischio, senza la necessità di sospettare prima una violazione del diritto antitrust.
In secondo luogo, per quanto riguarda l'antitrust computazionale, ossia l'uso dell'informatica giuridica per facilitare l'analisi antitrust, appare probabile che l'AI Act rallenti il suo sviluppo. L'Act, infatti, classifica i sistemi di IA utilizzati dalle forze dell'ordine o dalle autorità giudiziarie per compiti fondamentali come la valutazione delle prove, l'investigazione di reati penali o l'assistenza all'analisi giudiziaria come “ad alto rischio”.
Ciò si applica all'IA utilizzata dalle autorità di concorrenza per rilevare pratiche, come i cartelli “hard-core” o la manipolazione delle offerte, che sono considerate reati penali in alcuni Stati membri. La conformità ai requisiti per i sistemi ad alto rischio in questi casi può dare luogo a problemi tecnici e organizzativi e scoraggiare l'uso dell'IA per rilevare tali pratiche dannose.
In terzo luogo, l'AI Act ha notevoli implicazioni per l'analisi delle pratiche anticoncorrenziali che le sue disposizioni possono facilitare. Diverse disposizioni, intese ad aumentare la trasparenza per motivi di sicurezza, richiedono la condivisione di informazioni che potrebbero inavvertitamente esporre informazioni commercialmente sensibili.
Ad esempio, l'articolo 19 richiede ai fornitori di sistemi di IA ad alto rischio di tenere registri dettagliati, che contengono informazioni sensibili sulle pratiche commerciali, sul comportamento degli utenti e sulle decisioni. Analogamente, gli articoli 16, 23, 24 e 25 sugli obblighi dei fornitori, importatori e distributori richiedono la condivisione di documentazione tecnica, dati di addestramento e registri per la conformità e l'accesso al mercato.
Questo livello di trasparenza tra i partecipanti al mercato crea un rischio non trascurabile di favorire comportamenti collusivi o abusi mirati di posizione dominante, potenzialmente portando a casi simili a quello contro Amazon per l'utilizzo dei dati dei venditori del marketplace. Nell’AI Act le istituzioni dell'Unione hanno dato priorità alla sicurezza, e le autorità di concorrenza dovranno valutare se questo obiettivo di sicurezza superi le preoccupazioni sulla concorrenza sollevate da tale condivisione di informazioni.
Oltre alle implicazioni dirette del diritto della concorrenza, si prevede che l'AI Act avrà un impatto sulle dinamiche competitive. Sebbene aiuti a prevenire la frammentazione del mercato da parte degli Stati membri che agiscono unilateralmente, potrebbe comunque distorcere il mercato interno e ridurre l'accesso.
Le distorsioni sorgono perché l'approccio di neutralità tecnologica dell'Act regola i sistemi di IA deterministici - quindi prevedibili - e non deterministici - quindi imprevedibili - in modo simile, imponendo disposizioni severe anche sui sistemi più sicuri.
Inoltre, l'onere di compliance è distribuito in modo diseguale, potenzialmente favorendo le grandi aziende rispetto alle più piccole, dando luogo a critiche analoghe a quelle relative all'impatto del GDPR sulle PMI. L'esenzione limitata per le PMI in merito alla documentazione tecnica e la potenziale adozione di sandbox normative sono considerati insufficienti per prevenire queste distorsioni.
L'accesso al mercato è ostacolato da un linguaggio vago in diversi articoli, che porta a incertezza giuridica e potenziali contenziosi. Si vedano, ad esempio, la definizione di sistemi manipolativi proibiti, "in tempo reale", qualità dei dati, supervisione umana. Le elevate multe per la non conformità amplificano questa incertezza.
La regolamentazione dei modelli di IA per scopi generali introduce un nuovo pilastro con un approccio basato sulle capacità, ma la loro definizione e i requisiti soffrono anche di vaghezza, alti costi di conformità per la documentazione e la condivisione, e criteri incerti per il rischio sistemico, sollevando ulteriori preoccupazioni sulla distorsione del mercato e sull'accesso, specialmente per le PMI.
3. La fairness nella disciplina dell’intelligenza artificiale
Questa discussione sulle dinamiche di mercato e sui potenziali comportamenti anticoncorrenziali ci porta al concetto di fairness nella disciplina dell'intelligenza artificiale.
I recenti atti legislativi dell'UE come il DMA, il Data Act e l'AI Act elevano tutti significativamente il concetto di “fairness” o affrontano “unfair practices”. Tuttavia, le definizioni di “equità” o “slealtà” sono spesso non definite con precisione per l'applicazione pratica e la certezza giuridica.
Il DMA, ad esempio, collega la slealtà a uno squilibrio di diritti in cui un gatekeeper ottiene un vantaggio sproporzionato. L'AI Act definisce la fairness principalmente in termini di “diversità, non discriminazione ed equità”, concentrandosi sull'evitare impatti discriminatori e pregiudizi sleali.
Come noto, il concetto di fairness nel diritto della concorrenza è stato storicamente controverso e spesso considerato in contrasto con l'efficienza economica. Tuttavia, la ricerca nell'economia comportamentale e sperimentale sembra dimostrare che gli esseri umani hanno una preferenza sociale per risultati equi e un'avversione all'ingiustizia.
Le persone diffidano dei prezzi sleali, basandosi su fattori come i prezzi passati o competitivi. L'IA, dal canto suo, se lasciata incontrollata, può impegnarsi in una pura massimizzazione del profitto.
Sebbene l'attenzione dell'AI Act sulla fairness nel senso di assenza di bias differisca da quella del diritto della concorrenza come i prezzi sleali, il fatto che l’Act, come il DMA e il Data Act, elevino la fairness e spesso facciano riferimento al diritto della concorrenza dell'Unione suggerisce che interpretare le loro dimensioni di fairness attraverso la lente delle regole consolidate del diritto della concorrenza su concetti come il “prezzo sleale”, con la relativa relazione con il costo e valutazione dell’equità del margine di profitto (sentenza United Brands), potrebbe fornire un quadro più chiaro e oggettivo per l'applicazione.
Ciò è rilevante perché come noto le teorie economiche tradizionali faticano a cogliere appieno le complessità e le dinamiche di potere dei mercati basati sui dati e sull'IA, mentre la fairness, ove sia chiaramente definita, può essere vista come un concetto, a mio avviso sussidiario ma eventualmente oggettivo per la valutazione della gestione dell'attività economica.
4. Le dinamiche normative globali
Infine, ampliando l’orizzonte allo scenario globale, vediamo che la regolamentazione dell'intelligenza artificiale fa parte di un dinamico “gioco regolatorio” in cui governi e aziende si comportano strategicamente per proteggere i propri interessi.
La dinamica di base prevede che: i) un governo nazionale o sovranazionale decide di regolamentare una tecnologia nel suo territorio; ii) le aziende scelgono quindi di conformarsi, ritirarsi o evadere (arbitraggio regolatorio, spostando le attività in una giurisdizione meno regolamentata); iii) il governo reagisce tollerando l'evasione o espandendo la propria portata regolatoria, eventualmente anche a livello extra-territoriale.
Sulla base delle preferenze politiche dei Paesi e dell'importanza delle economie di scala per le tecnologie, questo gioco globale può portare a risultati diversi: più regimi locali, armonizzazione internazionale, imposizione unilaterale (si pensi al “Brussels effect”) o frammentazione ("Splinternet").
La frammentazione impone costi alle aziende, costringendo all'adattamento del prodotto e alla perdita di economie di scala o effetti di rete, potenzialmente portando anche al ritiro dai mercati.
In merito alla disciplina dell'intelligenza artificiale, né un pieno Brussels effect né una vasta armonizzazione internazionale, come risulta evidente dall’intervento del Presidente Trump che poco dopo il suo insediamento ha revocato le regole sull’IA previste dal suo predecessore, sono al momento probabili.
Nell’odierno scenario geopolitico, la leadership nell'intelligenza artificiale è sempre più vista come di vitale importanza, spingendo i governi verso l'autonomia strategica e usando la regolamentazione come leva per modellare la governance dell'IA a loro favore, portando alla frammentazione.
Tuttavia, la frammentazione è costosa per i modelli di IA che si basano su una scala significativa. Ciò potrebbe spingere l'industria e persino i governi verso un certo livello di armonizzazione limitata, per consentire economie di scala e aumentare i costi di isolamento per i concorrenti.
Esiste d’altronde anche il rischio che le aziende mettano con successo i governi l'uno contro l'altro in una “corsa al ribasso” sulla regolamentazione.
5. Conclusione
In conclusione, l'AI Act, pur essendo un passo significativo nella regolamentazione dell'IA, presenta sostanziali sfide di compliance, in particolare per le entità più piccole, a causa dei suoi requisiti complessi, a volte vaghi e sovrapposti.
L’Act ha un impatto fondamentale sull'applicazione del diritto della concorrenza e rimodella le dinamiche competitive estendendo i poteri investigativi e creando obblighi di trasparenza che potrebbero facilitare comportamenti anticoncorrenziali.
Analogamente ad altri regolamenti dell’Unione sul digitale quali DMA e Data Act, l’AI Act evidenzia il concetto di equità, presentando un'opportunità per attingere ai principi consolidati del diritto della concorrenza.
A livello globale, la regolamentazione dell'intelligenza artificiale implica la gestione dei complessi compromessi tra la prevenzione dell'arbitraggio normativo e la gestione dei costi della frammentazione.
Data l'importanza strategica dell’IA, un futuro caratterizzato dalla frammentazione, forse con una cooperazione limitata all'interno di alcuni blocchi, appare più probabile di una vasta armonizzazione internazionale, riflettendo il dinamico gioco in corso tra interessi nazionali e strategie aziendali.