Secondo quanto riferito, la Commissione europea sta valutando un ritardo per alcune parti del suo storico AI Act, una significativa inversione di politica rivelata venerdì.
La potenziale pausa fa seguito alle intense attività di lobbying da parte dei giganti tecnologici statunitensi e alle pressioni di Washington. Una mossa del genere segnerebbe un netto allontanamento dal fermo rifiuto da parte della Commissione di qualsiasi ritardo appena quattro mesi fa.
Secondo i rapporti, i funzionari stanno ora discutendo di “ritardi di attuazione mirati” come parte di un più ampio processo di semplificazione. Questo cambiamento evidenzia le crescenti tensioni transatlantiche sulla regolamentazione tecnologica e la potente influenza dell’industria tecnologica nel plasmare il futuro digitale dell’Europa.
Una netta inversione di rotta: Bruxelles considera un ritardo dopo l’impegno di”No Pause”
Solo quattro mesi dopo aver dichiarato la propria intelligenza artificiale La tempistica dell’atto non è negoziabile, sembra che Bruxelles stia cambiando tono. Un portavoce dell’UE ha detto ai giornalisti che i funzionari stanno discutendo su potenziali ritardi, inquadrandoli come parte di un”processo di semplificazione”la cui adozione è prevista per il 19 novembre.
Ritenuto finalizzato a ridurre gli oneri amministrativi, il Il processo mira a chiarire gli standard tecnici e ad affrontare le denunce di lunga data del settore.
Rappresenta una sorprendente inversione di rotta rispetto alla posizione assunta dalla Commissione a luglio. All’epoca, aveva respinto categoricamente la richiesta di alto profilo di oltre 45 giganti industriali e tecnologici europei di un congelamento della legge per due anni.
In una conferenza stampa a luglio, il portavoce della Commissione Thomas Regnier è stato inequivocabile:”Vorrei essere il più chiaro possibile, non esiste un fermo dell’orologio. Non esiste un periodo di grazia. Non c’è pausa.”
Questa ferma posizione era una risposta diretta a una lettera aperta dell’EU AI Champions Initiative, una coalizione che comprende Airbus e Mistral AI. Il gruppo ha avvertito che l’equilibrio tra innovazione e regolamentazione si sta rompendo e”interrotto da normative UE poco chiare, sovrapposte e sempre più complesse”, sostenendo che l’incertezza mette a rischio le ambizioni europee in materia di IA.
Ad amplificare questa pressione interna è stato l’attrito transatlantico, con l’amministrazione Trump che si oppone costantemente a quelle che considera protezionistiche normative europee sulla tecnologia.
Il fulcro della loro denuncia era la mancanza di standard chiari per la conformità, che lasciano le imprese all’oscuro.
Una tecnologia Il gruppo di lobbying CCIA Europe ha fatto eco a ciò, affermando che”…è urgentemente necessario un coraggioso intervento’stop-the-clock’per dare agli sviluppatori e agli utilizzatori dell’intelligenza artificiale certezza giuridica…”, per fornire certezza giuridica mentre le linee guida chiave non sono ancora disponibili.
Big Tech divisa: una lobby fratturata di conformità, opposizione e allineamento
Di fronte a una tenaglia di pressione politica transatlantica e di intenso lobbying aziendale, i paesi un tempo uniti il fronte della Big Tech si è fratturato. Le aziende stanno ora perseguendo strategie divergenti, dividendosi in campi di confronto, cauta collaborazione e profondo allineamento.
Meta ha scelto la strada dell’opposizione diretta. Il responsabile degli affari globali dell’azienda, Joel Kaplan, ha annunciato pubblicamente che non firmerà il Codice di condotta volontario dell’UE sull’intelligenza artificiale, precursore della piena applicazione della legge.
In una dichiarazione schietta, ha affermato:”L’Europa sta seguendo la strada sbagliata riguardo all’intelligenza artificiale. Questo codice introduce una serie di incertezze legali per gli sviluppatori di modelli…”
Mentre alcuni giganti della tecnologia combattono le normative, altri vedono nella conformità un’opportunità strategica. Google ha preso una chiara controposizione approvando il codice, conferendo un peso significativo agli sforzi dell’UE.
Tuttavia, il suo sostegno è arrivato con importanti riserve. Kent Walker, presidente degli affari globali di Google, ha scritto:”Restiamo preoccupati che la legge e il codice sull’intelligenza artificiale rischino di rallentare lo sviluppo e l’impiego dell’intelligenza artificiale in Europa.”
Walker ha definito la decisione come un passo a favore dell’innovazione, citando il potenziale dell’intelligenza artificiale di rilanciare l’economia europea di 1,4 trilioni di euro all’anno entro il 2034, ma ha avvertito che regole vaghe potrebbero”raffreddare”lo sviluppo.
Microsoft, nel frattempo, ha messo in atto un’azione magistrale perno geopolitico. Invece di resistere, l’azienda si è posizionata come un partner fedele. Ha presentato cinque”Impegni digitali europei”per creare fiducia nel continente.
Il presidente di Microsoft Brad Smith ha dichiarato:”Riconosciamo che la nostra attività dipende in modo critico dal mantenimento della fiducia di clienti, paesi e governi in tutta Europa.”
Questa è più che retorica; è supportato da un’espansione pianificata del 40% della capacità dei suoi data center nell’UE, da un rafforzamento del confine dei dati dell’UE per mantenere i dati dei clienti all’interno del blocco e da una promessa giuridicamente vincolante di contestare qualsiasi ordine del governo di cessare le operazioni.
Difetti più profondi: perché una pausa potrebbe non essere sufficiente per correggere l’AI Act
Mentre i politici a Bruxelles valutano le loro opzioni, alcuni esperti avvertono che un semplice ritardo non risolverà i fondamentali dell’AI Act problemi. Sostengono che la struttura fondamentale della legislazione è troppo rigida per governare una tecnologia che si evolve a un ritmo esponenziale.
In una recente analisi, lo studioso di diritto Thibault Schrepel ha sostenuto che le pause non risolvono i difetti di progettazione ma semplicemente esporli. Sostiene che l’affermazione della legge di essere”a prova di futuro”è un’illusione, poiché il suo quadro statico e basato sul rischio è già stato superato da modelli di intelligenza artificiale generici.
Invece di un ritardo, Schrepel chiede la costruzione di una”regolamentazione adattiva”con meccanismi per monitorare gli effetti ed evolversi con la tecnologia.
Questo sentimento è stato ripreso da influenti figure politiche. L’ex primo ministro italiano Mario Draghi in precedenza aveva chiesto una pausa nella fase successiva della legge, esortando i politici a comprenderne meglio gli”svantaggi”prima di procedere.
Il dibattito su una pausa è quindi diventato un proxy per una questione molto più ampia sul futuro tecnologico dell’Europa. La scelta non è più semplicemente tra velocità e sicurezza, ma tra un codice rigido e prescrittivo e uno adattivo e in evoluzione.
Per l’UE, la posta in gioco è immensa: sbagliare potrebbe non solo soffocare un motore economico vitale, ma anche rischiare di cedere la sua sovranità digitale e la sua ambizione di guidare il mondo nella governance responsabile dell’IA.