NEWS TLC/ICT

AI Act europeo e normativa italiana, gli impatti delle nuove regole sulle imprese

23 luglio 2025

7 minuti di lettura

wavesNegative

Avanza l’iter parlamentare per uniformare il nostro Paese alle regole comunitarie sull’intelligenza artificiale. Cosa devono sapere le imprese.

Intelligenza Artificiale, l’Italia sta facendo i compiti per casa. A un anno esatto dall’entrata in vigore dell’AI Act, il primo regolamento al mondo sull’intelligenza artificiale approvato ad agosto 2024 dall’Unione Europea, il nostro Paese si sta muovendo per realizzare il proprio impianto normativo con cui allinearsi alle disposizioni comunitarie.

Obiettivo costruire un ecosistema in cui innovazione e responsabilità convivano. In questi mesi i due rami del Parlamento nazionale stanno lavorando al testo del disegno di legge, che è stato approvato a fine giugno dal senato con alcune modifiche da far vagliare adesso alla camera.

L’intera architettura legislativa si fonda su un principio fondamentale: l’IA deve essere al servizio delle persone, sviluppata e utilizzata nel pieno rispetto dei diritti fondamentali dei cittadini europei. Il focus è sull’approccio alla sicurezza: garantire che le soluzioni tecnologiche siano affidabili, trasparenti e sotto il controllo umano.

Con l’introduzione del DDL, anche in Italia si apre quindi una nuova stagione per imprese e Pubblica Amministrazione, chiamate a utilizzare l’IA in modo etico, sostenibile e tracciabile. E per molte aziende, questa non è solo una sfida normativa, ma una vera occasione per crescere in modo intelligente, sicuro e competitivo.

DDL AI: armonizzazione e controllo trasparente

Il disegno di legge punta a creare un ambiente normativo allineato al Regolamento UE 2024/1689, definendo un approccio graduale e basato sul rischio. L’obiettivo? Prevenire tecnologie invasive (deepfake, sistemi biometrici indiscriminati) mentre si stimola l’adozione etica e produttiva dell’IA.

Un’attenzione da porre in particolare per quell’IA… usata in modo occulto o inconsapevole. Tante aziende, infatti, non si stanno ancora rendendo conto di quanto impatti l’utilizzo indiscriminato anche di strumenti popolari come Gemini o ChatGPT, che spesso vengono sovraccaricati di informazioni e dati sensibili.

Senza contare che gli stessi tool e software acquistati per la gestione di tante incombenze quotidiane hanno integrati strumenti nativi di intelligenza artificiale, ora da utilizzare nel rispetto delle nuove regole.

Il Senato ha evidenziato l’importanza della trasparenza, della supervisione umana e del controllo della governance, per garantire processi decisionali chiari nelle PA e responsabilità precise tra pubblico e privato.

Cosa cambia davvero per le imprese: obblighi, responsabilità e opportunità

Il nuovo quadro normativo non è un insieme di buone intenzioni: cambia concretamente il modo in cui si può (e si deve) usare l’intelligenza artificiale in azienda.

1. Classificazione del rischio

L’AI Act introduce una classificazione in quattro livelli: inaccettabile, alto, limitato e minimo. Ogni livello comporta obblighi diversi: dai divieti assoluti (es. riconoscimento facciale in tempo reale), alla necessità di documentazione tecnica, audit, tracciabilità e trasparenza verso l’utente.

2. Responsabilità legale e governance

Chi implementa o fornisce soluzioni IA dovrà dimostrare trasparenza, accuratezza e supervisione umana. Non basta più “essere a norma GDPR”: servono registri delle decisioni, DPIA aggiornate, accountability rafforzata.

3. Focus su sorveglianza e biometria

Il regolamento vieta o limita fortemente l’uso di IA per profilazioni massive, riconoscimento emotivo, analisi biometriche e predizione comportamentale, a meno di comprovato interesse pubblico.

4. Impatti anche su software di terzi

Molte aziende usano già strumenti con funzionalità IA integrate (ERP, CRM, chatbot, marketing automation, ecc.) senza saperlo. Ma se l’IA genera decisioni automatizzate, l’impresa ne è responsabile.

5. Adeguamento semplificato per le PMI

Il DDL italiano introduce sandbox regolatorie, linee guida e codici di condotta per supportare l’adeguamento delle PMI, aiutandole a innovare senza essere sommerse dalla burocrazia.

6. Localizzazione dei datacenter

Un altro tema strategico è la residenza dei dati: si valuta l’obbligo di mantenere i datacenter usati da PA e imprese strategiche all’interno dell’UE (o in Italia), per garantire controllo, sicurezza e sovranità digitale.

Il DDL disciplina anche l’uso dell’IA nella Pubblica Amministrazione. Gli algoritmi potranno supportare decisioni e analisi, ma sempre con trasparenza, tracciabilità e sotto controllo umano. L’IA non deve sostituire le competenze, ma potenziarle in modo etico e sostenibile.

La checklist delle imprese responsabili

In attesa della piena applicazione del DDL e delle scadenze UE, le imprese dovrebbero iniziare un percorso strutturato:

  • Mappare le soluzioni IA in uso (anche integrate in software acquistati) e classificarle secondo i livelli di rischio
  • Verificare la conformità contrattuale e funzionale con i fornitori (vendor)
  • Implementare sistemi di gestione del rischio IA, audit interni, documentazione e log
  • Aggiornare la DPIA e le policy di governance
  • Formare i team su responsabilità, supervisione e utilizzo etico dell’IA
ai act europeo checklist

Scadenze e sanzioni

Le scadenze che è bene segnarsi in agenda sono tre:

  • 2 agosto 2025: scattano le norme di governance e gli obblighi per i modelli di IA con scopi generali (GPAI). Per i modelli immessi sul mercato prima del 2 agosto 2025, i fornitori avranno tempo fino al 2 agosto 2027 per adeguarsi
  • 2 agosto 2026: l’AI Act diventa legge per i sistemi valutati come ad alto rischio

  • 2 agosto 2027: si applicano le regole per i sistemi AI in prodotti regolamentati da specifiche leggi dell’UE (come sanità e trasporti)

E per chi non si adegua? Sono previste sanzioni molto severe per chi viola le disposizioni, con importi proporzionati alla gravità e al ruolo del soggetto responsabile:

  • Fino a 35 milioni di euro o al 7% del fatturato annuo mondiale per violazioni gravi, come l’uso di pratiche di IA vietate (art. 5)
  • Fino a 15 milioni di euro o al 3% del fatturato per la non conformità ad altri obblighi (es. per fornitori, importatori, deployer, organismi notificati)
  • Fino a 7,5 milioni di euro o all’1% del fatturato per informazioni false o incomplete fornite alle autorità competenti.

Per startup e PMI, si applica l’importo più basso tra quelli indicati. Questo dimostra che il legislatore europeo vuole tutelare l’innovazione, ma senza derogare alla responsabilità.

AXERA, il tuo partner per un'impresa consapevole

Nel nuovo scenario normativo, la trasformazione digitale è un requisito, non un’opzione. AXERA è al fianco delle imprese per supportarle con soluzioni tecnologiche, sicurezza e consulenza strategica. I nostri punti di forza:

💡 Datacenter UE-compliant
 Per garantire conformità alle norme sulla localizzazione dei dati e protezione delle informazioni strategiche.

🛡 Cybersecurity avanzata
 Fondamentale per l’utilizzo sicuro di IA, soprattutto in ambiti ad alto rischio (HR, finanza, sanità, sorveglianza).

📘 Supporto IT
 Affianchiamo le aziende con audit, aggiornamento delle policy interne e formazione operativa su governance e trasparenza.

🧭 Consulenza e strategia
 Valutazione del rischio, tracciabilità dei processi decisionali, adozione di codici di condotta e soluzioni etiche.

Tutto questo con un grande obiettivo: contribuire a costruire un futuro in cui la tecnologia cresce e fa crescere le imprese in modo responsabile. Con AXERA puoi iniziare oggi stesso un percorso concreto verso strumenti trasparenti, etici e sostenibili.

Vuoi iniziare il tuo percorso verso una tecnologia trasparente e sostenibile?

CONDIVIDI SUI SOCIAL