Nel dicembre 2023 ISO e IEC hanno pubblicato la ISO/IEC 42001, e molti si sono chiesti: serviva davvero uno standard specifico per l'intelligenza artificiale? Poi è arrivato il 2024 con l'AI Act europeo, e la risposta si è fatta evidente. Le organizzazioni che sviluppano o usano sistemi AI hanno bisogno di un framework strutturato per governare queste tecnologie in modo responsabile e verificabile. La ISO/IEC 42001 è quel framework. In questa guida ti spiego cos'è, come funziona, come si interseca con la normativa europea e perché vale la pena iniziare a occupartene adesso.
Cos'è ISO/IEC 42001 e perché è nata
La ISO/IEC 42001:2023 è il primo standard internazionale per i sistemi di gestione dell'intelligenza artificiale (AI Management System, AIMS). Stabilisce i requisiti per pianificare, implementare, mantenere e migliorare un sistema di gestione progettato per governare le attività AI all'interno di un'organizzazione.
I sistemi AI hanno caratteristiche peculiari che generano rischi difficilmente governabili con gli approcci tradizionali:
- I modelli AI decidono sulla base di pattern appresi dai dati, non di regole esplicite, rendendoli difficili da spiegare e contestare.
- I dati di addestramento possono contenere bias storici che il modello impara e amplifica, portando a decisioni discriminatorie.
- Le prestazioni possono degradare nel tempo man mano che il mondo reale cambia rispetto ai dati originali (model drift).
- La responsabilità delle decisioni AI è spesso opaca: chi risponde se un modello di credit scoring nega ingiustamente un prestito?
La norma si rivolge a sviluppatori di sistemi AI, fornitori di prodotti o servizi che includono componenti AI, e organizzazioni che usano sistemi AI acquistati da terzi per i propri processi decisionali.
Requisiti del sistema di gestione per l'AI
La ISO/IEC 42001 adotta la Harmonized Structure comune ai recenti standard ISO, rendendola integrabile con ISO 27001, ISO 9001 e altri senza duplicazioni. La struttura segue i capitoli da 4 a 10, identici nella numerazione a quelli della 27001.
Capitolo 4 - Contesto: richiede di analizzare il contesto in relazione alle attività AI, identificare le parti interessate e definire l'ambito del sistema, incluso il ruolo dell'organizzazione (sviluppatore, fornitore, utilizzatore o combinazioni).
Capitolo 5 - Leadership: il top management stabilisce la politica AI — un documento che definisce i principi etici che guidano sviluppo e uso dell'AI — e assicura che ruoli e responsabilità siano chiaramente definiti.
Capitolo 6 - Pianificazione: include la valutazione dei rischi e opportunità legati all'AI. È qui che si radica il processo di risk assessment specifico, dettagliato nell'Annex A e nella norma correlata ISO/IEC 23894.
Capitolo 8 - Operatività: il capitolo più specifico. Richiede di gestire l'impatto dei sistemi AI, documentare i processi di sviluppo e procurement, e gestire il ciclo di vita dei dati e dei modelli.
Gli Annex A e B contengono i controlli specifici: organizzativi (politica AI, gestione del rischio), sui dati (governance, qualità, privacy), sullo sviluppo (test, validazione) e operativi (monitoraggio in produzione, gestione incidenti AI, dismissione modelli).
Risk assessment specifico per l'AI: bias, sicurezza, trasparenza
Il risk management per l'AI richiede competenze specifiche. La ISO/IEC 42001 richiede di identificare e gestire i rischi peculiari dell'AI, raggruppabili in alcune categorie fondamentali.
Rischio di bias algoritmico: un modello addestrato su dati storici può imparare le discriminazioni in essi contenute. La gestione richiede analisi della rappresentatività dei dati, testing per fairness su sottogruppi demografici, monitoraggio delle prestazioni disaggregate in produzione e supervisione umana per le decisioni ad alto impatto.
Rischio di opacità: i modelli di deep learning sono spesso «black box», il che è problematico sia per ragioni etiche (diritto a una spiegazione per le decisioni automatizzate, art. 22 GDPR) che di sicurezza. La norma richiede di valutare il livello di spiegabilità necessario per ciascun sistema e di adottare misure appropriate.
Rischio di model drift: le prestazioni degradano man mano che la distribuzione dei dati reali cambia rispetto a quella di addestramento. La gestione richiede monitoraggio continuo delle metriche, alert automatici e processi di re-training e re-validazione.
Rischi di sicurezza AI-specifici: adversarial examples (input modificati per ingannare il modello), data poisoning (contaminazione del dataset) e model stealing (ricostruzione del modello tramite query). Richiedono controlli specifici che vanno oltre quelli della ISO/IEC 27001.
Relazione con l'AI Act europeo (Regolamento EU 2024/1689)
Il Regolamento europeo sull'intelligenza artificiale (AI Act, Regolamento UE 2024/1689) è entrato in vigore nell'agosto 2024 con applicazione progressiva fino al 2026-2027. Si applica a chiunque metta a disposizione sistemi AI nel mercato europeo, con sanzioni fino al 3-7% del fatturato annuo globale.
Il rapporto tra ISO/IEC 42001 e AI Act è di complementarità: l'AI Act è norma vincolante, la 42001 è standard volontario che fornisce il framework di gestione per conformarsi. L'AI Act classifica i sistemi AI per livello di rischio:
- Rischio inaccettabile: sistemi vietati (social scoring governativo, manipolazione subliminale, biometria in tempo reale in spazi pubblici con eccezioni limitate).
- Rischio alto: biometria, infrastrutture critiche, istruzione, occupazione, servizi essenziali, applicazione della legge — soggetti a obblighi stringenti.
- Rischio limitato: obblighi di trasparenza (i chatbot devono dichiarare di essere AI).
- Rischio minimo: nessun obbligo specifico.
Per i sistemi ad alto rischio, l'AI Act richiede gestione del rischio, governance dei dati, documentazione tecnica, supervisione umana e robustezza — requisiti che si sovrappongono significativamente con i controlli della 42001. Chi ha implementato un AIMS conforme alla 42001 ha già strutturato gran parte di quanto richiesto per i sistemi ad alto rischio.
Controlli dell'Annex A: gestione dati, modelli, terze parti
I controlli sui dati dell'Annex A includono: qualità e rappresentatività dei dataset, tracciabilità della provenienza dei dati, gestione dei dati personali in conformità con il GDPR (creando un'intersezione diretta con ISO/IEC 27701), e corretta segregazione train/validation/test per evitare data leakage.
Il ciclo di vita dei modelli AI richiede processi documentati per: sviluppo e addestramento, validazione e testing (fairness, robustezza, sicurezza), deployment e monitoraggio in produzione, re-training quando le prestazioni degradano, e dismissione sicura con gestione dei dati associati.
Per le terze parti che forniscono componenti AI — modelli foundation, dataset, piattaforme MLaaS — la norma richiede due diligence, contrattualizzazione delle responsabilità e monitoraggio. Usare un modello acquistato da terzi non esime dalla verifica della sua correttezza nel proprio contesto.
Chi dovrebbe certificarsi e percorso di implementazione
Le organizzazioni per cui la 42001 è più urgente:
- Sviluppatori di sistemi AI ad alto rischio ai sensi dell'AI Act: la conformità normativa è già un imperativo.
- Software house che incorporano AI nei propri prodotti: la certificazione diventerà presto richiesta dai clienti enterprise.
- Organizzazioni in settori regolati (salute, finanza, trasporti) che usano AI per decisioni ad alto impatto.
- Fornitori di AI come servizio (MLaaS, AI-powered SaaS): i clienti chiederanno garanzie sulla governance AI con la stessa frequenza con cui oggi chiedono la ISO 27001.
I primi passi pratici:
- Inventario dei sistemi AI: identifica tutti i sistemi AI che sviluppi, acquisti o usi. Molte organizzazioni scoprono di averne più di quanti pensassero.
- Classificazione per livello di rischio: valuta il livello AI Act per ciascun sistema. Non tutti richiedono lo stesso livello di governance.
- Gap analysis rispetto alla 42001: confronta le pratiche attuali di governance AI con i requisiti della norma.
- Integrazione con sistemi esistenti: se hai già la ISO 27001, il percorso verso la 42001 è facilitato dalla struttura HLS comune a entrambe.
FAQ
La ISO/IEC 42001 si applica solo all'AI generativa?
No. Si applica a tutti i tipi di sistemi AI: machine learning tradizionale, sistemi di raccomandazione, modelli di scoring, reti neurali, computer vision, chatbot e AI generativa. La classificazione AI Act è indipendente dalla tecnologia specifica.
Serve la ISO 27001 per ottenere la 42001?
No. La ISO/IEC 42001 è una norma autonoma, a differenza della 27701 che richiede la 27001 come prerequisito. Tuttavia, se la tua organizzazione usa sistemi AI che elaborano dati personali, è fortemente consigliabile sviluppare contestualmente anche la 27001 e la 27701.
Quanto tempo ci vuole per implementare la 42001?
Per un'organizzazione con buone pratiche di data governance e sviluppo software maturo, 6-12 mesi possono essere sufficienti. Per chi parte da zero, 12-24 mesi è una stima più realistica.
La 42001 è compatibile con il NIST AI RMF?
Sì. Il NIST AI Risk Management Framework e la ISO/IEC 42001 coprono aree simili con approcci complementari. La 42001 ha il vantaggio di essere uno standard internazionale certificabile da terze parti, con riconoscimento globale crescente.
Certificazioni correlate
Sistemi di gestione dell'intelligenza artificiale
Sistemi di gestione per la qualità
Sistemi di gestione per la sicurezza delle informazioni
Gestione delle informazioni sulla privacy (PIMS)
Gestione del rischio per l'intelligenza artificiale