Agosto 2024
La norma ISO/IEC 42001 ha introdotto il sistema di gestione dell’Intelligenza Artificiale, indicata anche come AI.
L’obiettivo dello standard ISO/IEC 42001 è quello di promuovere l’uso etico, affidabile e sicuro dell’intelligenza artificiale all’interno dell’organizzazione.
Contesto normativo
Il 12 luglio 2024 è stato pubblicato sulla Gazzetta Ufficiale dell’Unione Europea l’AI ACT (di seguito anche il “Regolamento”), ovvero la prima regolamentazione a livello europeo in materia di intelligenza artificiale.
A partire dai sei mesi successivi all’entrata in vigore del Regolamento (ossia dal 2 febbraio 2025) – inizieranno ad essere sanzionabili i divieti con riguardo a quei sistemi per i quali il rischio per i diritti delle persone è stato considerato inaccettabile dal legislatore.
Sono previsti invece tempi più lungi di applicazione per tutte le altre sezioni del Regolamento
I soggetti obbligati
Innanzitutto, va premesso che l’AI Act non si rivolge soltanto agli sviluppatori di sistemi di intelligenza artificiale, ma anche alle organizzazioni pubbliche e private che intenderanno farne uso, nonché agli importatori ed ai distributori di tali tecnologie.
Le obbligazioni per i sistemi ad alto rischio
Tempi più lunghi sono, invece, previsti per la piena applicazione di altre sezioni del Regolamento.
Ad esempio da agosto 2026 per le organizzazioni che sviluppano o utilizzano sistemi di AI ad alto rischio (es. soluzioni per il riconoscimento biometrico, sistemi valutativi o di selezione in ambito lavorativo, scolastico o per l’accesso a servizi essenziali).
Si va invece ad agosto 2027 per altre tipologie di sistemi di AI ad alto rischio – non ricompresi nell’Allegato III – destinati ad essere utilizzati come componenti di sicurezza di un prodotto o che sono essi stessi un prodotto, per il quale è prescritta una valutazione di conformità ai sensi della normativa UE (ad esempio macchinari industriali, giocattoli o dispositivi medici).
Per quanto riguarda invece gli sviluppatori di modelli di AI per scopi generali avranno tempo fino ad agosto 2025.
Il sistema di gestione ISO / IEC 42001
Lo scopo del sistema di gestione per l’AI è fornire alle organizzazioni – di qualunque dimensione e ambito di attività – gli strumenti per governare i processi di AI di proprio interesse, nel ruolo di sviluppatori, fornitori o utenti di sistemi AI. In questo modo, si forniscono al mercato le garanzie di uso etico, responsabile, affidabile e sicuro dell’AI.
Chi può certificarsi?
Il ventaglio di soggetti che possono ottenere la ISO 42001 è ampio, ossia riguarda tutti quei soggetti che interagiscono di fatto con la tematica: sviluppatori, fornitori e fruitori di prodotti e servizi basati sull’IA.
La ISO /IEC 42001 riguarda aspetti prettamente tecnici e relativi tecniche di programmazione?
No, lo standard definisce i requisiti di un sistema di gestione per l’intelligenza artificiale, con particolare focus, come per tutti gli standard ISO, sugli aspetti di gestione del rischio, gli aspetti organizzativi e procedurali che garantiscano un uso sicuro etico e responsabile dell’AI.
Integrabilità con altri sistemi e tipologia di approccio
La ISO /IEC 42001 tratta aspetti di Sostenibilità Digitale, in quanto richiede un’analisi dei rischi incentrata sulla sicurezza e il trattamento dei dati della persona. Diversi standard ISO, quali ad esempio 27001 e 27701, hanno dei tratti caratteristici e degli approcci simili. L’implementazione e l’utilizzo di più sistemi di questa tipologia permette di conseguenza un approccio olistico e completo alla materia.
Contatta il team Alfa Consult per saperne di più: o al numero 327 028 3651