Agosto 2024

La norma ISO/IEC 42001 ha introdotto il sistema di gestione dell’Intelligenza Artificiale, indicata anche come AI.

L’obiettivo dello standard ISO/IEC 42001 è quello di promuovere l’uso etico, affidabile e sicuro dell’intelligenza artificiale all’interno dell’organizzazione.

Contesto normativo

Il 12 luglio 2024 è stato pubblicato sulla Gazzetta Ufficiale dell’Unione Europea l’AI ACT (di seguito anche il “Regolamento”), ovvero la prima regolamentazione a livello europeo in materia di intelligenza artificiale.

A partire dai sei mesi successivi all’entrata in vigore del Regolamento (ossia dal 2 febbraio 2025) – inizieranno ad essere sanzionabili i divieti con riguardo a quei sistemi per i quali il rischio per i diritti delle persone è stato considerato inaccettabile dal legislatore.

Sono previsti invece tempi più lungi di applicazione per tutte le altre sezioni del Regolamento

I soggetti obbligati

Innanzitutto, va premesso che l’AI Act non si rivolge soltanto agli sviluppatori di sistemi di intelligenza artificiale, ma anche alle organizzazioni pubbliche e private che intenderanno farne uso, nonché agli importatori ed ai distributori di tali tecnologie.

Le obbligazioni per i sistemi ad alto rischio

Tempi più lunghi sono, invece, previsti per la piena applicazione di altre sezioni del Regolamento.

Ad esempio da agosto 2026 per le organizzazioni che sviluppano o utilizzano sistemi di AI ad alto rischio (es. soluzioni per il riconoscimento biometrico, sistemi valutativi o di selezione in ambito lavorativo, scolastico o per l’accesso a servizi essenziali).

Si va invece ad agosto 2027 per altre tipologie di sistemi di AI ad alto rischio – non ricompresi nell’Allegato III – destinati ad essere utilizzati come componenti di sicurezza di un prodotto o che sono essi stessi un prodotto, per il quale è prescritta una valutazione di conformità ai sensi della normativa UE (ad esempio macchinari industriali, giocattoli o dispositivi medici).

Per quanto riguarda invece gli sviluppatori di modelli di AI per scopi generali avranno tempo fino ad agosto 2025.

Il sistema di gestione ISO / IEC 42001

Lo scopo del sistema di gestione per l’AI è fornire alle organizzazioni – di qualunque dimensione e ambito di attività – gli strumenti per governare i processi di AI di proprio interesse, nel ruolo di sviluppatori, fornitori o utenti di sistemi AI. In questo modo, si forniscono al mercato le garanzie di uso etico, responsabile, affidabile e sicuro dell’AI.

Chi può certificarsi?

Il ventaglio di soggetti che possono ottenere la ISO 42001 è ampio, ossia riguarda tutti quei soggetti che interagiscono di fatto con la tematica: sviluppatori, fornitori e fruitori di prodotti e servizi basati sull’IA.

La ISO /IEC 42001 riguarda aspetti prettamente tecnici e relativi tecniche di programmazione?

No, lo standard definisce i requisiti di un sistema di gestione per l’intelligenza artificiale, con particolare focus, come per tutti gli standard ISO, sugli aspetti di gestione del rischio, gli aspetti organizzativi e procedurali che garantiscano un uso sicuro etico e responsabile dell’AI.

Integrabilità con altri sistemi e tipologia di approccio

La ISO /IEC 42001 tratta aspetti di Sostenibilità Digitale, in quanto richiede un’analisi dei rischi incentrata sulla sicurezza e il trattamento dei dati della persona. Diversi standard ISO, quali ad esempio 27001 e 27701, hanno dei tratti caratteristici e degli approcci simili. L’implementazione e l’utilizzo di più sistemi di questa tipologia permette di conseguenza un approccio olistico e completo alla materia.

Contatta il team Alfa Consult per saperne di più: o al numero 327 028 3651