Vuoi approfondire il tema della sicurezza macchine?

INTELLIGENZA ARTIFICIALE E MACCHINE - COME APPLICARE IL REGOLAMENTO?

INTELLIGENZA ARTIFICIALE E MACCHINE - COME APPLICARE IL REGOLAMENTO?



E' notizia di pochi giorni fa: l'AI Act (Regolamento europeo sull'Intelligenza Artificiale) sta facendo il suo corso, introducendo man mano le modifiche previste per arrivare pronti ad agosto 2027, data in cui diventerà legge in tutte le sue parti.

L'obiettivo dell'AI Act è di creare un quadro normativo armonizzato nell'Unione Europea per l'intelligenza artificiale (AI). Questa deve essere sviluppata e utilizzata in modo sicuro, etico e rispettoso dei diritti fondamentali e dei valori europei.

Oltre alla promozione di innovazione e la competitività nel settore, si tratta di garantire:

🔶  la sicurezza, per evitare che i prodotti utilizzatori dell'l'intelligenza artificiale non danneggino le persone

🔶  la trasparenza, per garantire agli utilizzatori di poter capire come funziona l'AI e su quali basi vengono prese le decisioni.


L'argomento non è solo recentissimo, ma anche in costante espansione ed evoluzione.

Proviamo a capire meglio gli impatti della nuova normativa nel mondo dei macchinari industriali che sfruttano l'intelligenza artificiale, mettendola anche in relazione al Nuovo Regolamento macchine 2023. 🔎



Cosa dice l'AI ACT?

La definizione di intelligenza artificiale inserita nell'AI Act porta il nome di "Sistema di IA" e cita all'articolo 3:

[...] un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. [...]

L'elaborazione di grandi quantità di dati su base statistica per restituire output solidi è prerogativa dell'AI. Ecco perché allo stato attuale nel contesto delle macchine industriali possiamo parlare di intelligenze artificiali solo limitatamente: gli strumenti presenti oggi nelle fabbriche non hanno accumulato sufficienti dati per prendere decisioni sensate. 

Ad oggi possono essere considerati acerbi, ma presto non lo saranno più.



Il quadro normativo dell'AI Act prevede quindi una classificazione dei sistemi di IA in base al livello di rischio che presentano per le persone e per la società. 

Il quadro distingue tra quattro categorie di rischio:

1️⃣ Rischio inaccettabile: vietati all'interno dell'Unione Europea come violazioni i diritti umani, ne fano parte ad esempio la sorveglianza di massa. Questa categoria esclude totalmente a priori le macchine industriali.

2️⃣ Alto rischio: chatbot medici, riconoscimento facciale o sistemi di guida autonoma che potrebbero causare danni significativi in caso di malfunzionamento. Questi sistemi saranno sottoposti a documentazioni e misure di sicurezza più rigorose, certificati da enti esterni, sottoposti a controlli periodici in seguito all'immissione sul mercato e tracciate nei risultati.

3️⃣ Rischio limitato: in questo caso il rischio è associato alla potenziale mancanza di trasparenza di informazione, come l'inconsapevolezza nel caso di immagini non reali o di chat intraprese con robot e non con umani.

4️⃣ Rischio minimo: ne fanno parte quei sistemi in aiuto all'organizzazione, come un'app di agenda, senza incidenza sulle decisioni e con impatto minimo sulla la sicurezza delle persone.


I prodotti che utilizzano l'intelligenza artificiale e che vengono prodotti o venduti nell'Unione Europea devono e dovranno rispettare gli standard di sicurezza europei, compresi quelli sulla valutazione del tipo di rischio per ottenere la certificazione CE che li rende commerciabili in Europa.

L'AI Act però non fa specifici riferimenti a come valutare il rischio di macchinari e componenti di macchinari che utilizzano l'intelligenza artificiale. È quindi necessario risalire alla normativa di prodotto, in questo caso il Regolamento macchine 2023.




Cosa dice il nuovo Regolamento Macchine?

Pubblicato nel 2023, il nuovo Regolamento Macchine UE 2023/1230 nasce dall'evoluzione tecnologica e dall'esigenza di una normativa più attuale. Dal 20 gennaio 2027 andrà a sostituire la Direttiva Macchine 2006/42/CE ed Inserisce macchinari e componenti che usano l'IA nell'elenco di macchine che richiedono l'intervento di un ente terzo per ricevere la certificazione CE.


I nuovi argomenti che hanno richiesto maggiori interventi sono i seguenti:


🟠 Cybersecurity: le macchine connesse alla rete dovranno essere progettate in modo da evitare possibili attacchi informatici, accessi non autorizzati e tentativi di corruzione dei dati che possano renderle pericolose. 

(Allegato III, Requisiti essenziali di sicurezza e di tutela della salute (RESS), Punto 1.1.9 – Protezione dall'alterazione)

🟠 Software: vengono inclusi nella definizione di componenti di sicurezza (Articolo 3, punto 3) e nell'elenco indicativo di componenti di sicurezza (Allegato II, punto 18), che ora possono essere sia fisici che digitali. Qualsiasi modifica o nuovo modulo del software deve conformarsi agli obblighi di sicurezza, tra cui la valutazione di conformità e la marcatura CE.

🟠 Robot collaborativi o cobot: sono progettati per interagire direttamente con gli operatori e condividere lo stesso spazio di lavoro. L'assenza di separazione tra uomo e robot rende necessarie nuove logiche di sicurezza che vanno oltre le contromisure abituali quando si parla di robot industriali, ad esempio il confinamento delle aree tramite recinzioni delle macchine mobili autonome senza guidatore (AGV) che operano lo spostamento manuale di oggetti.




Come procedere alla valutazione dei rischi?

Da una parte abbiamo l'AI Act che resta concentrata sui sistemi di intelligenza artificiale più complessi e pericolosi (allegato III) ma tralascia la messa in pratica delle applicazioni più comuni. ❓


Dall'altra, il Regolamento Macchine, nel quale si parla di macchine che utilizzano l'intelligenza artificiale ma senza specificare come si debbano valutare i rischi. ❓


Al momento non esistono norme UNI, CEI, ISO o qualsiasi altra norma tecnica a cui fare riferimento per la sicurezza dei software di AI utilizzati nelle fabbriche. Questo rende di fatto impossibile far certificare tali software da un ente esterno. E i RES indicati nel Regolamento macchine sono troppo generici rispetto a questo ambito, quindi non risultano funzionali a questo tipo di valutazione.


E quindi?

Il Regolamento macchine obbligherebbe tutti i macchinari e componenti che usano l'IA a ricevere la certificazione CE solo tramite ente notificato. Questa è un'interpretazione troppo stringente del Regolamento.


Nell'attesa di un'analisi più approfondita, l'unica soluzione possibile è considerare i software che usano l'IA integrata al macchinario o al componente, quindi non venduti separatamente, come elementi che hanno una "funzione di sicurezza" anziché "componenti di sicurezza" a sé stanti. ❗


Con questa logica si può seguire la strada dell'autocertificazione per la conformità CE ed immettere sul mercato macchinari e componenti che utilizzano l'intelligenza artificiale come integrazione.



Non è ancora del tutto chiaro come applicare la nuova norma, almeno per quanto riguarda i macchinari industriali.


Come gestire la naturale evoluzione tecnologica dei software e dell'intelligenza artificiale, come valutare i rischi e implementare le misure di sicurezza, vedranno ulteriori norme e specifiche nel prossimo futuro.



Temi di non riuscire a stare al passo e hai bisogno di un partner per gestire la conformità dei tuoi macchinari?  

Contattaci!