torna su
torna su

Riflessioni sul futuro della Sicurezza (Safety-Security) legato alle normative tecniche (e all’Intelligenza Artificiale)

Gianfranco Coletti (Segretario CEI CT 113)

Paolo Giraudi (Membro CEI CT 69 e CT 312)

Riflessioni sul futuro della Sicurezza (Safety-Security) legato alle normative tecniche (e all’Intelligenza Artificiale)
watch_later 15min. circa
condividi l'articolo su facebook condividi l'articolo su twitter condividi l'articolo su linkedin copia il link
torna su
Riflessioni sul futuro della Sicurezza (Safety-Security) legato alle normative tecniche (e all’Intelligenza Artificiale)
watch_later 15min. circa

Gianfranco Coletti (Segretario CEI CT 113)

Paolo Giraudi (Membro CEI CT 69 e CT 312)

A causa dell’accelerazione delle tecnologie e delle applicazioni, il numero delle Norme Tecniche è in crescita esponenziale. La situazione è preoccupante anche dal punto di vista della Sicurezza (Safety-Security). Servono interventi sui processi di “formazione” delle Norme Tecniche e sulla struttura delle Norme stesse. Vengono qui illustrate le innovazioni (dal Modello Triplice in avanti) in studio presso Gruppi di Lavoro della IEC [1]: entro due anni circa esse informeranno nuove Guide operative cui dovrebbero conformarsi TUTTI i Comitati Tecnici della IEC.

In Europa, sul tema Sicurezza (Safety-Security), è attiva anche un’altra direttrice che discende da una GU Europea (2022) [2] focalizzata sul Settore della Difesa.

Il “centro” di tale GU recita: “in casi critici (di vita o morte) la decisione-chiave deve essere dell’Uomo e non della Macchina”.

Risolvere i relativi problemi tecnologici costituisce una serie di notevoli “sfide”. L’ampio Settore Civile, pur non avendo uguali vincoli cogenti, “vede” gli stessi problemi e deve risolverli, impostando “de facto” uguali soluzioni tramite medesime tecnologie.

Entrambe queste direttrici sono collocate negli SDG delle Nazioni Unite [3] e condividono il fondamentale supporto delle odierne tecnologie della Intelligenza Artificiale (IA) [4]. Pertanto, in un prossimo articolo, sviluppato “ad hoc”, verrà trattato l’impiego delle tecnologie IA, nelle loro varie forme, includendo gli aspetti etici [5] e i limiti di rischio imposti dal recente Regolamento Europeo.

Premesse

Senza avere la pretesa di offrire una definizione di sicurezza (Safety) omnicomprensiva, si può considerare il suo duale, il rischio, definito come nella attuale Norma Tecnica europea UNI EN ISO 12100:2010 (intitolata “Sicurezza del macchinario – Principi generali di progettazione – Valutazione del rischio e riduzione del rischio”). Peraltro, ha particolare interesse la dicitura: “combinazione tra probabilità di accadimento di un danno e gravità di quel danno (le due grandezze sono definite anche elementi di rischio)”.

Sembra qui opportuno ricordare che, mentre la Giurisprudenza nel settore della Sicurezza (protezione della salute e della vita del cittadino) è differente, nei dettagli, da un Paese all’altro, in ogni Paese la Giustizia si avvale delle Normative Tecniche internazionali e, in Europa, dei Regolamenti Europei. Pertanto, a importanti variazioni delle Normative potranno seguire importanti e differenti adeguamenti del quadro Giuridico nei vari Stati. In particolare, per quanto attiene la definizione di Sicurezza, gli aggiornamenti tecnologici, oggi, comportano anche modifiche non-scritte nel significato dei termini. Per esempio, mentre è un fatto comune che reti produttive e commerciali costituiscano dei “sistemi complessi”, cioè che si basano su “strumenti” elettronici ed informatici, non sempre i termini “normativi” di Sicurezza-Safety e di Sicurezza-Security rispecchiano adeguatamente le problematiche oggettive e reali.

Tali problematiche si collocano oggi alla intersezione dei due concetti di Safety e di Security, quindi, si è qui introdotta la dicitura Sicurezza (Safety-Security).

Le Normative Tecniche del futuro e il “mondo nuovo”

Le strategie

Semplificando, se si intende per “percorso” un insieme di “punti di partenza” e un insieme di “vincoli” che consentono di raggiungere un obiettivo, allora una buona strategia comprende la selezione dei migliori “percorsi” orientati a tale obiettivo. Le Norme Tecniche, per esempio, sono collocate all’interno di un “percorso”: esse, già oggi, forniscono le basi (linee progettuali, realizzazioni, gestione, prodotti, manutenzione, ecc. idonee a realizzare filosofie (per es. quella di tipo “economia circolare”: vedasi SDG 12) che siano in armonia con tutti gli SDG (Sustainable Development Goal) delle Nazioni Unite [3].

Operativamente le strategie vengono continuamente aggiornate con l’avanzare di nuove tecnologie e, oggi, con l’incremento del peso attribuito ad obiettivi di “responsabilità sociale” delle aziende.

La IEC e la metodica generale: Safety by Design

Richiamando il Tema “il futuro della Sicurezza (Safety-Security) legato alla evoluzione delle normative tecniche” occorre delineare opportune previsioni circa i problemi che si ritiene verranno incontrati nei prossimi lustri, cioè nel “Mondo Nuovo”. Un primo percorso di previsione muove da una metodica generale, denominata dalla IEC “Safety by Design”). Tale percorso potrà avvalersi anche dell’impiego di strumenti e filosofie proprie della Intelligenza Artificiale.

Il Mondo nuovo: due “questioni” fondamentali

La responsabilità giuridica

Si consideri il caso in cui un addetto, oggi, si basi su un insieme di informazioni raccolte in “tempo reale” (mediante una rete informatizzata) e operi correttamente tramite un insieme di apparecchi “certificati”. Se il sistema “cedesse” causando dei danni a cose e/o a persone… chi ne sarebbe responsabile?

L’addetto, la rete, gli apparecchi? O il “sistema”? In sintesi “l’Uomo” o la “macchina”? Si tratta di una annosa questione. In quanto qualsiasi risposta porterebbe con sé una successiva domanda: la “macchina” ha personalità giuridica, o no? Si tratta de “LA QUESTIONE” del momento!

La società civile

L’adozione di nuove tecnologie, numerose e dirompenti, cambierà la società (basti pensare agli effetti, sui comportamenti sociali, della introduzione di Internet, o della diffusione dei cellulari…), pertanto, cambieranno anche le esigenze di Sicurezza. Dunque, anche sul medio termine, è opportuno fin d’ora considerare “LA QUESTIONE” come un tema “in continuo cambiamento”.

È in atto, infatti, un’evoluzione del concetto stesso di Sicurezza. Oggi non si desidera più assicurare soltanto la vita o il non-danno all’individuo. Si giungerà a focalizzare “anche” il ben-essere dell’individuo e della struttura sociale in cui esso è immerso. Per es. presto il prestatore d’opera dovrà avere, a seconda del tipo di attività, pause e soste “piacevoli”, sia per una maggiore produttività sia per una migliore qualità della vita.

Il Modello Triplice per la Sicurezza

Questo Modello è stato proposto in uno studio della IEC [1] “Safety in the future”, esso propone una prima impostazione idonea a definire il Nuovo Format delle Normative Tecniche.

Tale impostazione sarà comunque collegata con un secondo problema: occorre anche definire nuove metodiche di formazione delle Normative Tecniche (previste per il 2030 e oltre) che consentano “anche” uno snellimento della “formazione” delle Norme Tecniche.

Per quanto concerne il Modello Triplice va notato che esso è universale, in quanto prevede lo scambio (interazione a triangolo) di flussi di informazioni fra i seguenti tre “attori”:

  1. l’essere umano. Caratterizzato da Informazioni variabili:
    1. Tempo invarianti: ruolo, qualifica, esperienza
    2. Tempo varianti: salute, movimento, stanchezza
  2. la/le macchina/e. Caratterizzate da Condizioni variabili:
    1. Stato: velocità, programma (avanzamento), arresto
    2. Avvisi immediati: collisione, movimento oggetti appuntiti, affilati et similia
  3. l’ambiente. Caratterizzato da Descrittori variabili
    1. Condizioni: condizioni ambientali, break-down
    2. Pianificazione: carico, flusso, cambiamenti di impiego.

Nel Modello Triplice il “triangolo dei flussi informativi fra i 3 attori” ha dei confini e possiede collegamenti con l’esterno (spesso mirati ad una maggiore produttività), tra i quali:

  • Soddisfare obiettivi di produzione intangibili (target di produzione)
  • Ottimizzare l’accordo con altri obiettivi esterni o interni al sistema, secondo priorità da stabilirsi
  • Rispettare standards di qualità e di salute per posti di lavoro
  • Rispettare standard per una “sicura” co-operazione uomo-macchina (co-bots)
  • Collocarsi all’interno dei limiti posti dai sistemi ICT (EMC, EMI, ecc.) o Internet (Cyber-Security)
  • Curare la Sicurezza di “sistemi esterni di maggior interesse”
  • Vigilare sui “Posti di lavoro” (per questa voce sono possibili varie interpretazioni)
  • Controllare Macchine: sistemi, Sicurezza (Safety-Security), operatività
  • Vigilare sulla costante disponibilità di energia
  • Et altera.

Ovviamente, sia a livello di “Triangolo stesso” sia a livello di “connessioni con l’esterno” vi possono essere tre considerazioni basilari:

  1. possono sussistere motivi di “rischio”, quindi possono sorgere necessità di misure per la sicurezza (Safety-Security)
  2. possono sorgere necessità di considerare sviluppi, industriali e non, ancora in crescita, come nel caso della Intelligenza Artificiale (IA), che sta ridefinendo il modo in cui “Uomo, macchina e ambiente interagiscono” e che è già presente oggi in numerose applicazioni/sistemi. Tramite la IA le “macchine” (insiemi meccanici, elettrici, elettronici, informatici, et al.) possono realizzare una comunicazione diversa da quella a cui eravamo abituati. Allo stesso tempo la IA oltre a influenzare l’automazione e l’ottimizzazione dei processi può modificare l’“Ambiente” stesso che circonda un Sistema. Per esempio, la scelta del “mezzo” o dei “mezzi” di comunicazione (canali elettromagnetici diversi, oppure visione, parola, persona, “altra macchina” costituiscono “mezzi” di comunicazione diversi) veniva effettuata finora dall’Uomo, Oggi/Domani: La “macchina potrebbe scegliere il “mezzo” più adatto al momento e poi cambiarlo in piena autonomia, per es. a causa di vincoli emersi durante le operazioni.
  3. potranno presentarsi criticità “nuove”, come il “bilanciamento”. Va notato che la interazione fra Uomo e Macchina richiede già oggi un bilanciamento tra l’autonomia delle macchine e il controllo umano che non è banale. Anzi, costituisce oggi e costituirà in futuro il “centro” di molte soluzioni tecniche, giuridiche ed etiche (vedasi riferimento [2] ad una GU europea).

Le “problematiche del futuro” 

Tempistica

Tipicamente, le Normative Tecniche impiegano ampi periodi di tempo per “fotografare” il focus di una tecnologia nata per conseguire un certo Scopo.

Da tale tipo di approccio scaturisce la “certezza” del raggiungere il risultato, ma discende anche un “congelamento” della tecnologia necessaria per raggiungere quel certo Scopo, in quanto i processi di innovazione vengono rallentati.

È ben noto come in certi settori, per es. nell’elettronica, la rapidità di presentazione di nuove tecnologie sul mercato richiede priorità tali che (almeno in passato) un’azienda “leader”, una volta impostato un “de facto Standard”, rinunciava alla brevettazione e le altre aziende “seguivano o ruota”. In tal modo, si eliminavano le lentezze di un processo normativo, ma ancora si perdevano gli stimoli all’innovazione.

La situazione di lentezza divenne “esplosiva” dagli anni ’70/’80 in avanti. Un caso iconico riguarda le biotecnologie, che nacquero da nuove discipline collocate all’incrocio di tre strade: la medicina tradizionale, la biologia e l’ingegneria.

In questo caso, divenne indispensabile progettare apparecchi nati da soluzioni ingegneristiche continuamente diverse e da nuove scoperte biomediche: le apparecchiature biomediche.

Altrimenti, le lentezze di cui sopra avrebbero bloccato discipline emergenti e impedito che pazienti di ogni genere potessero usufruire dei vantaggi di scoperte sempre nuove.

D’altra parte, trattandosi di applicazioni mediche, a monte di ogni aspetto innovativo, nel presentare sul mercato un prodotto nuovo, doveva assolutamente essere assicurata la protezione della salute del paziente (salute in senso stretto e in senso lato: well-being).

Il tutto andava collocato in un soddisfacente quadro di brevettazione (altrimenti si sarebbe corso il rischio di “uccidere” sul nascere nuove aziende) e, soprattutto, in un quadro di Sicurezza (Safety-Security) assicurata: si trattava di vite umane e la Legge doveva poter distinguere, proteggere e sanzionare, ove necessario.

Possibilità di soluzione

Progressivamente venne formulato il “Metodo delle Apparecchiature Biomedicali”. In estrema sintesi, tale Metodo evita di redigere precise normative per ogni prodotto o classe di prodotti, basandosi sulla “certezza della validità” di un obiettivo operativo del prodotto, accuratamente descritto a cura del produttore ed iscritto in apposito Registro Pubblico Europeo. Il produttore è giuridicamente responsabile. Tuttavia, in caso di “litigation” la Giustizia non può riferirsi ad alcun set di precise e dettagliate Normative Tecniche Internazionali. Essa deve basarsi sulla valutazione di un “tecnico” registrato e competente.

Una volta impostata la soluzione per una classe di prodotti (apparecchi biomedicali) la “sfida” diventerebbe: “è possibile applicare questo ultimo “Metodo” ad altri prodotti/processi/gestioni? Se sì, sotto quali condizioni per la Sicurezza?  Se sì, come fare per governare la transizione, sotto il profilo giuridico, dall’approccio tradizionale a questo nuovo approccio?

Potremmo anche chiederci: “Se la situazione attuale (per le Apparecchiature Biomedicali) “funziona”, perché non lasciare tutto come sta, evitando di allargarne il campo di azione?”.

La situazione del futuro

Vi sono almeno tre ragioni per preoccuparsi “oggi” della “situazione del futuro”:

  1. tutte le tecnologie stanno evolvendo rapidamente e progressivamente. Hanno un’importanza particolare i progressi nei settori dominati dalla ICT, dalle tecniche informatiche e dall’Intelligenza Artificiale, in quanto essi supportano la Transizione Digitale. Una Transizione che informa di se stessa tutti i 17 SDG delle Nazioni Unite [3] e che condizionerà “at large” il già rapido sviluppo tecnologico
  2. va considerato che l’Intelligenza Artificiale (IA) sta già rivoluzionando il concetto di sicurezza nei sistemi. Nel tempo, la capacità di adattare un sistema, potrà venire implementata “automaticamente” al variare del contesto e delle esigenze iniziali. Il “quadro” della protezione verso gli utenti potrebbe cambiare in modi non prevedibili. Dunque, occorre introdurre un approccio “dinamico” ai metodi di Protezione e alla Sicurezza in generale
  3. metodi “nuovi” nello sviluppo e nella valutazione delle Normative Tecniche dovranno comunque confrontarsi con il problema della “crescita esponenziale” nel tempo del numero totale delle Normative Tecniche [1].

Interventi migliorativi

L’introduzione di Nuovi Strumenti nella catena della Sicurezza, oltre a produrre affinamenti e miglioramenti, potrebbe introdurre ulteriori cause di incertezza: si potrebbe perfino pervenire ad un oggettivo peggioramento nella gestione di un sistema, in condizioni di emergenza.

In un certo senso si può dire, che “rafforzando” un sistema, per esempio tramite la IA, occorre maggiore attenzione: potrebbe nascere un ulteriore problema per la Sicurezza (Safety-Security) [4], soprattutto in condizioni di emergenza, impreviste.

Etica. Il “Supervisore Umano”

Il nuovo vincolo-base di una GU Europea (2022) [2], focalizzata sul Settore della Difesa, recita: “in casi critici (di vita o morte) la decisione-chiave deve essere dell’Uomo e non della Macchina”.

Si tratta di una affermazione “di principio”, sostanzialmente etica e di buon senso. Tuttavia, il rispetto di tale “vincolo” impone di risolvere alcuni problemi tecnologici, cioè impone di affrontare una serie di notevoli “sfide”.

In pratica, tale GU introduce la necessità di un “Supervisore Umano”.

Occorre risolvere notevoli problemi tecnici, anche nei settori afferenti ad un alveo diverso da quello della Difesa. Infatti, in questi numerosi settori, anche se i relativi vincoli non sarebbero “cogenti”,

le tecnologie in gioco sono le stesse. Quindi occorre risolvere gli stessi problemi.

In sintesi, le problematiche in gioco fanno pervenire a soluzioni concrete abbastanza simili nei due alvei. Si considerino per es. i casi delle infinite applicazioni con “comando a distanza”.

Merita un accenno qui, una delle direzioni esplorate per definire una soluzione: quella della “parcellizzazione” di impianti/ sistemi, per cui ogni “isola” avrebbe una sua indipendenza dalle altre e potrebbe essere soggetta ad una diversa supervisione (da realizzarsi in svariati modi).

Appare utile ricordare come l’applicazione di tecnologie informatiche in questi campi richieda una riflessione almeno sui seguenti “limiti”:

  1. il primo “limite” concerne la tempistica: una macchina può “reagire” ad un evento in tempi molto inferiori a quelli umani. Pertanto, l’interfaccia uomo-macchina costituisce un “punto-nodale”: molte applicazioni odierne sono già condizionate dalla/e soluzione/i concreta/e a questo problema
  2. un secondo “limite” riguarda i casi con numeri di dati molto elevati e flussi di dati molto intensi. Nella realtà, è possibile assistere a flussi di dati “in toto” di 10^12 byte /secondo.

Peraltro, i relativi dati vengono processati lungo “percorsi” definiti in modi decisamente imprevedibili, mentre le esigenze di Sicurezza (Safety-Security) richiedono di mantenere “comunque e in ogni caso” i livelli di rischio al di sotto di valori prefissati: si dovrebbero risolvere “con certezza” problemi non definiti o non definibili.

Dunque, il fattore risolutivo (se esiste) andrebbe cercato nel “regno dell’esperienza”, nell’elasticità. Pertanto, gli Enti Normativi dovranno essere pronti ad effettuare “rapide” modifiche di Norme Tecniche e gli Utenti dovranno essere pronti ad accogliere e implementare tali modifiche e/o vari cambiamenti.

Conclusioni

Nel procedere verso l’obiettivo di conseguire maggior Sicurezza (Safety-Security) anche agendo sui sistemi di Normative Tecniche del futuro sono stati focalizzati elementi (probabilmente) utili anche nelle attività routinarie di oggi.

È stato dimostrato come, in un futuro “a breve termine”, dovrà comparire un “nuovo mondo normativo” (almeno nella IEC). I relativi cambiamenti comporteranno conseguenze che potranno rivelarsi profonde sul piano tecnico, sul piano sociale e sul piano giuridico. Quindi, tali cambiamenti:

  • dovranno essere compatibili con situazioni tecnicamente “nuove”, legate all’avanzare delle tecnologie (introduzione del Modello Triplice)
  • potranno/dovranno considerare (anche alla luce dell’etica) gli effetti dell’impiego della Intelligenza Artificiale
  • dovranno misurarsi con le esigenze etico-giuridiche avanzate da varie comunità
  • faranno riflettere sulla necessaria dinamicità del concetto di Sicurezza (Safety-Security).

Bibliografia

[1] IEC “Safety in the future” White Paper.

[2] Risoluzione del Parlamento europeo del 20 gennaio 2021 sull’intelligenza artificiale: questioni relative all’interpretazione e applicazione del diritto internazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale (2020/2013(INI).

[3] SDG – Sustainable Development Goals (UN).

[4] Paul Leonardi – Tsedal Neeley, Il digital mindset. Che cosa serve davvero in un mondo di dati, algoritmi e intelligenza artificiale.

[5] Luciano Floridi – Etica dell’intelligenza artificiale: Sviluppi, opportunità, sfide.

[6] Approvazione del Parlamento UE (13/3/2024) del Regolamento sulla Intelligenza Artificiale.

Articoli correlati