Per un’intelligenza artificiale che ispiri fiducia: la Commissione Europea pubblica le linee guida sull’etica dell’IA.

Condividi

L’IA può generare enormi benefici per gli individui e la società in generale a fronte di alcuni rischi, sicché bisogna seguire la strada che massimizza i benefici minimizzandone i rischi. Per essere certi di rimanere sulla strada giusta e per suscitare fiducia nelle tecnologie IA, sono necessari un approccio umano-centrico e solide basi etiche.

Nelle sue comunicazioni del 25 aprile 2018 e del 7 dicembre 2018, la Commissione europea ha definito la sua visione per l’intelligenza artificiale, che sostiene un’IA “etica, sicura e all’avanguardia realizzata in Europa”.

Tre pilastri sono alla base della visione: (i) aumentare gli investimenti pubblici e privati ​​nell’intelligenza artificiale per aumentarne la diffusione, (ii) preparare i cambiamenti socioeconomici e (iii) assicurare un quadro etico e giuridico appropriato per rafforzare i valori europei.

Per sostenere l’attuazione di questa visione, la Commissione ha istituito il Gruppo di Esperti di alto livello sull’intelligenza artificiale (AI HLEG), un gruppo indipendente incaricato della stesura delle Linee guida sull’etica di IA e delle Raccomandazioni politiche e di investimento.

La Commissione ha ora pubblicato il documento che contiene le Linee guida sull’etica dell’IA, che sono state riviste alla luce dei feedback ricevuti dalla consultazione pubblica della European AI Alliance (un forum promosso dall’Unione Europea per confrontarsi, ad ampio spettro, sui temi IA) sulla bozza pubblicata il 18 dicembre 2018.  Nell’estate 2019, la Commissione avvierà una fase pilota che coinvolgerà un’ampia gamma di stakeholder di maggiore rilievo negli Stati membri. Infine, per costruire consenso internazionale per l’intelligenza artificiale umano-centrica e portare questo approccio all’etica dell’IA allo stadio globale, poiché le tecnologie, i dati e gli algoritmi non conoscono confini, la Commissione rafforzerà la cooperazione con partner che condividono la stessa visione come il Giappone, il Canada o Singapore e continuerà a svolgere un ruolo attivo in discussioni e iniziative internazionali tra cui il G7 e il G20.

Corso online privacy e GDPR: Regolamento Europeo 2016/679: iscrizione al 50% fino al 25 maggio 2019

I 52 esperti del Gruppo, impegnati nel motto europeo “uniti nella diversità”, sono convinti che l’intelligenza artificiale abbia il potenziale per trasformare significativamente la società e aumentare la prosperità umana, migliorando così il benessere individuale e sociale e il bene comune, oltre a portare progresso e innovazione. In particolare, i sistemi di intelligenza artificiale possono aiutare a facilitare il raggiungimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite, come promuovere l’equilibrio di genere e affrontare il cambiamento climatico, razionalizzare il nostro uso delle risorse naturali, migliorare i nostri processi di salute, mobilità e produzione e il modo in cui monitoriamo i progressi rispetto agli indicatori di sostenibilità e di coesione sociale.

Per fare questo, i sistemi di intelligenza artificiale devono essere incentrati sull’uomo, basandosi sull’impegno per il loro uso al servizio dell’umanità e del bene comune, con l’obiettivo di migliorare il benessere e la libertà degli uomini.

L’intelligenza artificiale può beneficiare una vasta gamma di settori, come l’assistenza sanitaria, il consumo di energia, la sicurezza delle automobili, l’agricoltura, i cambiamenti climatici e la gestione dei rischi finanziari, così come aiutare a rilevare frodi e minacce alla sicurezza informatica.

Pur offrendo grandi opportunità, i sistemi di intelligenza artificiale però generano anche rischi che devono essere prevenuti e gestiti in modo appropriato e proporzionato. Ora si apre un’importante opportunità per plasmare il loro sviluppo e si vuole garantire che sia possibile fidarci degli ambienti socio-tecnici in cui sono incorporati, ma anche che i produttori di sistemi di intelligenza artificiale ottengano un vantaggio competitivo incorporando nei loro prodotti e servizi un’IA che ispiri fiducia.

Il Vicepresidente per il Mercato Unico Digitale Andrus Ansip ha dichiarato: “Accolgo con favore il lavoro svolto dai nostri esperti indipendenti. La dimensione etica dell’IA non è una caratteristica di lusso o un’aggiunta. È solo con la fiducia che la nostra società può trarre pieno beneficio dalle tecnologie. L’AI etica è una proposta vantaggiosa per tutti che può diventare un vantaggio competitivo per l’Europa: essere un leader dell’IA umano-centrica di cui le persone possano fidarsi”.

Il commissario per l’Economia e la Società Digitale Mariya Gabriel ha aggiunto: “Oggi stiamo facendo un importante passo verso un’IA etica e sicura nell’UE. Ora abbiamo una solida base basata sui valori UE e che segue un impegno ampio e costruttivo da parte di molti stakeholder, tra cui imprese, università e società civile. Ora applicheremo questi requisiti alla pratica e allo stesso tempo promuoveremo una discussione internazionale sull’intelligenza artificiale umano-centrica.”

Lo scopo delle linee guida è promuovere l’intelligenza artificiale affidabile. Questa ha tre componenti, che dovrebbero essere soddisfatte durante l’intero ciclo di vita del sistema:

(1) dovrebbe essere lecito, rispettando tutte le leggi e i regolamenti applicabili (2) dovrebbe essere etico, garantendo l’aderenza ai principi e ai valori etici e (3 ) dovrebbe essere robusto, sia dal punto di vista tecnico che sociale poiché, anche con buone intenzioni, i sistemi di IA possono causare danni non intenzionali. Ogni componente in sé è necessaria ma non sufficiente, poiché, se idealmente tutti e tre i componenti funzionano in armonia e si sovrappongono nel loro funzionamento, in pratica, se sorgono tensioni tra queste componenti, la società dovrebbe sforzarsi di allinearle.

Il framework non affronta esplicitamente il primo componente (IA legittima),  mira invece a offrire una guida sulla seconda e sulla terza componente: promuovere e assicurare un’IA etica e solida.

Rivolte a tutti gli stakeholder, le linee guida cercano di andare oltre un mero elenco di principi etici, fornendo indicazioni su come tali principi possano essere resi operativi nei sistemi socio-tecnici.

Basato su un approccio fondato sui diritti fondamentali, il capitolo I identifica i principi etici e i valori correlati che devono essere rispettati nello sviluppo, nella distribuzione e nell’uso dei sistemi di intelligenza artificiale.

Indicazioni chiave sono:

√ Sviluppare, distribuire e utilizzare i sistemi di intelligenza artificiale in un modo che rispetti i principi etici di: rispetto per l’autonomia umana, prevenzione dei danni, equità e chiarezza. Riconoscere e affrontare le potenziali tensioni tra questi principi.

√ Prestare particolare attenzione alle situazioni che coinvolgono gruppi più vulnerabili come bambini, persone con disabilità e altri che sono storicamente stati svantaggiati o sono a rischio di esclusione, e a situazioni che sono caratterizzate da asimmetrie di potere o informazione, come tra datori di lavoro e lavoratori o tra imprese e consumatori.

√ Riconoscere che, apportando sostanziali benefici agli individui e alla società, i sistemi di intelligenza artificiale presentano anche alcuni rischi e possono avere un impatto negativo, tra cui impatti che possono essere difficili da prevedere, identificare o misurare (ad esempio sulla democrazia , lo stato di diritto e la giustizia distributiva, o sulla stessa mente umana). Adottare misure adeguate per attenuare questi rischi quando appropriato e proporzionalmente all’entità del rischio.

Il capitolo II fornisce le indicazioni chiave su come realizzare l’IA affidabile:

√ Assicurare che lo sviluppo, la distribuzione e l’utilizzo dei sistemi di intelligenza artificiale soddisfino i sette requisiti chiave per l’IA affidabile.

√ Prendere in considerazione metodi tecnici e non tecnici per garantire l’attuazione di tali requisiti.

√ Promuovere la ricerca e l’innovazione per valutare i sistemi di IA e favorire il raggiungimento dei requisiti; diffondere i risultati e formare sistematicamente una nuova generazione di esperti in etica dell’intelligenza artificiale.

√ Comunicare, in modo chiaro e proattivo, le informazioni alle parti interessate in merito alle capacità e ai limiti del sistema di intelligenza artificiale, consentendo aspettative realistiche e sul modo in cui i requisiti sono implementati. Trasparenza riguardo al fatto che si ha a che fare con un sistema di intelligenza artificiale.

√ Facilitare la tracciabilità e la verificabilità dei sistemi di IA, in particolare in contesti o situazioni critici.

√ Coinvolgere le parti interessate in tutto il ciclo di vita del sistema AI. Promuovere la formazione e l’istruzione in modo che tutte le parti interessate siano consapevoli e formate nell’IA affidabile.

√ Tener presente che potrebbero esserci tensioni fondamentali tra diversi principi e requisiti. Identificare, valutare, documentare e comunicare continuamente questi trade-off e le loro soluzioni.

Di particolare rilevanza sono i sette requisiti – interrelati come segue – che i sistemi di intelligenza artificiale dovrebbero soddisfare:

Specifiche checklist contribuiranno a verificare l’applicazione di ciascuno:

  1. Azione e supervisione umana: i sistemi di intelligenza artificiale dovrebbero consentire società eque sostenendo l’agire umano e i diritti fondamentali, e non diminuire, limitare o fuorviare l’autonomia umana.
  2. Robustezza e sicurezza: che gli algoritmi siano sicuri, affidabili e robusti abbastanza da gestire errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
  3. Privacy e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati, mentre i dati che li riguardano non saranno usati per nuocere loro o discriminare. Peraltro, sarebbe molto interessante raccordare questi principi con il Regolamento Generale sulla Protezione dei Dati (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016.
  4. Trasparenza: la tracciabilità dei sistemi di IA dovrebbe essere garantita.
  5. Diversità, non discriminazione ed equità: i sistemi dovrebbero considerare l’intera gamma di abilità umane, capacità e requisiti e garantire l’accessibilità.
  6. Benessere sociale e ambientale: i sistemi dovrebbero essere usati per migliorare il cambiamento sociale positivo e migliorare la sostenibilità e la responsabilità ecologica.
  7. Responsabilità: dovrebbero essere messi in atto meccanismi per garantire responsabilità e verificabilità per i sistemi IA e i loro risultati.

 

Il capitolo III fornisce una procedura di valutazione dell’IA affidabile finalizzata a rendere operativi i requisiti chiave.

Indicazioni basilari sono:

√ Adottare una checklist attendibile durante lo sviluppo, l’implementazione o l’utilizzo di sistemi AI e adattarla al caso d’uso specifico.

√ Ricordare che tale checklist non sarà mai esaustiva. Garantire un’IA affidabile presuppone l’identificazione e l’implementazione continua dei requisiti, la valutazione delle soluzioni, la garanzia di migliori risultati nell’intero ciclo di vita del sistema IA e il coinvolgimento degli stakeholder in questo.

 

Mentre queste linee guida mirano a offrire una guida per le applicazioni di IA in generale, costruendo una base orizzontale per raggiungere l’IA affidabile, diverse situazioni sollevano sfide diverse. Si dovrà quindi esplorare se, oltre a questo quadro orizzontale, sia necessario un approccio settoriale, data la specificità del contesto dei sistemi di intelligenza artificiale.

Le linee guida non intendono sostituire alcuna forma di regolamentazione attuale o futura, né mirano a scoraggiare la sua introduzione. Dovrebbero essere viste come un documento dinamico, da rivedere e aggiornare nel tempo per garantire la loro costante rilevanza con l’evolversi della tecnologia, dei nostri ambienti sociali e delle nostre conoscenze.

Oltre l’Europa, le linee guida mirano anche a promuovere la ricerca, la riflessione e la discussione su un quadro etico per i sistemi di intelligenza artificiale a livello globale.

D’altronde, già con le attuali possibilità offerte dai sistemi di IA, ormai, per dirla con Jean Baudrillard, “i modelli non costituiscono più una trascendenza o una proiezione, non costituiscono più un immaginario in rapporto al reale, sono essi stessi anticipazione del reale, sono immanenti. Rimane aperto solo il campo della simulazione in senso cibernetico, cioè il campo della manipolazione in tutte le direzioni di questi modelli.”.. “Oggi è il reale che è diventato l’alibi del modello.. Ed è paradossalmente il reale che è diventato la nostra vera utopia.”

Ecco perché a fortiori la fiducia nell’intelligenza artificiale potrà dispiegarsi appieno solo sul presupposto di un’etica che, ben lontana dall’utopia, possa al contrario dimostrarsi presidiata e praticata in maniera inoppugnabile.

Sergio Guida

ISCRIVITI SUBITO ⇒Corso online privacy e GDPR: Regolamento Europeo 2016/679

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *