flex-height
text-black

Tecnici e scienziati al lavoro su un prototipo di esoscheletro bionico

Cos'è l'etica dell'AI?

L'etica dell'AI si riferisce ai principi che disciplinano il comportamento dell'intelligenza artificiale in termini di valori umani. L'etica dell'AI contribuisce a fare in modo che l'intelligenza artificiale venga sviluppata e utilizzata in modi vantaggiosi per la società civile. Tiene conto di un ampio spettro di tematiche, tra cui equità, trasparenza, rendicontabilità, privacy, sicurezza e i potenziali impatti sulla società.

default

{}

default

{}

primary

default

{}

secondary

Introduzione all'etica dell'AI

Immaginiamo un sistema di intelligenza artificiale capace di predire la possibilità che venga compiuto un comportamento criminale futuro, e ipotizziamo che venga utilizzato dai giudici per stabilire l'entità delle condanne. Cosa accadrebbe se un simile sistema colpisse in modo sproporzionato solo taluni gruppi demografici?

Agendo per il bene comune, l'etica dell'AI permette di contrastare le distorsioni inique, di abbattere le barriere all'accessibilità e di potenziare la creatività, solo per citare alcuni suoi vantaggi. Con le organizzazioni di varia natura che si affidano sempre più all'AI per decisioni che hanno una ricaduta sulla vita umana, diventa imprescindibile che si tenga conto anche di queste complesse implicazioni etiche, perché l'uso improprio dell'AI può danneggiare le persone e la società, oltre agli utili e alla reputazione delle aziende.

In questo articolo passeremo in rassegna:

Esempi di principi etici dell'AI

Al centro di qualsiasi discussione sull'etica dell'AI vi è il bene delle persone. Per quanto i sistemi di AI possano essere progettati per dare priorità alla moralità e all'etica, resta sempre agli esseri umani il compito di garantire in ultima analisi la progettazione e l'uso etici e di intervenire laddove necessario.

Non esiste un insieme unico e universalmente accettato di principi etici per l'intelligenza artificiale. Per elaborare i loro principi guida, organizzazioni e agenzie governative si rivolgono spesso alla consulenza di esperti di etica, diritto e AI. Tali principi riguardano comunemente:

Termini e definizioni per l'etica dell'AI

Avendo a che fare tanto con l'etica quanto con la tecnologia, ogni disquisizione sull'AI etica non potrà che mutuare il vocabolario di entrambi i campi. Conoscere questo vocabolario è importante per poter partecipare alla discussione attorno all'etica dell'intelligenza artificiale:

Etica dell'AI: un insieme di valori, principi e tecniche che adottano standard ampiamente accettati di giudizio su ciò che è giusto e ciò che è sbagliato per guidare la condotta morale in sede di sviluppo, implementazione, uso e vendita di tecnologie AI.

Modello AI: un quadro matematico creato da persone e addestrato con dati che permette ai sistemi AI di svolgere determinati compiti identificando schemi, assumendo decisioni e prevedendo risultati. Tra i numerosi usi comuni si possono citare il riconoscimento delle immagini e la traduzione linguistica.

Sistema AI: una complessa struttura di algoritmi e modelli progettati per replicare il ragionamento umano e svolgere compiti autonomamente.

Agenzia: la capacità degli individui di agire autonomamente e di compiere scelte libere.

Distorsione: un'inclinazione o pregiudizio a favore o contro una persona o un gruppo, specie in modo considerato ingiusto. Le distorsioni nei dati di addestramento, come la sotto- o sovra-rappresentanza di dati relativi a un determinato gruppo, possono indurre l'AI ad agire in modo distorto.

Spiegabilità: la capacità di rispondere alla domanda: “Cosa ha fatto la macchina per produrre questo risultato?” La spiegabilità fa capo al contesto tecnologico del sistema AI, in termini di meccanica, regole e algoritmi e dati di addestramento.

Equità: trattamento imparziale e corretto o comportamento senza favoritismi o discriminazioni indebite.

Intervento umano: la capacità degli esseri umani di intervenire in ogni ciclo decisionale di un sistema di AI.

Interpretabilità: la capacità delle persone di comprendere il contesto reale e l'impatto dell'output di un sistema AI, per esempio quando l'intelligenza artificiale viene utilizzata per prendere una decisione sull'approvazione o il rifiuto di una richiesta di prestito.

LLM (Large Language Model, grande modello linguistico): un tipo di machine learning spesso utilizzato nel riconoscimento del testo e nei compiti di generazione.

Machine learning: un sottoinsieme di AI che dota i sistemi della capacità di apprendere automaticamente, migliorare dall'esperienza e adattarsi a nuovi dati senza essere esplicitamente programmati in tal senso.

Quadro normativo: contesto fondamentale di etica pratica riguardante ciò che le persone e le istituzioni "devono" o "dovrebbero" fare in situazioni particolari.

Trasparenza: in relazione alla spiegabilità, la trasparenza è la capacità di giustificare come e perché un sistema di AI viene sviluppato, implementato e utilizzato, e di rendere tali informazioni visibili e comprensibili per le persone.

Come implementare i principi relativi all'etica dell'AI

Per le organizzazioni, utilizzare l'AI in modo etico non può esaurirsi nell'adozione di principi etici, perché questi devono essere integrati in tutti i processi tecnici e operativi dell'intelligenza artificiale. Se da un lato l'integrazione dell'etica potrebbe sembrare macchinosa per le organizzazioni che adottano rapidamente l'AI, dall'altro i casi reali di danni causati da problemi nella progettazione e nell'utilizzo dei modelli di AI ci ricordano che trascurare la questione etica può rivelarsi rischioso e oneroso.

Chi è responsabile dell'etica dell'AI?

La risposta breve: tutti coloro che hanno a che fare con l'intelligenza artificiale, dalle imprese ai governi, dai consumatori ai cittadini.

I diversi ruoli coinvolti nell'etica dell'AI

Infografica dal titolo Quello che l'interlocutore umano deve capire

Il ruolo dei leader aziendali nell'etica dell'AI

Per delineare politiche interne di governance dell'AI, molte aziende istituiscono comitati guidati dai loro alti dirigenti. Presso SAP, per esempio, abbiamo costituito un gruppo consultivo e un comitato direttivo sull'etica dell'AI, composto da esperti di etica e tecnologia, allo scopo di integrare i nostri principi etici di AI nel complesso dei prodotti e dei settori operativi. Tali principi sanciscono la priorità dei seguenti aspetti:

Istituzione di un comitato direttivo per l'etica dell'AI

L'istituzione di un comitato direttivo è fondamentale per gestire l'approccio di un'organizzazione all'etica dell'AI e stabilire rendicontabilità e sorveglianza ai massimi livelli. Questo comitato provvede affinché le considerazioni etiche siano intessute nello sviluppo e nella distribuzione dell'AI.

Best practice per l'istituzione di un comitato direttivo sull'etica dell'AI

Elaborazione di una policy di etica dell'AI

La messa a punto di una policy di etica dell'AI è essenziale per guidare le iniziative di intelligenza artificiale all'interno di un'organizzazione. Il comitato direttivo è determinante in questo processo, perché con la sua expertise diversificata garantisce che la policy aderisca a leggi, standard e principi etici di più ampio respiro.

Esempio di approccio all'elaborazione di una policy di etica dell'AI

Diagramma di flusso del processo di classificazione e valutazione dei rischi

Istituzione di un processo di revisione della compliance

Lo sviluppo di efficaci processi di revisione della conformità è essenziale per garantire che le implementazioni dell'intelligenza artificiale rispettino le politiche e le normative sull'etica dell'AI dell'organizzazione. Questi processi contribuiscono a creare fiducia presso utenti e autorità di regolamentazione e permettono di mitigare i rischi e sostenere le pratiche etiche in tutti i progetti di AI.

Tipici processi di revisione della compliance

Implementazione tecnica delle pratiche di etica dell'AI

L'integrazione di considerazioni etiche nello sviluppo dell'AI presuppone l'adattamento delle pratiche tecnologiche vigenti per garantire che i sistemi vengano creati e distribuiti in modo responsabile. Oltre a stabilire principi etici per l'intelligenza artificiale, talune organizzazioni elaborano anche principi di AI responsabile, generalmente più focalizzati sui loro specifici casi d'uso tecnici e di settore.

Requisiti tecnici fondamentali per i sistemi di AI etica

Rilevamento e mitigazione delle distorsioni: utilizza set di dati e metodi statistici di diverso tipo per intercettare e rettificare le distorsioni nei modelli AI. Conduci audit periodici per monitorare le distorsioni.

Trasparenza e spiegabilità: elabora sistemi che gli utenti possano comprendere e verificare facilmente, adottando metodi come i punteggi di importanza delle caratteristiche, gli alberi decisionali e le spiegazioni indipendenti dai modelli per migliorare la trasparenza.

Privacy e sicurezza dei dati: assicurati che i dati nei sistemi di AI siano gestiti in modo sicuro e rispettino le leggi sulla privacy. I sistemi devono utilizzare la crittografia, l'anonimizzazione e protocolli sicuri per salvaguardare l'integrità dei dati.

Design robusto e affidabile: i sistemi di AI devono essere durevoli e affidabili in varie condizioni, incorporando test e validazione estensivi per poter gestire efficacemente scenari imprevisti.

Monitoraggio e aggiornamento continui: attiva un monitoraggio continuo per accertare le performance dell'AI e la conformità etica, aggiornando i sistemi secondo necessità a fronte di nuovi dati o al mutare delle condizioni.

Coinvolgimento e feedback degli stakeholder: coinvolgi le parti interessate, quali utenti finali, esperti di etica e specialisti del campo, nei processi di progettazione e sviluppo per raccogliere feedback e avere la certezza che il sistema sia in linea con i requisiti etici e operativi.

Formazione dell'organizzazione all'etica dell'AI

Una formazione a 360° è fondamentale per far sì che i dipendenti comprendano l'etica dell'intelligenza artificiale e possano lavorare in modo responsabile con le tecnologie di AI. La formazione serve anche a rafforzare l'integrità e l'efficacia degli strumenti e delle soluzioni di AI delle organizzazioni.

Componenti chiave di un efficace programma di formazione sull'AI

Casi d'uso dell'etica dell'AI per i diversi ruoli dell'organizzazione

Chiunque, all'interno di un'organizzazione, lavori con applicazioni potenziate dall'AI o con motori di risposta di AI dovrebbe essere sempre attento al rischio di distorsioni e lavorare in modo responsabile. Ecco alcuni esempi di casi di utilizzo di etica dell'AI per i diversi ruoli o reparti aziendali:

Enti con competenza sull'etica dell'AI

L'etica dell'AI è una materia complessa, sulla quale incidono regolamenti in evoluzione, norme giuridiche, pratiche di settore e progressi tecnologici. Le organizzazioni devono tenersi aggiornate sulle modifiche alle politiche che potrebbero interessarle direttamente e dovrebbero collaborare con gli stakeholder competenti per accertare quali politiche si applicano ad esse. Pur non essendo esaustivo, l'elenco che segue fornisce un'idea delle risorse sulle policy che le organizzazioni dovrebbero consultare in base al loro settore e alla loro regione.

Esempi di risorse ed enti con competenza sull'etica dell'AI

Rapporto ACET Artificial Intelligence for Economic Policymaking: questo studio condotto dall'African Center for Economic Transformation valuta le questioni economiche ed etiche legate all'AI allo scopo di informare politiche economiche, finanziarie e industriali che siano inclusive e sostenibili in tutta l'Africa.

AlgorithmWatch: organizzazione per i diritti umani che sostiene e sviluppa strumenti per la creazione e l'uso di sistemi algoritmici che tutelano la democrazia, lo stato di diritto, la libertà, l'autonomia, la giustizia e l'uguaglianza.

ASEAN Guide on AI Governance and Ethics: guida pratica rivolta agli Stati membri dell'Associazione delle Nazioni del Sud-est asiatico per progettare, sviluppare e distribuire le tecnologie di AI in modo etico e produttivo.

AI Watch della Commissione europea: il centro comune di ricerca della Commissione europea fornisce un orientamento per la creazione di sistemi di AI affidabili, tra cui report e cruscotti specifici per paese, per contribuire a monitorare lo sviluppo, l'adozione e l'impatto dell'intelligenza artificiale in Europa

NTIA AI Accountability Report: questo rapporto dell'organo statunitense preposto alle telecomunicazioni e all'informazione (National Telecommunications and Information Administration) propone misure volontarie, normative e di altro tipo a garanzia della legalità e affidabilità dei sistemi di AI negli Stati Uniti.

Principi dell'OCSE sull'AI: al centro dei lavori di questo forum di paesi e gruppi di stakeholder vi è l'affidabilità dell'AI. Nel 2019 ha elaborato i Principi dell'OCSE sull'AI, il primo standard intergovernativo sull'intelligenza artificiale. Questi lavori sono serviti anche da base per i Principi per l'intelligenza artificiale del G20.

Raccomandazione dell'UNESCO sull'Etica dell'Intelligenza Artificiale: il quadro di raccomandazioni di questa agenzia delle Nazioni Unite è stato adottato da 193 Stati membri dopo un processo di consultazione globale con esperti e parti interessate durato due anni.

Conclusioni

In conclusione, lo sviluppo e la distribuzione dell'AI etica richiedono un approccio multiforme. Le organizzazioni sono chiamate a introdurre principi etici chiaramente definiti, a integrarli nei processi di sviluppo dell'AI e a garantirne la conformità continua attraverso solidi programmi di governance e formazione. Assegnando la priorità a valori incentrati sull'uomo come l'equità, la trasparenza e la responsabilità, le imprese possono sfruttare la potenza dell'AI in modo responsabile e promuovere l'innovazione mitigando al contempo i rischi potenziali e facendo sì che queste tecnologie risultino vantaggiose per la società nel suo complesso.

Logo SAP

Risorse SAP

Altri casi di utilizzo e orientamenti per l'etica dell'AI

Scarica il Manuale SAP di etica dell'AI per ottenere una guida approfondita all'implementazione di pratiche corrette.

Vai al manuale

Per saperne di più