Cos'è l'etica dell'AI?
L'etica dell'AI si riferisce ai principi che disciplinano il comportamento dell'intelligenza artificiale in termini di valori umani. L'etica dell'AI contribuisce a fare in modo che l'intelligenza artificiale venga sviluppata e utilizzata in modi vantaggiosi per la società civile. Tiene conto di un ampio spettro di tematiche, tra cui equità, trasparenza, rendicontabilità, privacy, sicurezza e i potenziali impatti sulla società.
default
{}
default
{}
primary
default
{}
secondary
Introduzione all'etica dell'AI
Agendo per il bene comune, l'etica dell'AI permette di contrastare le distorsioni inique, di abbattere le barriere all'accessibilità e di potenziare la creatività, solo per citare alcuni suoi vantaggi. Con le organizzazioni di varia natura che si affidano sempre più all'AI per decisioni che hanno una ricaduta sulla vita umana, diventa imprescindibile che si tenga conto anche di queste complesse implicazioni etiche, perché l'uso improprio dell'AI può danneggiare le persone e la società, oltre agli utili e alla reputazione delle aziende.
In questo articolo passeremo in rassegna:
- Principi, termini e definizioni di uso comune per l'etica dell'AI
- La creazione dei principi etici dell'AI per un'organizzazione
- Chi è responsabile dell'etica dell'AI
- Implementazione dei processi di formazione, governance e delle procedure tecniche in materia di etica dell'AI
- Casi d'uso e implementazioni dell'AI etica
- Alcuni enti con competenza sull'etica dell'AI
Esempi di principi etici dell'AI
Al centro di qualsiasi discussione sull'etica dell'AI vi è il bene delle persone. Per quanto i sistemi di AI possano essere progettati per dare priorità alla moralità e all'etica, resta sempre agli esseri umani il compito di garantire in ultima analisi la progettazione e l'uso etici e di intervenire laddove necessario.
Non esiste un insieme unico e universalmente accettato di principi etici per l'intelligenza artificiale. Per elaborare i loro principi guida, organizzazioni e agenzie governative si rivolgono spesso alla consulenza di esperti di etica, diritto e AI. Tali principi riguardano comunemente:
- Bene e dignità delle persone: i sistemi di AI devono sempre riconoscere la priorità delle persone, garantendone il bene, la sicurezza e la dignità, senza sostituirsi ad esse o comprometterne il benessere sociale
- Sorveglianza umana: l'AI ha bisogno del monitoraggio umano in ogni fase di sviluppo e utilizzo, il cosiddetto principio dell'intervento umano, per garantire che la responsabilità etica faccia capo in ultima istanza a un essere umano
- Lotta alle distorsioni e alle discriminazioni: i processi di progettazione devono riconoscere la priorità dei principi di equità, uguaglianza e rappresentanza per contrastare distorsioni e discriminazioni
- Trasparenza e spiegabilità: il modo in cui i modelli di AI prendono decisioni specifiche e producono risultati particolari deve essere trasparente e spiegabile in un linguaggio chiaro
- Tutela della privacy e della protezione dei dati: i sistemi di AI devono soddisfare gli standard più rigorosi in materia di privacy e protezione dei dati, applicando solidi metodi di cybersecurity per evitare violazioni dei dati e accessi non autorizzati
- Promozione dell'inclusività e della diversità: le tecnologie di AI devono rispecchiare e rispettare l'ampio spettro delle identità ed esperienze umane
- Società ed economia: l'AI deve contribuire a promuovere il progresso sociale e la prosperità economica di tutte le persone, senza favorire disuguaglianze o pratiche sleali
- Rafforzamento dell'alfabetizzazione e delle competenze digitali: le tecnologie di AI devono puntare a essere accessibili e comprensibili a tutte le persone, indipendentemente dalle loro competenze digitali
- Vantaggi per le aziende: le tecnologie di AI per le aziende devono accelerare i processi, massimizzare l'efficienza e promuovere la crescita
Termini e definizioni per l'etica dell'AI
Avendo a che fare tanto con l'etica quanto con la tecnologia, ogni disquisizione sull'AI etica non potrà che mutuare il vocabolario di entrambi i campi. Conoscere questo vocabolario è importante per poter partecipare alla discussione attorno all'etica dell'intelligenza artificiale:
-
AI: la capacità di una macchina di svolgere funzioni cognitive che associamo alla mente umana, come percepire, ragionare, apprendere e risolvere problemi. Esistono due tipi principali di sistemi AI, oltre a una combinazione di entrambi:
- L'AI basata sulle regole, nota anche come AI esperta, si comporta secondo un insieme di regole completamente definite elaborate da esperti umani; per esempio, molte piattaforme di e-commerce utilizzano l'AI basata su regole per formulare suggerimenti di prodotto
- L'AI basata sull'apprendimento risolve i problemi e adatta autonomamente le proprie funzionalità sulla base del set di dati iniziale di configurazione e addestramento progettato dall'uomo; sono esempi di AI basata sull'apprendimento gli strumenti di AI generativa
Etica dell'AI: un insieme di valori, principi e tecniche che adottano standard ampiamente accettati di giudizio su ciò che è giusto e ciò che è sbagliato per guidare la condotta morale in sede di sviluppo, implementazione, uso e vendita di tecnologie AI.
Modello AI: un quadro matematico creato da persone e addestrato con dati che permette ai sistemi AI di svolgere determinati compiti identificando schemi, assumendo decisioni e prevedendo risultati. Tra i numerosi usi comuni si possono citare il riconoscimento delle immagini e la traduzione linguistica.
Sistema AI: una complessa struttura di algoritmi e modelli progettati per replicare il ragionamento umano e svolgere compiti autonomamente.
Agenzia: la capacità degli individui di agire autonomamente e di compiere scelte libere.
Distorsione: un'inclinazione o pregiudizio a favore o contro una persona o un gruppo, specie in modo considerato ingiusto. Le distorsioni nei dati di addestramento, come la sotto- o sovra-rappresentanza di dati relativi a un determinato gruppo, possono indurre l'AI ad agire in modo distorto.
Spiegabilità: la capacità di rispondere alla domanda: “Cosa ha fatto la macchina per produrre questo risultato?” La spiegabilità fa capo al contesto tecnologico del sistema AI, in termini di meccanica, regole e algoritmi e dati di addestramento.
Equità: trattamento imparziale e corretto o comportamento senza favoritismi o discriminazioni indebite.
Intervento umano: la capacità degli esseri umani di intervenire in ogni ciclo decisionale di un sistema di AI.
Interpretabilità: la capacità delle persone di comprendere il contesto reale e l'impatto dell'output di un sistema AI, per esempio quando l'intelligenza artificiale viene utilizzata per prendere una decisione sull'approvazione o il rifiuto di una richiesta di prestito.
LLM (Large Language Model, grande modello linguistico): un tipo di machine learning spesso utilizzato nel riconoscimento del testo e nei compiti di generazione.
Machine learning: un sottoinsieme di AI che dota i sistemi della capacità di apprendere automaticamente, migliorare dall'esperienza e adattarsi a nuovi dati senza essere esplicitamente programmati in tal senso.
Quadro normativo: contesto fondamentale di etica pratica riguardante ciò che le persone e le istituzioni "devono" o "dovrebbero" fare in situazioni particolari.
Trasparenza: in relazione alla spiegabilità, la trasparenza è la capacità di giustificare come e perché un sistema di AI viene sviluppato, implementato e utilizzato, e di rendere tali informazioni visibili e comprensibili per le persone.
Come implementare i principi relativi all'etica dell'AI
Per le organizzazioni, utilizzare l'AI in modo etico non può esaurirsi nell'adozione di principi etici, perché questi devono essere integrati in tutti i processi tecnici e operativi dell'intelligenza artificiale. Se da un lato l'integrazione dell'etica potrebbe sembrare macchinosa per le organizzazioni che adottano rapidamente l'AI, dall'altro i casi reali di danni causati da problemi nella progettazione e nell'utilizzo dei modelli di AI ci ricordano che trascurare la questione etica può rivelarsi rischioso e oneroso.
Chi è responsabile dell'etica dell'AI?
La risposta breve: tutti coloro che hanno a che fare con l'intelligenza artificiale, dalle imprese ai governi, dai consumatori ai cittadini.
I diversi ruoli coinvolti nell'etica dell'AI
- Gli sviluppatori e i ricercatori svolgono un ruolo cruciale nella creazione di sistemi di AI che diano priorità all'agenzia e alla supervisione umana, affrontino le distorsioni e le discriminazioni e siano trasparenti e spiegabili.
- I legislatori e le autorità di regolamentazione promulgano leggi e norme per disciplinare l'uso etico dell'intelligenza artificiale e tutelare i diritti delle persone.
- I leader di aziende e settori industriali si assicurano che le loro organizzazioni adottino principi etici di intelligenza artificiale tali da consentirne l'uso in modi che contribuiscono positivamente alla società.
- Le organizzazioni della società civile sostengono l'uso etico dell'intelligenza artificiale, svolgono un ruolo di sorveglianza e offrono supporto alle comunità interessate.
- Le istituzioni accademiche contribuiscono attraverso l'istruzione, la ricerca e l'elaborazione di linee guida etiche.
- Gli utenti finali e gli utenti coinvolti, come i consumatori e i privati cittadini, hanno interesse a che i sistemi di AI siano spiegabili, interpretabili, equi, trasparenti e vantaggiosi per la società.
Il ruolo dei leader aziendali nell'etica dell'AI
Per delineare politiche interne di governance dell'AI, molte aziende istituiscono comitati guidati dai loro alti dirigenti. Presso SAP, per esempio, abbiamo costituito un gruppo consultivo e un comitato direttivo sull'etica dell'AI, composto da esperti di etica e tecnologia, allo scopo di integrare i nostri principi etici di AI nel complesso dei prodotti e dei settori operativi. Tali principi sanciscono la priorità dei seguenti aspetti:
- Proporzionalità e divieto di nuocere
- Sicurezza
- Equità e non discriminazione
- Sostenibilità
- Diritto alla privacy e alla protezione dei dati
- Sorveglianza e determinazione umane
- Trasparenza e spiegabilità
- Responsabilità e rendicontabilità
- Sensibilizzazione e alfabetizzazione tecnica
- Governance e collaborazione multilaterali e adattive
Istituzione di un comitato direttivo per l'etica dell'AI
L'istituzione di un comitato direttivo è fondamentale per gestire l'approccio di un'organizzazione all'etica dell'AI e stabilire rendicontabilità e sorveglianza ai massimi livelli. Questo comitato provvede affinché le considerazioni etiche siano intessute nello sviluppo e nella distribuzione dell'AI.
Best practice per l'istituzione di un comitato direttivo sull'etica dell'AI
- Composizione ed expertise: crea una combinazione eterogenea di stakeholder con competenze in materia di AI, diritto ed etica. I consulenti esterni possono offrire prospettive imparziali.
- Definizione dello scopo e dell'ambito: definisci con chiarezza la mission e gli obiettivi del comitato, puntando sulla progettazione, l'implementazione e il funzionamento dell'AI etica. Tale impostazione deve essere in linea con i valori aziendali, nonché con i principi di equità, trasparenza e privacy.
- Definizione di ruoli e responsabilità: delinea ruoli specifici per i membri, quali l'elaborazione di politiche di etica dell'AI, la consulenza sulle questioni etiche nei progetti di AI e la garanzia della conformità alle normative.
- Definizione di obiettivi: fissa obiettivi chiari e misurabili, quali condurre un audit etico annuale dei progetti AI o tenere un corso trimestrale sull'AI etica.
- Creazione di procedure: stabilisci le procedure operative, specificando il calendario delle riunioni, gli standard di documentazione e i protocolli di comunicazione per mantenere la trasparenza.
- Formazione continua e adattamento: tieniti al passo con i nuovi sviluppi della tecnologia AI, degli standard etici e delle normative partecipando regolarmente a corsi di formazione e convegni.
Elaborazione di una policy di etica dell'AI
La messa a punto di una policy di etica dell'AI è essenziale per guidare le iniziative di intelligenza artificiale all'interno di un'organizzazione. Il comitato direttivo è determinante in questo processo, perché con la sua expertise diversificata garantisce che la policy aderisca a leggi, standard e principi etici di più ampio respiro.
Esempio di approccio all'elaborazione di una policy di etica dell'AI
-
Redazione di una bozza di policy iniziale: inizia elaborando una policy che rispecchi i valori fondamentali, gli obblighi giuridici e le best practice dell'organizzazione. Questa stesura iniziale servirà da base per un ulteriore perfezionamento.
-
Consultazione e input: confrontati con stakeholder interni ed esterni, tra cui sviluppatori di AI, leader aziendali ed esperti di etica, per rendere la policy completa e rappresentativa di molteplici punti di vista.
-
Integrazione di insight interdisciplinari: sfrutta i diversi background dei membri del comitato per incorporare insight di matrice tecnologica, etica, legale e aziendale per trattare gli aspetti più complessi dell'etica dell'AI.
-
Definizione di casi d'uso ad alto rischio e "linea rossa": per garantire chiarezza, il comitato è tenuto a indicare quali applicazioni di AI pongono rischi significativi o sono considerate non etiche e, pertanto, da vietare. Il comitato direttivo SAP, per esempio, stabilisce le categorie seguenti:
- Alto rischio: in questa categoria rientrano le applicazioni che possono in qualche modo risultare dannose e le applicazioni relative all'applicazione delle leggi, alla migrazione e ai processi democratici, oltre a quelle che implicano dati personali, processi decisionali automatizzati o che influiscono sul benessere sociale. Tutti questi casi devono essere sottoposti a una valutazione approfondita da parte del comitato prima delle fasi di sviluppo, distribuzione o vendita.
- Linea rossa: caratterizza le applicazioni proibite, ossia quelle che consentono la sorveglianza umana, la discriminazione, la de-anonimizzazione dei dati con conseguente identificazione individuale o di gruppo, o che manipolano l'opinione pubblica o minano il confronto democratico. SAP ritiene che questi usi siano altamente contrari all'etica e ne vieta lo sviluppo, la distribuzione e la vendita.
-
Verifica e revisioni: verifica e riesamina costantemente la policy in base al feedback, per avere la certezza che sia sempre pertinente e applicabile nel mondo reale.
-
Perfezionamento e approvazione: sottoponi la policy completata all'approvazione finale da parte dei decisori, per esempio il consiglio di amministrazione, con l'appoggio di una convinta raccomandazione del comitato.
-
Implementazione e sorveglianza continua: il comitato è tenuto a monitorare l'attuazione della policy e ad aggiornarla periodicamente per tener conto dei nuovi sviluppi tecnologici ed etici.
Istituzione di un processo di revisione della compliance
Lo sviluppo di efficaci processi di revisione della conformità è essenziale per garantire che le implementazioni dell'intelligenza artificiale rispettino le politiche e le normative sull'etica dell'AI dell'organizzazione. Questi processi contribuiscono a creare fiducia presso utenti e autorità di regolamentazione e permettono di mitigare i rischi e sostenere le pratiche etiche in tutti i progetti di AI.
Tipici processi di revisione della compliance
- Elabora un quadro di revisione standardizzato: formula un quadro completo che definisca le procedure di valutazione dei progetti AI sulla base di linee guida etiche, norme giuridiche e requisiti operativi.
- Classificazione dei rischi: classifica i progetti AI in base ai rischi etici e normativi a cui sono esposti. I progetti ad alto rischio, come quelli che trattano dati personali sensibili o con impatti significativi sulle decisioni, richiedono un elevato grado di controllo.
- Audit e accertamenti periodici: conduci audit periodici per verificare la conformità continua, predisponendo sia controlli automatizzati che revisioni manuali da parte di team interdisciplinari.
- Coinvolgimento degli stakeholder: coinvolgi nel processo di revisione un gruppo eterogeneo di parti interessate, tra cui esperti di etica, consulenti legali, data scientist e utenti finali, per individuare potenziali rischi e dilemmi etici.
- Documentazione e trasparenza: tieni registri dettagliati di tutti gli adempimenti di compliance, disponendo affinché siano accessibili e facilmente intelligibili per gli audit interni ed esterni
- Meccanismi di feedback ed escalation: introduci procedure chiare per la segnalazione e la risoluzione di problemi di etica e compliance
Implementazione tecnica delle pratiche di etica dell'AI
L'integrazione di considerazioni etiche nello sviluppo dell'AI presuppone l'adattamento delle pratiche tecnologiche vigenti per garantire che i sistemi vengano creati e distribuiti in modo responsabile. Oltre a stabilire principi etici per l'intelligenza artificiale, talune organizzazioni elaborano anche principi di AI responsabile, generalmente più focalizzati sui loro specifici casi d'uso tecnici e di settore.
Requisiti tecnici fondamentali per i sistemi di AI etica
Rilevamento e mitigazione delle distorsioni: utilizza set di dati e metodi statistici di diverso tipo per intercettare e rettificare le distorsioni nei modelli AI. Conduci audit periodici per monitorare le distorsioni.
Trasparenza e spiegabilità: elabora sistemi che gli utenti possano comprendere e verificare facilmente, adottando metodi come i punteggi di importanza delle caratteristiche, gli alberi decisionali e le spiegazioni indipendenti dai modelli per migliorare la trasparenza.
Privacy e sicurezza dei dati: assicurati che i dati nei sistemi di AI siano gestiti in modo sicuro e rispettino le leggi sulla privacy. I sistemi devono utilizzare la crittografia, l'anonimizzazione e protocolli sicuri per salvaguardare l'integrità dei dati.
Design robusto e affidabile: i sistemi di AI devono essere durevoli e affidabili in varie condizioni, incorporando test e validazione estensivi per poter gestire efficacemente scenari imprevisti.
Monitoraggio e aggiornamento continui: attiva un monitoraggio continuo per accertare le performance dell'AI e la conformità etica, aggiornando i sistemi secondo necessità a fronte di nuovi dati o al mutare delle condizioni.
Coinvolgimento e feedback degli stakeholder: coinvolgi le parti interessate, quali utenti finali, esperti di etica e specialisti del campo, nei processi di progettazione e sviluppo per raccogliere feedback e avere la certezza che il sistema sia in linea con i requisiti etici e operativi.
Formazione dell'organizzazione all'etica dell'AI
Una formazione a 360° è fondamentale per far sì che i dipendenti comprendano l'etica dell'intelligenza artificiale e possano lavorare in modo responsabile con le tecnologie di AI. La formazione serve anche a rafforzare l'integrità e l'efficacia degli strumenti e delle soluzioni di AI delle organizzazioni.
Componenti chiave di un efficace programma di formazione sull'AI
- Sviluppo di un programma completo: introduci un programma di formazione che affronti le basi dell'AI, considerazioni etiche, questioni di compliance e applicazioni pratiche, su misura per i vari ruoli organizzativi, dallo staff tecnico alla dirigenza.
- Moduli formativi specifici per ruolo: organizza moduli di formazione personalizzati in base alle esigenze e alle responsabilità specifiche dei vari reparti. Gli sviluppatori, per esempio, potrebbero concentrarsi su prassi di programmazione etica, mentre i team di vendita e marketing potrebbero essere più interessati alle implicazioni dell'AI nelle interazioni con i clienti.
- Apprendimento continuo e aggiornamenti: l'AI si evolve rapidamente, perciò è importante tenere aggiornati i programmi di formazione con gli sviluppi e le best practice più recenti.
- Esperienze di apprendimento interattive e pratiche: utilizza casi di studio, simulazioni e laboratori per illustrare le applicazioni nel mondo reale e le sfide etiche, in modo da corredare la conoscenza teorica con l'esperienza pratica.
- Valutazione e certificazione: conduci valutazioni per misurare il grado di comprensione e preparazione dei dipendenti in materia di etica dell'AI e prendi in considerazione una proposta di certificazione per attestare e motivare il miglioramento continuo.
- Meccanismi di feedback: istituisci canali di feedback per consentire ai dipendenti di contribuire al perfezionamento continuo dei programmi di formazione, affinché possano rispondere all'evoluzione delle esigenze aziendali.
Casi d'uso dell'etica dell'AI per i diversi ruoli dell'organizzazione
Chiunque, all'interno di un'organizzazione, lavori con applicazioni potenziate dall'AI o con motori di risposta di AI dovrebbe essere sempre attento al rischio di distorsioni e lavorare in modo responsabile. Ecco alcuni esempi di casi di utilizzo di etica dell'AI per i diversi ruoli o reparti aziendali:
- Data scientist o ingegneri del machine learning: per questi ruoli si consiglia di incorporare metodi di rilevamento e attenuazione delle distorsioni, per garantire la spiegabilità e il miglioramento del modello. A tale scopo si applicheranno tecniche come le metriche di equità e l'analisi controfattuale.
- Product manager o analisti aziendali: le mansioni correlate all'etica dell'AI possono andare dagli accertamenti del rischio etico alla prioritizzazione della progettazione incentrata sull'utente passando per lo sviluppo di strategie di comunicazione chiare con cui spiegare i sistemi di AI a utenti e stakeholder. In ogni caso sarà necessario prendere in esame i potenziali impatti sociali, le esigenze degli utenti e la creazione di fiducia attraverso la trasparenza.
- Dipartimento affari legali e compliance: i casi d'uso critici riguardano la conformità alle normative pertinenti (per es. le leggi sulla privacy dei dati), la gestione dei rischi legali e reputazionali associati all'AI e l'elaborazione di strategie per mitigare le passività derivanti da distorsioni algoritmiche o conseguenze indesiderate
- Professionisti HR: il reparto Risorse Umane dovrebbe operare con strumenti di selezione del personale potenziati dall'AI che siano esenti da distorsioni e rispettino le leggi anti-discriminazione. Le attività riguardano l'audit di algoritmi, l'implementazione di sistemi di intervento umano e la formazione su pratiche etiche di reclutamento con AI.
Enti con competenza sull'etica dell'AI
L'etica dell'AI è una materia complessa, sulla quale incidono regolamenti in evoluzione, norme giuridiche, pratiche di settore e progressi tecnologici. Le organizzazioni devono tenersi aggiornate sulle modifiche alle politiche che potrebbero interessarle direttamente e dovrebbero collaborare con gli stakeholder competenti per accertare quali politiche si applicano ad esse. Pur non essendo esaustivo, l'elenco che segue fornisce un'idea delle risorse sulle policy che le organizzazioni dovrebbero consultare in base al loro settore e alla loro regione.
Esempi di risorse ed enti con competenza sull'etica dell'AI
Rapporto ACET Artificial Intelligence for Economic Policymaking: questo studio condotto dall'African Center for Economic Transformation valuta le questioni economiche ed etiche legate all'AI allo scopo di informare politiche economiche, finanziarie e industriali che siano inclusive e sostenibili in tutta l'Africa.
AlgorithmWatch: organizzazione per i diritti umani che sostiene e sviluppa strumenti per la creazione e l'uso di sistemi algoritmici che tutelano la democrazia, lo stato di diritto, la libertà, l'autonomia, la giustizia e l'uguaglianza.
ASEAN Guide on AI Governance and Ethics: guida pratica rivolta agli Stati membri dell'Associazione delle Nazioni del Sud-est asiatico per progettare, sviluppare e distribuire le tecnologie di AI in modo etico e produttivo.
AI Watch della Commissione europea: il centro comune di ricerca della Commissione europea fornisce un orientamento per la creazione di sistemi di AI affidabili, tra cui report e cruscotti specifici per paese, per contribuire a monitorare lo sviluppo, l'adozione e l'impatto dell'intelligenza artificiale in Europa
NTIA AI Accountability Report: questo rapporto dell'organo statunitense preposto alle telecomunicazioni e all'informazione (National Telecommunications and Information Administration) propone misure volontarie, normative e di altro tipo a garanzia della legalità e affidabilità dei sistemi di AI negli Stati Uniti.
Principi dell'OCSE sull'AI: al centro dei lavori di questo forum di paesi e gruppi di stakeholder vi è l'affidabilità dell'AI. Nel 2019 ha elaborato i Principi dell'OCSE sull'AI, il primo standard intergovernativo sull'intelligenza artificiale. Questi lavori sono serviti anche da base per i Principi per l'intelligenza artificiale del G20.
Raccomandazione dell'UNESCO sull'Etica dell'Intelligenza Artificiale: il quadro di raccomandazioni di questa agenzia delle Nazioni Unite è stato adottato da 193 Stati membri dopo un processo di consultazione globale con esperti e parti interessate durato due anni.
Conclusioni
In conclusione, lo sviluppo e la distribuzione dell'AI etica richiedono un approccio multiforme. Le organizzazioni sono chiamate a introdurre principi etici chiaramente definiti, a integrarli nei processi di sviluppo dell'AI e a garantirne la conformità continua attraverso solidi programmi di governance e formazione. Assegnando la priorità a valori incentrati sull'uomo come l'equità, la trasparenza e la responsabilità, le imprese possono sfruttare la potenza dell'AI in modo responsabile e promuovere l'innovazione mitigando al contempo i rischi potenziali e facendo sì che queste tecnologie risultino vantaggiose per la società nel suo complesso.
Risorse SAP
Altri casi di utilizzo e orientamenti per l'etica dell'AI
Scarica il Manuale SAP di etica dell'AI per ottenere una guida approfondita all'implementazione di pratiche corrette.