Cos'è l'intelligenza artificiale?
Una prima definizione di intelligenza artificiale (AI) è stata data da uno dei suoi padri fondatori, Martin Minsky, il quale la descrisse come "la scienza di far fare alle macchine cose che avrebbero richiesto intelligenza se fatte da un essere umano". Senza mettere in discussione la sostanza di quella definizione, i moderni scienziati informatici si spingono un po' oltre, e definiscono l'AI come un sistema in grado di percepire il proprio ambiente ed eseguire azioni volte a massimizzare la possibilità di realizzazione dei suoi obiettivi – aggiungendo inoltre la capacità di quel sistema di interpretare e analizzare i dati in modo tale da apprendere e adattarsi di conseguenza.
La storia dell'AI
Dal mito greco di Pigmalione alla vittoriana vicenda di Frankenstein, l'uomo è da sempre affascinato dall'idea di creare un essere artificiale capace di pensare e agire come una persona reale. Con l’avvento dei computer ci siamo resi conto che la concezione dell’intelligenza artificiale avrebbe assunto i connotati non più di entità autonome e indipendenti, ma di un insieme di strumenti e tecnologie connesse in grado di crescere e adattarsi alle esigenze umane.
L'espressione "intelligenza artificiale" è stata coniata nel 1956, in occasione di un convegno scientifico presso la Dartmouth University di Hannover, nel New Hampshire. Da allora, l'intelligenza artificiale e la gestione dei dati hanno seguito percorsi di sviluppo estremamente interdipendenti. Per eseguire analisi significativamente robuste, l'AI richiede grandi quantità di Big Data. Perché enormi volumi di dati possano essere elaborati digitalmente, il sistema ha bisogno dell'AI. Ecco perché la storia dell'intelligenza artificiale ha accompagnato di pari passo la crescita esponenziale della potenza di calcolo dei computer e delle tecnologie di database.
I sistemi gestionali che un tempo riuscivano a gestire solo pochi gigabyte di dati oggi viaggiano in termini di terabyte e possono ricorrere all'AI per elaborare risultati e insight in tempo reale. E a differenza della romanzesca creatura che si aggira a passo incerto tra le vie del villaggio, le tecnologie AI sono agili e reattive, proprio perché progettate per migliorare e potenziare i partner umani, e non per sostituirli.
Tipi di AI
L'AI è una delle aree di sviluppo tecnologico in più rapida crescita. Ancora oggi, tuttavia, persino i modelli più complessi di AI si basano su quella che viene definita “intelligenza artificiale ristretta”, ossia la più elementare delle tre forme di AI. Le altre due sono ancora materia di fantascienza e allo stato attuale non trovano alcun impiego pratico. Detto questo, data la velocità con cui è progredita l'informatica negli ultimi 50 anni, è difficile dire dove ci porterà il futuro dell’AI.
I tre principali tipi di AI
Intelligenza artificiale ristretta (ANI, artificial narrow intelligence)
Anche nota come intelligenza artificiale “debole”, l'ANI è la forma di AI attualmente più diffusa. Per quanto guidati da algoritmi altamente complessi e da reti neurali, i compiti svolti dall'AI ristretta restano comunque specifici e orientati a un obiettivo. Il riconoscimento facciale, le ricerche su Internet e le vetture a guida autonoma sono altrettanti esempi di AI ristretta. La "debolezza" che le viene attribuita non si riferisce a una presunta mancanza di ambito di applicazione o di potenza, ma solo all'enorme distanza che la separa ancora da quelle componenti umane ascrivibili alla vera intelligenza. Secondo il filosofo John Searle, l'AI ristretta sarebbe "utile per testare un'ipotesi sulle menti, ma non può essere davvero una mente".
Intelligenza artificiale generale (AGI, artificial general intelligence)
L'AGI dovrebbe essere in grado di svolgere correttamente qualsiasi compito intellettuale normalmente eseguito dall'uomo. Come i sistemi di AI ristretta, i sistemi AGI sono in grado di apprendere dall'esperienza e di individuare e prevedere modelli, ma fanno compiere un balzo avanti a queste capacità. L'AGI riesce a estrapolare quella conoscenza da un'ampia gamma di compiti e situazioni che non sono stati trattati da dati acquisiti in precedenza né da algoritmi esistenti.
Il Summit è uno dei rarissimi supercomputer al mondo in grado di mostrare capacità di AGI. Può eseguire 200 quadrilioni di calcoli al secondo, a fronte del miliardo di anni che occorrerebbe all'uomo. Per inquadrare il discorso in una dimensione di fattibilità, i modelli AGI non avrebbero necessariamente bisogno di tutta quella potenza, quanto di capacità computazionali che attualmente esistono solo a livello di supercomputer.
Superintelligenza artificiale (ASI, artificial superintelligence)
In linea teorica, i sistemi ASI acquisiscono piena consapevolezza di sé. Anziché limitarsi a replicare o a comprendere il comportamento umano, riescono a coglierne l'essenza profonda.
Avendo assimilato questi tratti umani – e potendo contare su una potenza analitica e di elaborazione di gran lunga superiore alle facoltà umane – l’ASI sembrerebbe prefigurare un futuro distopico e fantascientifico contraddistinto dall'obsolescenza dell'essere umano.
È improbabile che chiunque viva oggi possa mai vedere un mondo simile, ma ciò non toglie che l'AI stia procedendo a un ritmo tale da evocare la necessità di valutare linee guida etiche e l'assunzione di responsabilità in previsione di un'intelligenza artificiale che potrebbe superarci praticamente in qualsiasi modo misurabile. Come ammonisce Stephen Hawking, “Dato il grande potenziale dell’AI, è importante studiare come trarne beneficio, evitandone al tempo stesso le possibili insidie”.
I vantaggi dell'AI
Fino solo a un paio di decenni fa, l’utilizzo dell’AI nelle operazioni aziendali era prerogativa esclusiva degli utenti "precoci" e il suo potenziale restava oggetto di disquisizioni teoriche. Da allora le tecnologie e le applicazioni di AI non hanno cessato di progredire e di apportare valore aggiunto alle aziende, al punto da far prevedere a IDC un abbondante raddoppio della spesa in tecnologia di AI entro il 2024 – rispetto al solo 2020. E mentre le tecnologie si perfezionano, altrettanto fa la comprensione umana del loro potenziale e della creatività con cui vengono applicate. Oggi le aziende si affidano ai sistemi basati sull'AI per trarne vantaggi misurabili in numero crescente, compresi i cinque qui elencati:
- Resilienza su scala aziendale: molto prima che esistessero i computer, le aziende conoscevano il valore della raccolta e della comprensione dei dati relativi al business, al mercato e ai clienti. Con la progressiva crescita dei dati in volume e complessità, la capacità di analizzarli in modo accurato e tempestivo è entrata sempre più in crisi. Le soluzioni supportate dall'AI offrono la capacità non solo di gestire i Big Data, ma anche di trarne informazioni su cui agire. Con l'intelligenza artificiale diventa possibile automatizzare i processi più complessi, sfruttare le risorse in modo più efficiente e prevedere con maggior precisione i periodi di crisi (e relative opportunità) per potervisi adattare.
- Miglior servizio ai clienti: l'AI consente alle aziende di personalizzare le offerte di servizi e di interagire con i clienti in tempo reale. Nel percorso compiuto lungo il moderno funnel di vendita dallo stato di "lead" fino alla "conversione", i consumatori generano set di dati complessi e diversificati. L'AI offre ai sistemi aziendali la potenza necessaria per sfruttare questi dati e per migliorare il servizio e le interazioni con i clienti.
- Processo decisionale sicuro: ogni valido dirigente d'azienda sa di dover prendere sempre decisioni rapide e consapevoli. Tanto più la decisione è cruciale, quanto maggiore sarà la probabilità che intervengano innumerevoli componenti e interdipendenze complesse. L'AI giunge in aiuto della capacità di giudizio e dell'esperienza umana grazie ad analisi avanzate dei dati e insight attuabili che supportano processi decisionali sicuri e in tempo reale.
- Prodotti e servizi pertinenti: i modelli tradizionali di R&S seguivano spesso un approccio rivolto al passato. In molti casi l'analisi delle performance e dei dati di feedback dei clienti veniva condotta solo quando un prodotto o servizio era entrato già da tempo sul mercato. Non esistevano peraltro sistemi capaci di individuare rapidamente i potenziali vuoti e le opportunità del mercato. Con i sistemi alimentati dall'AI le aziende hanno sott'occhio un'ampia varietà di set di dati, simultaneamente e in tempo reale. Ciò consente loro di modificare i prodotti esistenti e di introdurne di nuovi, sulla base dei dati di mercato e dei clienti più pertinenti e aggiornati.
- Coinvolgimento della forza lavoro coinvolta: da un recente sondaggio Gallup emerge che le aziende i cui dipendenti dichiarano un elevato livello di coinvolgimento hanno una redditività mediamente più alta del 21%. Introdotte sul posto di lavoro, le tecnologie di AI possono liberare il personale dalle mansioni ripetitive, lasciando che si occupi di attività più gratificanti. Le tecnologie per l'HR che sfruttano l'intelligenza artificiale possono inoltre essere utilizzate per rilevare le manifestazioni di ansia, stanchezza o noia nei dipendenti. Personalizzando le raccomandazioni sul benessere e suggerendo una gerarchia per i compiti, l'AI riesce a sostenere i dipendenti aiutandoli a ripristinare un sano equilibrio tra lavoro e vita privata.
Richiedi una demo
Osserva le tecnologie intelligenti come il machine learning e l'AI in azione.
Tecnologie di AI
Perché abbia un senso, l'intelligenza artificiale deve essere applicabile. Il suo autentico valore può essere realizzato solo dal momento in cui genera informazioni utili per stabilire una linea d'azione. Volendo stabilire un confronto con il cervello umano, potremmo assimilare le tecnologie di AI alle mani, agli occhi e ai movimenti del corpo – tutto ciò che permette di eseguire le idee del cervello. Quelle che seguono sono alcune delle tecnologie di AI più diffusamente impiegate e in rapido progresso.
Tecnologie di intelligenza artificiale
Machine learning
Il machine learning, con tutti i suoi componenti, è un sottoinsieme dell'intelligenza artificiale. Nel machine learning vengono applicati algoritmi a diverse tipologie di metodi di apprendimento e tecniche di analisi al fine di consentire al sistema di imparare e migliorare automaticamente dall'esperienza senza essere programmato esplicitamente. Le aziende possono applicare il machine learning a qualsiasi problema od obiettivo che richieda risultati predittivi, frutto di complesse analisi dei dati.
Qual è la differenza tra AI e machine learning? L'apprendimento automatico è una componente dell'intelligenza artificiale, senza la quale non può esistere. La questione non è quindi stabilire se sono diversi, ma in che modo lo sono. L'AI elabora i dati per prendere decisioni e formulare previsioni. Gli algoritmi di machine learning consentono all'AI non solo di elaborare i dati, ma anche di usarli per diventare più intelligente, senza bisogno di ulteriore programmazione.
Elaborazione del linguaggio naturale (NPL)
L'NLP consente alle macchine di riconoscere e comprendere il linguaggio scritto, i comandi vocali o entrambi. Si tratta in sostanza della capacità di tradurre il linguaggio umano in una forma che possa essere recepita dall'algoritmo. La generazione del linguaggio naturale (NLG) è un sottoinsieme di NLP che permette alla macchina di convertire il linguaggio digitale in linguaggio umano naturale. Nelle applicazioni più sofisticate, l'NLP può utilizzare il contesto per dedurre l'atteggiamento, l'umore e altre qualità soggettive con cui interpretare più fedelmente il significato. L'NLP trova applicazione pratica nei chatbot e negli assistenti vocali digitali come Siri e Alexa.
Cosa sono i chatbot? Esplora questi assistenti digitali per capire come utilizzano l'NLP.
Visione artificiale
La visione artificiale, o computer vision, è il metodo con cui i computer comprendono e “vedono” le immagini e i video digitali – anziché limitarsi a riconoscerle o categorizzarle. Le applicazioni della visione artificiale utilizzano sensori e algoritmi di apprendimento per estrarre informazioni complesse e contestuali da utilizzare poi per automatizzare o informare altri processi. La visione artificiale è inoltre in grado di estrapolare dati per scopi predittivi; in sostanza riesce vedere attraverso i muri e dietro gli angoli. Le vetture a guida autonoma sono un perfetto esempio di visione artificiale all'atto pratico.
Robotica
La robotica non può definirsi certo una novità, essendo impiegata ormai da anni, soprattutto nella produzione industriale. Senza l'applicazione dell'AI, tuttavia, l'automazione deve essere realizzata attraverso la programmazione manuale e la calibrazione. Se nei flussi di lavoro dovessero essere presenti punti deboli o inefficienze, questi emergerebbero solo a posteriori – o dopo che è avvenuto il guasto. Capita spesso che l'operatore umano non abbia modo di risalire alla causa del problema, né di capire quali adattamenti potrebbero essere apportati per ottenere maggiore efficienza e produttività. Inserendo in questo quadro l'AI, generalmente tramite i sensori dell'IoT , ecco che diventa possibile espandere enormemente l'ambito, il volume e il tipo di compiti robotici da eseguire. Gli esempi di robotica nell'industria non mancano, e vanno dai robot di prelievo degli ordini nei grandi magazzini ai robot per l'agricoltura programmabili per provvedere alla raccolta o alla semina delle colture nei momenti ottimali.
L'AI per l'impresa in azione
Sono sempre più numerose le imprese che ogni anno mettono a frutto i benefici e i vantaggi competitivi che le soluzioni di AI riescono a conferire alle loro attività. Alcuni settori, come la sanità e i servizi bancari, accumulano set di dati particolarmente voluminosi e vulnerabili. L'utilità dell'AI in questi scenari è apparsa evidente fin dalle prime iterazioni. Tuttavia, gli ambiti applicativi e l'accessibilità raggiunti oggi consentono alla moderna AI di trovare impiego praticamente nella totalità dei modelli di business. Quelli elencati di seguito sono solo alcuni di questi settori.
- L'AI nella sanità
I set di dati in ambito medico sono tra i più voluminosi, complessi – e sensibili – che esistano. Tra i principali obiettivi dell'AI nell'assistenza sanitaria vi è quello di sfruttare tali dati per stabilire correlazioni tra i protocolli di diagnosi e trattamento e gli esiti dei pazienti. Gli stessi ospedali si stanno rivolgendo alle soluzioni di AI per sostenere altre aree e iniziative di tipo operativo, riguardanti, solo per citarne alcune, la soddisfazione e l'ottimizzazione della forza lavoro, la soddisfazione dei pazienti e il risparmio sui costi. Passa in rassegna i vantaggi dell'adozione delle tecnologie intelligenti e della digitalizzazione nella sanità. - L'AI nel settore bancario
Sotto la spinta dell'urgente necessità di sicurezza, compliance e velocità transazionale, le banche e gli istituti finanziari sono stati tra i primi ad accogliere le tecnologie di intelligenza artificiale. Funzionalità quali i bot, i consulenti per i pagamenti digitali e i meccanismi di rilevamento delle frodi biometriche contribuiscono tutte a migliorare l'efficienza e il servizio clienti, oltre ad arginare i rischi e gli illeciti. Guarda come le banche promuovono un'assistenza a 360° con la digitalizzazione e le tecnologie intelligenti. - AI nel settore manifatturiero
Quando dispositivi e macchine vengono collegati in modo da trasmettere e ricevere dati tramite un sistema centrale, si dice che compongono una rete di IoT. Oltre a elaborarle, l'AI utilizza tali informazioni per prevedere opportunità e periodi di crisi e per automatizzare i migliori compiti e flussi di lavoro da attivare di conseguenza. Nelle fabbriche intelligenti, questa logica si estende ai protocolli di fabbricazione on-demand per le stampanti 3D e ai magazzini virtuali. Scopri come Adidas si affida al machine learning per consegnare sneaker personalizzate in sole 24 ore. - L'AI nel retail
La pandemia ha avuto un enorme impatto sulle abitudini di acquisto, dando luogo a un aumento significativo degli acquisti online rispetto allo stesso periodo dell'anno precedente. Per gli operatori del retail questo si è tradotto in un clima estremamente competitivo e in rapida evoluzione. Gli acquirenti online interagiscono attraverso varie opzioni di punti di contatto e generano quantità di dati complesse e non strutturate di proporzioni mai vista prima. Per comprendere e sfruttare al meglio questi dati, gli operatori del retail sono alla ricerca di soluzioni di AI capaci di elaborare e analizzare set di dati eterogenei per fornire informazioni utili e interazioni in tempo reale con i loro clienti. Scopri come affrontare le sfide e le opportunità nel nuovo panorama del retail con le tecnologie intelligenti e la digitalizzazione.
L'etica e le sfide dell'AI
Nel 1948, il pioniere dell'informatica Alan Turing disse: "Un calcolatore meriterebbe di essere definito intelligente se potesse ingannare un essere umano facendogli credere di essere umano". Turing avrebbe forse fatto fatica a immaginare i livelli di velocità di elaborazione e capacità analitica raggiunti oggi da un moderno computer supportato dall'AI, ma avrebbe probabilmente colto l'essenza dei dilemmi etici posti da tanta potenza. Un'intelligenza artificiale sempre più brava a comprenderci e a imitarci sembra destinata ad apparire sempre più umana. E in un mondo che ci vede produrre quantità crescenti di dati personali attraverso i canali digitali, abbiamo la necessità – con sempre maggiore urgenza – di poterci fidare delle applicazioni di AI su cui si basano tante delle nostre attività quotidiane. In questa pagina proponiamo alcuni esempi di sfide etiche che richiedono la consapevolezza e l'attenzione dei leader aziendali.
Esplora le linee guida di SAP per l'etica nell'AI
Leggi i principi stabiliti per orientare lo sviluppo e la distribuzione del nostro software di AI.
- Utilizzo etico dei dati dei clienti
Negli anni 2020, il grosso delle informazioni che ci scambiamo e raccogliamo in quanto imprese o privati cittadini viaggia su canali connessi digitalmente. All’inizio del 2020 nel mondo si contavano più di 3,5 miliardi di smartphone, usati per condividere quantità smisurate di dati di ogni tipo, dalla localizzazione GPS ai dettagli e preferenze personali degli utenti, senza ignorare i social media e i comportamenti di ricerca. Con le aziende che conquistano un accesso sempre più ampio alle informazioni personali dei propri clienti, diventa estremamente importante impostare quadri di riferimento e protocolli in continuo sviluppo per tutelare la privacy e minimizzare i rischi. - I pregiudizi dell'AI
Anche in un sistema di intelligenza artificiale possono insinuarsi distorsioni, sia a causa del pregiudizio umano nella programmazione dei suoi algoritmi, sia attraverso pregiudizi sistemici che possono propagarsi mediante ipotesi erronee nel processo di apprendimento automatico. Se nel primo caso le dinamiche che operano in questa direzione sono più evidenti, nel secondo sono più difficili da intercettare e quindi da evitare. Un caso di pregiudizio dell'intelligenza artificiale salito alla ribalta dei media si è verificato nell'ambito del sistema sanitario degli Stati Uniti, dove venivano utilizzate applicazioni di AI per l'assegnazione degli standard di cura. L'algoritmo aveva appreso che alcuni gruppi demografici erano meno capaci degli altri di pagare l'assistenza. Ha quindi estrapolato queste informazioni e correlato indebitamente il gruppo alle fasce di cittadini meno legittimati a ricevere assistenza sanitaria. Dopo aver fatto luce su questo sfortunato episodio, gli esperti informatici della UC Berkeley hanno collaborato con gli sviluppatori per modificare le variabili algoritmiche, riducendo così la distorsione dell'84%. - Trasparenza dell'intelligenza artificiale ed "explainable AI"
La trasparenza nell'AI è la capacità di stabilire come e perché un algoritmo è giunto a una determinata conclusione o decisione. Gli algoritmi di AI e machine learning che informano i risultati, così come i risultati stessi, appaiono talora così complessi da andare oltre la comprensione umana. Gli algoritmi di questo tipo sono noti come modelli a “scatola nera”. Per le imprese è importante avere la certezza che i modelli di dati siano equi, imparziali e che possano essere spiegati ed esaminati esternamente. Soprattutto in settori quali l'aviazione o la medicina, dove sono in gioco vite umane. È quindi fondamentale che le persone che utilizzano questi dati aderiscano con estremo rigore ai programmi di governance dei dati. - Deepfakes e fake news
"Deepfake" è un neologismo nato dall'unione delle espressioni “deep learning” e “fake”. Nella sua forma più comune, è una tecnica che si avvale dell’AI e del machine learning per sovrapporre in un video il volto di una persona al corpo di un'altra, con una precisione tale da rendere impossibile riconoscere la manipolazione. Nelle sue applicazioni legittime può dare vita ad effetti visivi sorprendenti come il ringiovanimento di 30 anni di Robert De Niro e Joe Pesci nel film The Irishman. Purtroppo la tecnologia viene utilizzata più comunemente per creare fake news apparentemente plausibili o per inserire ingannevolmente personaggi celebri in immagini o video compromettenti.
Esplora le soluzioni di AI
Gli strumenti SAP di AI e machine learning danno una mano alle migliori aziende del mondo.
SAP Insights Newsletter
Abbonati subito
Acquisisci informazioni approfondite iscrivendoti alla nostra newsletter.