Co je odpovědná umělá inteligence?
Odpovědná umělá inteligence označuje vývoj, nasazení a používání systémů umělé inteligence (AI) způsoby, které jsou etické, transparentní a odpovědné. Jeho cílem je zajistit, aby technologie umělé inteligence byly v souladu s lidskými hodnotami, respektovaly základní práva a byly navrženy tak, aby podporovaly spravedlnost, bezpečnost a blahobyt jednotlivců a společnosti.
Definice odpovědné umělé inteligence
Odpovědná umělá inteligence je praxe používání umělé inteligence způsobem, který zdůrazňuje lidský dohled a společenský blahobyt. Jde o zajištění toho, aby byly modely, datové sady a aplikace umělé inteligence vyvíjeny a nasazovány eticky a právně, aniž by došlo k úmyslnému poškození nebo zachování předpojatostí. Je to důležité, protože zneužití umělé inteligence nebo její neopatrné používání může poškodit uživatele, dotčené osoby, subjekty údajů, společnost a podniky.
Co je odpovědná umělá inteligence vs. důvěryhodná umělá inteligence vs. etická umělá inteligence?
Pojmy odpovědná umělá inteligence, důvěryhodná umělá inteligence a etická umělá inteligence spolu úzce souvisejí, ale existují některé klíčové rozdíly:
- Odpovědná umělá inteligence zahrnuje celkové etické důsledky, řízení, dohled, právní a dlouhodobé dopady umělé inteligence.
- Důvěryhodná umělá inteligence odkazuje konkrétně na návrh systémů umělé inteligence tak, aby je lidé vnímali jako spolehlivé, spravedlivé, transparentní, vysvětlitelné a bezpečné.
- Etická umělá inteligence se zaměřuje na morální principy toho, jak je umělá inteligence navržena a používána tak, aby nepoškozovala lidstvo nebo lidskou důstojnost.
Vždy musíme mít na paměti, že protože AI není lidská, je neschopná mít lidské rysy odpovědnosti, důvěryhodnosti nebo etiky. Proto je důležité tyto pojmy přisuzovat lidem, kteří tuto technologii vytvářejí nebo používají, a ne samotné technologii.
Jak funguje odpovědná umělá inteligence
Odpovědná umělá inteligence může fungovat z hlediska lidských a technologických aspektů:
- Lidé musí pochopit výhody a rizika používání umělé inteligence a zavázat se k jejímu etickému používání. Jednotlivci a lidé v organizacích a vládách hrají svou roli.
- Technologie umělé inteligence musí být vyvíjena, nasazována a řízena způsobem, který upřednostňuje lidská práva a blahobyt.
Zavedení formalizovaných principů odpovědné umělé inteligence je dobrý způsob, jak sladit každého v organizaci se sdílenou vizí odpovědné umělé inteligence. Zavedení principů je však jen začátek: organizace musí také implementovat efektivní řízení umělé inteligence, školení a technické procesy, aby zásady uvedla do praxe.
Principy odpovědné umělé inteligence se v jednotlivých organizacích liší. Například společnosti poskytující finanční služby mohou klást větší důraz na spravedlnost a nediskriminaci, zatímco společnosti provozující sociální média by se mohly více zaměřit na transparentnost nebo soukromí. Zde je příklad principů shrnutých z etických pokynů Evropské komise pro vytváření důvěryhodných systémů umělé inteligence:
Příklad odpovědných principů umělé inteligence
Lidská agentura a dohled: Umělá inteligence by měla rozšiřovat lidské rozhodování, prosazovat lidská práva a mít mechanismy pro lidský dohled.
Technická robustnost a bezpečnost: Systémy umělé inteligence by měly být bezpečné, odolné, bezpečné, přesné a spolehlivé s pohotovostním plánem, aby se předešlo neúmyslným škodám.
Ochrana soukromí a správa údajů: Systémy by měly plně respektovat soukromí a regulovat kvalitu, soukromí a legitimní přístup k údajům.
Transparentnost: Systémy musí být vysledovatelné a transparentní. Měly by být jasně označeny jako umělá inteligence a jejich schopnosti a omezení by měly být účinně sdělovány.
Rozmanitost, nediskriminace a spravedlnost: umělá inteligence by se měla vyvarovat prosazování předpojatosti, měla by podporovat rozmanitost, zajistit rovnost přístupnosti a zapojit zúčastněné strany do procesu rozvoje.
Společenský a environmentální blahobyt: systémy umělé inteligence by měly být přínosem pro všechny lidské bytosti, včetně budoucích generací. Musí být udržitelné a šetrné k životnímu prostředí a jejich společenský dopad by měl být pečlivě zvážen.
Odpovědnost: Měly by být zavedeny mechanismy, které zajistí odpovědnost za systémy umělé inteligence a jejich výsledky. Měly by být zajištěny audity a přístupnost.
Odpovědné postupy vývoje umělé inteligence
Vývojáři a výzkumníci, kteří vytvářejí nebo implementují systémy umělé inteligence, se musí řídit důvěryhodnými technickými osvědčenými postupy umělé inteligence a průběžně posuzovat dodržování zásad umělé inteligence ve svých organizacích. Zde jsou některé běžné postupy:
Posouzení dat trénování modelu
Mít různé datové sady pomáhá reprezentovat různé kohorty, zlepšovat robustnost a inkluzivnost systému umělé inteligence. Porozumění datům, která se používají k trénování modelů, je nezbytné pro odhalení nebo zmírnění problémů, jako je předpojatost umělé inteligence.
Analýza příčin
Pochopení toho, jak fungují vztahy příčina-účinek v modelech umělé inteligence, může pomoci při etickém rozhodování o tom, jak je nasadit, nebo zda by měly být vůbec nasazeny. Tato analýza činí prediktivní modely robustnějšími odhalením interakcí mezi různými proměnnými.
Analýza vzájemných faktů
Jedná se o proces zlepšování férovosti modelu a rozhodování pomocí "what-if" dotazů k odhalení předpojatostí a logických problémů umělé inteligence. Funguje tak, že se modelu ptá, jak by se jeho rozhodnutí změnila, kdyby byl vstup, například údaje o osobě nebo situaci, odlišný.
Spravedlnost ve strojovém učení
Odstranění předpojatosti umělé inteligence je zásadní pro zajištění spravedlivého zacházení se systémy s různými skupinami nebo jednotlivci. To se provádí identifikací nevyváženého zastoupení nebo nespravedlivého zacházení s daty a algoritmy pro trénování strojového učení a typicky má tři fáze:
- Předběžné zpracování údajů pro identifikaci a odstranění předpojatostí
- Uplatňování spravedlivých omezení během testování modelu
- Dodatečné zpracování úprav rozhodování modelu
Posouzení chyby modelu
Vyhodnocení a oprava chyb v předpovědích modelů je kritická pro zamezení riskantním nebo trapným výsledkům. Mezi běžné metody hodnocení chyb patří matice zmatení, přesnost, odvolání, skóre F1 a křivka ROC.
Interpretovatelnost modelu
Pro podporu důvěry a transparentnosti s uživateli a regulačními orgány musí být vývojáři schopni interpretovat a vysvětlovat, proč jejich modely činí konkrétní rozhodnutí a demonstrovat určité chování. Některé běžně používané techniky interpretace:
- Důležitost funkce identifikuje a řadí nejvlivnější proměnné nebo „funkce“ používané modelem k vytváření predikcí
- Částečné závislé grafy jsou grafy, které vizualizují vztah mezi vybranou proměnnou a konkrétním výsledkem, přičemž všechny ostatní proměnné jsou konstantní
Příručka SAP AI Ethics
Tento hluboký úvod vám pomůže aplikovat zásady SAP Global AI Ethics na vaši každodenní práci a dosáhnout tak odpovědné umělé inteligence.
Proč je odpovědná umělá inteligence důležitá?
Umělá inteligence má hluboký dopad na společnost, ovlivňuje to, jak pracujeme a jak interagujeme. Odpovědná umělá inteligence může být katalyzátorem inovací tím, že podporuje nové přístupy k řešení problémů a k vývoji produktů na prvním místě. Neodpovědné používání umělé inteligence však představuje významná rizika, jako je zhoršení nerovností a generování škodlivého obsahu. Dodržováním odpovědných principů a postupů umělé inteligence mohou organizace zajistit, aby jejich systémy umělé inteligence byly vyvíjeny a používány způsobem, který je etický, odpovědný a prospěšný všem zúčastněným stranám – jde o to být zodpovědný.
Etické požadavky pro podniky a vlády
Všechny organizace a jednotlivci musí při využívání umělé inteligence dodržovat vysoké etické standardy. Kromě plnění právních požadavků musí podniky a vlády ve svých snahách o umělou inteligenci také upřednostňovat ochranu osobních údajů, transparentnost a spravedlnost.
Společenská očekávání ohledně používání etických technologií
Poptávka technologických společností po odpovědnosti a transparentnosti roste s tím, jak se umělá inteligence stále více používá. Společnost očekává, že systémy umělé inteligence budou navrženy tak, aby respektovaly lidská práva, přijímaly rozmanitost a upřednostňovaly veřejné blaho.
Výhody odpovědné umělé inteligence
Vzhledem k tomu, že organizace urychlují přijetí umělé inteligence, je přirozené, že někteří mohou odpovědnou umělou inteligenci vnímat jako rychlostní otřes – nebo jako něco, co je třeba implementovat později. Ale stanovení hlavních zásad před zahájením velkých projektů umělé inteligence je zásadní pro to, aby pomohlo předcházet technologickým chybám, škodám na lidech a poškození pověsti.
Konkurenční výhoda
Organizace se mohou postavit jako lídři v etických inovacích a přilákat zákazníky, kteří upřednostňují etické hodnoty ve svých nákupních rozhodnutích. Kromě efektivity a inovačních výhod umělé inteligence umožňuje odpovědné používání podnikům implementovat umělou inteligenci s menším rizikem než konkurenti, kteří ji nemají.
Úspory nákladů a efektivita
Proaktivní řešení předpojatostí umělé inteligence a zajištění přesnosti dat modelu může pomoci předcházet škodám lidí, nákladným chybám a zvyšovat efektivitu. Také transparentní a vysvětlitelné modely umělé inteligence jsou obvykle přesnější než ty, které nejsou.
Vylepšená důvěra značky
Otevřená komunikace o tom, jak jsou systémy umělé inteligence navrženy, nasazeny a řízeny, prokazuje závazek k etickým hodnotám a blahobytu zákazníků. To může zvýšit vnímání značky, loajalitu zákazníků a pomoci budovat důvěru se zákazníky a partnery.
Lepší rozhodování
Identifikací a zmírněním předpojatostí v datech a algoritmech mohou mít organizace větší jistotu, že přehledy a doporučení řízené umělou inteligencí jsou přesné, spravedlivé a v souladu s etickými standardy. Tato výhoda platí pro různé podnikové funkce, včetně vývoje produktů, služeb zákazníkům a strategického plánování.
Kompenzace rizika
Případy zkreslení umělé inteligence, narušení dat nebo neetického nasazení mohou poškodit pověst organizace a vést k nákladným soudním sporům. Dodržování zásad odpovědné umělé inteligence může pomoci vyhnout se těmto rizikům.
Odpovědné výzvy umělé inteligence
Vytvoření souboru odpovědných principů umělé inteligence je jen prvním krokem k zavedení nezbytného přístupu a operačního přístupu k odpovědnému vytváření a nasazování umělé inteligence. Zde jsou některé výzvy odpovědné umělé inteligence:
Předpojatost umělé inteligence: Identifikace a zmírňování
Systémy umělé inteligence mohou reflektovat nebo zesílit stávající předpojatosti ve svých školicích datech, což může vést k nespravedlivým výsledkům v žádostech, jako je nábor zaměstnání nebo schvalování půjček. Pro zmírnění těchto předpojatostí musí organizace zajistit, aby jejich datové soubory byly různorodé, provádět pravidelné audity a používat algoritmy zmírňující zkreslení.
Řízení umělé inteligence: Zajištění etické shody
Bez zavedeného robustního rámce řízení umělé inteligence mohou organizace čelit problémům s ochranou soukromí, zabezpečením a kontrolou. Zavedení jasných politik, přijetí transparentnosti a zapojení zúčastněných stran je nezbytné pro zachování souladu a odpovědnosti v systémech umělé inteligence.
Dodržování předpisů a standardizace
Rychlý vývoj umělé inteligence překonal mnoho regulačních rámců a vytvořil mezeru, která by mohla vést k etickému porušování. Adaptivní právní rámce a mezinárodní spolupráce jsou nezbytné k zajištění toho, aby systémy umělé inteligence splňovaly aktualizované předpisy a normy.
Škálovatelnost etických postupů umělé inteligence
Škálování etických postupů umělé inteligence je náročné, zejména pro organizace, které nemají dostatečné zdroje nebo odborné znalosti. Školení odborníků na umělou inteligenci v oblasti etiky a používání technologií k automatizaci etických kontrol může pomoci efektivně škálovat odpovědné postupy.
Škodlivé používání umělé inteligence
Šíření nesprávných informací, neoprávněný dohled a diskriminační profilování jsou záležitosti, které vzbuzují vážné obavy. Řešení těchto rizik vyžaduje přísná regulační opatření, přísné etické pokyny a nepřetržitý lidský dohled.
Odpovědné případy použití umělé inteligence
Zdravotnictví: Zvýšení diagnostické přesnosti
Umělá inteligence může pomoci klinickým lékařům diagnostikovat nemoci přesněji z lékařských snímků. Zajištěním modelové spravedlnosti a transparentnosti může používání umělé inteligence vést ke spravedlivějším výsledkům v oblasti zdraví v různých demografických oblastech.
Finance: spravedlivá rozhodnutí o poskytování úvěrů
Aktivním monitorováním a úpravou algoritmů úvěrového bodování za účelem eliminace předpojatostí umělé inteligence mohou banky a úvěrové instituce poskytnout spravedlivější přístup k finančním produktům a snížit diskriminaci.
Maloobchod: personalizované zákaznické zkušenosti
Generativní umělá inteligence umožňuje maloobchodníkům vytvářet vysoce personalizovaný obsah a doporučení produktů. Tím, že budou obchodníci transparentní ohledně toho, jak tuto technologii používají, mohou budovat hlubší důvěru vůči spotřebitelům, což povede ke zvýšení loajality a prodeje.
Automobilový průmysl: Bezpečnější vozidla
Díky přísnému testování a dodržování etických standardů umělé inteligence se výrobci snaží snížit počet nehod a zlepšit bezpečnost silničního provozu.
Lidské zdroje: Bezbias-free nábor
Použitím algoritmů, které jsou pravidelně auditovány z hlediska spravedlnosti, mohou personální oddělení činit nezaujatější rozhodnutí o náboru, podporovat rozmanitost a inkluzi na pracovišti.
Typy odpovědné umělé inteligence
Kromě etické umělé inteligence a důvěryhodné umělé inteligence existuje několik dalších typů odpovědné umělé inteligence:
Udržitelná umělá inteligence se zaměřuje na vývoj technologií umělé inteligence způsobem šetrným k životnímu prostředí. To zahrnuje optimalizaci spotřeby energie systémů, používání ekologičtější infrastruktury a zohlednění dopadů životního cyklu nasazení umělé inteligence za účelem minimalizace uhlíkové stopy a dopadu na životní prostředí.
Cílem umělé inteligence vyhovující předpisům je zajistit, aby všechny operace a technologie umělé inteligence dodržovaly příslušné zákony a předpisy. Tento typ odpovědné umělé inteligence je klíčový ve vysoce regulovaných odvětvích, jako jsou finance a zdravotní péče, kde je dodržování právních norem stejně důležité jako technický výkon.
Umělá inteligence zaměřená na člověka upřednostňuje lidské hodnoty a blahobyt, zapojuje zúčastněné strany do vývojového procesu a zaměřuje se na technologie, které rozšiřují lidské bytosti, aniž by je nahradily.
Časté dotazy
Příručka SAP AI Ethics
Prohlubte své chápání odpovědných konceptů umělé inteligence, včetně transparentnosti, lidské agentury a modelové předpojatosti.