flex-height
text-black

Žena se dívá na více obrazovek počítače a sleduje zapojení uživatelů pomocí umělé inteligence

Co je odpovědná umělá inteligence?

Odpovědná umělá inteligence označuje vývoj, nasazení a používání systémů umělé inteligence (AI) způsoby, které jsou etické, transparentní a odpovědné. Jeho cílem je zajistit, aby technologie umělé inteligence byly v souladu s lidskými hodnotami, respektovaly základní práva a byly navrženy tak, aby podporovaly spravedlnost, bezpečnost a blahobyt jednotlivců a společnosti.

Definice odpovědné umělé inteligence

Odpovědná umělá inteligence je praxe používání umělé inteligence způsobem, který zdůrazňuje lidský dohled a společenský blahobyt. Jde o zajištění toho, aby byly modely, datové sady a aplikace umělé inteligence vyvíjeny a nasazovány eticky a právně, aniž by došlo k úmyslnému poškození nebo zachování předpojatostí. Je to důležité, protože zneužití umělé inteligence nebo její neopatrné používání může poškodit uživatele, dotčené osoby, subjekty údajů, společnost a podniky.

Co je odpovědná umělá inteligence vs. důvěryhodná umělá inteligence vs. etická umělá inteligence?

Pojmy odpovědná umělá inteligence, důvěryhodná umělá inteligence a etická umělá inteligence spolu úzce souvisejí, ale existují některé klíčové rozdíly:

Vždy musíme mít na paměti, že protože AI není lidská, je neschopná mít lidské rysy odpovědnosti, důvěryhodnosti nebo etiky. Proto je důležité tyto pojmy přisuzovat lidem, kteří tuto technologii vytvářejí nebo používají, a ne samotné technologii.

Jak funguje odpovědná umělá inteligence

Odpovědná umělá inteligence může fungovat z hlediska lidských a technologických aspektů:

Skupina lidí, kteří spolupracují v konferenční místnosti

Zavedení formalizovaných principů odpovědné umělé inteligence je dobrý způsob, jak sladit každého v organizaci se sdílenou vizí odpovědné umělé inteligence. Zavedení principů je však jen začátek: organizace musí také implementovat efektivní řízení umělé inteligence, školení a technické procesy, aby zásady uvedla do praxe.

Principy odpovědné umělé inteligence se v jednotlivých organizacích liší. Například společnosti poskytující finanční služby mohou klást větší důraz na spravedlnost a nediskriminaci, zatímco společnosti provozující sociální média by se mohly více zaměřit na transparentnost nebo soukromí. Zde je příklad principů shrnutých z etických pokynů Evropské komise pro vytváření důvěryhodných systémů umělé inteligence:

Příklad odpovědných principů umělé inteligence

Lidská agentura a dohled: Umělá inteligence by měla rozšiřovat lidské rozhodování, prosazovat lidská práva a mít mechanismy pro lidský dohled.

Technická robustnost a bezpečnost: Systémy umělé inteligence by měly být bezpečné, odolné, bezpečné, přesné a spolehlivé s pohotovostním plánem, aby se předešlo neúmyslným škodám.

Ochrana soukromí a správa údajů: Systémy by měly plně respektovat soukromí a regulovat kvalitu, soukromí a legitimní přístup k údajům.

Transparentnost: Systémy musí být vysledovatelné a transparentní. Měly by být jasně označeny jako umělá inteligence a jejich schopnosti a omezení by měly být účinně sdělovány.

Rozmanitost, nediskriminace a spravedlnost: umělá inteligence by se měla vyvarovat prosazování předpojatosti, měla by podporovat rozmanitost, zajistit rovnost přístupnosti a zapojit zúčastněné strany do procesu rozvoje.

Společenský a environmentální blahobyt: systémy umělé inteligence by měly být přínosem pro všechny lidské bytosti, včetně budoucích generací. Musí být udržitelné a šetrné k životnímu prostředí a jejich společenský dopad by měl být pečlivě zvážen.

Odpovědnost: Měly by být zavedeny mechanismy, které zajistí odpovědnost za systémy umělé inteligence a jejich výsledky. Měly by být zajištěny audity a přístupnost.

Odpovědné postupy vývoje umělé inteligence

Vývojáři a výzkumníci, kteří vytvářejí nebo implementují systémy umělé inteligence, se musí řídit důvěryhodnými technickými osvědčenými postupy umělé inteligence a průběžně posuzovat dodržování zásad umělé inteligence ve svých organizacích. Zde jsou některé běžné postupy:

Posouzení dat trénování modelu

Mít různé datové sady pomáhá reprezentovat různé kohorty, zlepšovat robustnost a inkluzivnost systému umělé inteligence. Porozumění datům, která se používají k trénování modelů, je nezbytné pro odhalení nebo zmírnění problémů, jako je předpojatost umělé inteligence.

Analýza příčin

Pochopení toho, jak fungují vztahy příčina-účinek v modelech umělé inteligence, může pomoci při etickém rozhodování o tom, jak je nasadit, nebo zda by měly být vůbec nasazeny. Tato analýza činí prediktivní modely robustnějšími odhalením interakcí mezi různými proměnnými.

Analýza vzájemných faktů

Jedná se o proces zlepšování férovosti modelu a rozhodování pomocí "what-if" dotazů k odhalení předpojatostí a logických problémů umělé inteligence. Funguje tak, že se modelu ptá, jak by se jeho rozhodnutí změnila, kdyby byl vstup, například údaje o osobě nebo situaci, odlišný.

Spravedlnost ve strojovém učení

Odstranění předpojatosti umělé inteligence je zásadní pro zajištění spravedlivého zacházení se systémy s různými skupinami nebo jednotlivci. To se provádí identifikací nevyváženého zastoupení nebo nespravedlivého zacházení s daty a algoritmy pro trénování strojového učení a typicky má tři fáze:

Posouzení chyby modelu

Vyhodnocení a oprava chyb v předpovědích modelů je kritická pro zamezení riskantním nebo trapným výsledkům. Mezi běžné metody hodnocení chyb patří matice zmatení, přesnost, odvolání, skóre F1 a křivka ROC.

Interpretovatelnost modelu

Pro podporu důvěry a transparentnosti s uživateli a regulačními orgány musí být vývojáři schopni interpretovat a vysvětlovat, proč jejich modely činí konkrétní rozhodnutí a demonstrovat určité chování. Některé běžně používané techniky interpretace:

dalekohledy

Příručka SAP AI Ethics

Tento hluboký úvod vám pomůže aplikovat zásady SAP Global AI Ethics na vaši každodenní práci a dosáhnout tak odpovědné umělé inteligence.

Prozkoumejte příručku

Proč je odpovědná umělá inteligence důležitá?

Umělá inteligence má hluboký dopad na společnost, ovlivňuje to, jak pracujeme a jak interagujeme. Odpovědná umělá inteligence může být katalyzátorem inovací tím, že podporuje nové přístupy k řešení problémů a k vývoji produktů na prvním místě. Neodpovědné používání umělé inteligence však představuje významná rizika, jako je zhoršení nerovností a generování škodlivého obsahu. Dodržováním odpovědných principů a postupů umělé inteligence mohou organizace zajistit, aby jejich systémy umělé inteligence byly vyvíjeny a používány způsobem, který je etický, odpovědný a prospěšný všem zúčastněným stranám – jde o to být zodpovědný.

Etické požadavky pro podniky a vlády

Všechny organizace a jednotlivci musí při využívání umělé inteligence dodržovat vysoké etické standardy. Kromě plnění právních požadavků musí podniky a vlády ve svých snahách o umělou inteligenci také upřednostňovat ochranu osobních údajů, transparentnost a spravedlnost.

Společenská očekávání ohledně používání etických technologií

Poptávka technologických společností po odpovědnosti a transparentnosti roste s tím, jak se umělá inteligence stále více používá. Společnost očekává, že systémy umělé inteligence budou navrženy tak, aby respektovaly lidská práva, přijímaly rozmanitost a upřednostňovaly veřejné blaho.

Inženýr pracující na robotu

Výhody odpovědné umělé inteligence

Vzhledem k tomu, že organizace urychlují přijetí umělé inteligence, je přirozené, že někteří mohou odpovědnou umělou inteligenci vnímat jako rychlostní otřes – nebo jako něco, co je třeba implementovat později. Ale stanovení hlavních zásad před zahájením velkých projektů umělé inteligence je zásadní pro to, aby pomohlo předcházet technologickým chybám, škodám na lidech a poškození pověsti.

Konkurenční výhoda

Organizace se mohou postavit jako lídři v etických inovacích a přilákat zákazníky, kteří upřednostňují etické hodnoty ve svých nákupních rozhodnutích. Kromě efektivity a inovačních výhod umělé inteligence umožňuje odpovědné používání podnikům implementovat umělou inteligenci s menším rizikem než konkurenti, kteří ji nemají.

Úspory nákladů a efektivita

Proaktivní řešení předpojatostí umělé inteligence a zajištění přesnosti dat modelu může pomoci předcházet škodám lidí, nákladným chybám a zvyšovat efektivitu. Také transparentní a vysvětlitelné modely umělé inteligence jsou obvykle přesnější než ty, které nejsou.

Vylepšená důvěra značky

Otevřená komunikace o tom, jak jsou systémy umělé inteligence navrženy, nasazeny a řízeny, prokazuje závazek k etickým hodnotám a blahobytu zákazníků. To může zvýšit vnímání značky, loajalitu zákazníků a pomoci budovat důvěru se zákazníky a partnery.

Lepší rozhodování

Identifikací a zmírněním předpojatostí v datech a algoritmech mohou mít organizace větší jistotu, že přehledy a doporučení řízené umělou inteligencí jsou přesné, spravedlivé a v souladu s etickými standardy. Tato výhoda platí pro různé podnikové funkce, včetně vývoje produktů, služeb zákazníkům a strategického plánování.

Kompenzace rizika

Případy zkreslení umělé inteligence, narušení dat nebo neetického nasazení mohou poškodit pověst organizace a vést k nákladným soudním sporům. Dodržování zásad odpovědné umělé inteligence může pomoci vyhnout se těmto rizikům.

Odpovědné výzvy umělé inteligence

Vytvoření souboru odpovědných principů umělé inteligence je jen prvním krokem k zavedení nezbytného přístupu a operačního přístupu k odpovědnému vytváření a nasazování umělé inteligence. Zde jsou některé výzvy odpovědné umělé inteligence:

Předpojatost umělé inteligence: Identifikace a zmírňování

Systémy umělé inteligence mohou reflektovat nebo zesílit stávající předpojatosti ve svých školicích datech, což může vést k nespravedlivým výsledkům v žádostech, jako je nábor zaměstnání nebo schvalování půjček. Pro zmírnění těchto předpojatostí musí organizace zajistit, aby jejich datové soubory byly různorodé, provádět pravidelné audity a používat algoritmy zmírňující zkreslení.

Řízení umělé inteligence: Zajištění etické shody

Bez zavedeného robustního rámce řízení umělé inteligence mohou organizace čelit problémům s ochranou soukromí, zabezpečením a kontrolou. Zavedení jasných politik, přijetí transparentnosti a zapojení zúčastněných stran je nezbytné pro zachování souladu a odpovědnosti v systémech umělé inteligence.

Dodržování předpisů a standardizace

Rychlý vývoj umělé inteligence překonal mnoho regulačních rámců a vytvořil mezeru, která by mohla vést k etickému porušování. Adaptivní právní rámce a mezinárodní spolupráce jsou nezbytné k zajištění toho, aby systémy umělé inteligence splňovaly aktualizované předpisy a normy.

Škálovatelnost etických postupů umělé inteligence

Škálování etických postupů umělé inteligence je náročné, zejména pro organizace, které nemají dostatečné zdroje nebo odborné znalosti. Školení odborníků na umělou inteligenci v oblasti etiky a používání technologií k automatizaci etických kontrol může pomoci efektivně škálovat odpovědné postupy.

Škodlivé používání umělé inteligence

Šíření nesprávných informací, neoprávněný dohled a diskriminační profilování jsou záležitosti, které vzbuzují vážné obavy. Řešení těchto rizik vyžaduje přísná regulační opatření, přísné etické pokyny a nepřetržitý lidský dohled.

Odpovědné případy použití umělé inteligence

Zdravotnictví: Zvýšení diagnostické přesnosti

Umělá inteligence může pomoci klinickým lékařům diagnostikovat nemoci přesněji z lékařských snímků. Zajištěním modelové spravedlnosti a transparentnosti může používání umělé inteligence vést ke spravedlivějším výsledkům v oblasti zdraví v různých demografických oblastech.

Finance: spravedlivá rozhodnutí o poskytování úvěrů

Aktivním monitorováním a úpravou algoritmů úvěrového bodování za účelem eliminace předpojatostí umělé inteligence mohou banky a úvěrové instituce poskytnout spravedlivější přístup k finančním produktům a snížit diskriminaci.

Maloobchod: personalizované zákaznické zkušenosti

Generativní umělá inteligence umožňuje maloobchodníkům vytvářet vysoce personalizovaný obsah a doporučení produktů. Tím, že budou obchodníci transparentní ohledně toho, jak tuto technologii používají, mohou budovat hlubší důvěru vůči spotřebitelům, což povede ke zvýšení loajality a prodeje.

Automobilový průmysl: Bezpečnější vozidla

Díky přísnému testování a dodržování etických standardů umělé inteligence se výrobci snaží snížit počet nehod a zlepšit bezpečnost silničního provozu.

Lidské zdroje: Bezbias-free nábor

Použitím algoritmů, které jsou pravidelně auditovány z hlediska spravedlnosti, mohou personální oddělení činit nezaujatější rozhodnutí o náboru, podporovat rozmanitost a inkluzi na pracovišti.

Typy odpovědné umělé inteligence

Kromě etické umělé inteligence a důvěryhodné umělé inteligence existuje několik dalších typů odpovědné umělé inteligence:

Udržitelná umělá inteligence se zaměřuje na vývoj technologií umělé inteligence způsobem šetrným k životnímu prostředí. To zahrnuje optimalizaci spotřeby energie systémů, používání ekologičtější infrastruktury a zohlednění dopadů životního cyklu nasazení umělé inteligence za účelem minimalizace uhlíkové stopy a dopadu na životní prostředí.

Cílem umělé inteligence vyhovující předpisům je zajistit, aby všechny operace a technologie umělé inteligence dodržovaly příslušné zákony a předpisy. Tento typ odpovědné umělé inteligence je klíčový ve vysoce regulovaných odvětvích, jako jsou finance a zdravotní péče, kde je dodržování právních norem stejně důležité jako technický výkon.

Umělá inteligence zaměřená na člověka upřednostňuje lidské hodnoty a blahobyt, zapojuje zúčastněné strany do vývojového procesu a zaměřuje se na technologie, které rozšiřují lidské bytosti, aniž by je nahradily.

Časté dotazy

Co je řízení umělé inteligence?
Řízení umělé inteligence je rámec, který řídí, jak jsou technologie umělé inteligence zkoumány, vyvíjeny, implementovány a monitorovány, aby bylo zajištěno, že jsou v souladu s etickými normami, zákony a předpisy.
Co je to předpojatost umělé inteligence?
Předpojatost umělé inteligence označuje systematické a nespravedlivé nesrovnalosti, které vznikají v datech nebo algoritmických procesech systémů umělé inteligence, které často vedou k předsudkům vůči určitým skupinám nebo jednotlivcům.
Další informace o rezonibilní umělé inteligenci
Pomocí příručky SAP AI Ethics Handbook prohloubíte své porozumění odpovědným koncepcím umělé inteligence, včetně transparentnosti, lidské agentury a modelové předpojatosti.
Jaký je rozdíl mezi odpovědnou umělou inteligencí a vysvětlitelnou umělou inteligencí?
Vysvětlitelná umělá inteligence se zaměřuje na pochopení toho, jak se systémy umělé inteligence rozhodují, zatímco Odpovědná umělá inteligence je širší rámec. Odpovědná umělá inteligence zajišťuje, že systémy umělé inteligence jsou spravedlivé, transparentní, odpovědné, robustní a zachovávají soukromí. Vysvětlitelná umělá inteligence je důležitou komponentou odpovědné umělé inteligence, protože pomáhá zajistit, aby byly systémy umělé inteligence srozumitelné a důvěryhodné.
dalekohledy

Příručka SAP AI Ethics

Prohlubte své chápání odpovědných konceptů umělé inteligence, včetně transparentnosti, lidské agentury a modelové předpojatosti.

Získejte příručku