flex-height
text-black

Inženýři a vědci pracují na prototypu bioniky exoskeletonu

Co je etika umělé inteligence?

Etika AI odkazuje na principy, kterými se řídí chování AI z hlediska lidských hodnot. Etika umělé inteligence pomáhá zajistit, aby byla umělá inteligence rozvíjena a používána způsobem, který je prospěšný pro společnost. Zahrnuje širokou škálu úvah, včetně spravedlnosti, transparentnosti, odpovědnosti, soukromí, bezpečnosti a potenciálních společenských dopadů.

default

{}

default

{}

primary

default

{}

secondary

Úvod do etiky umělé inteligence

Představte si systém umělé inteligence, který předpovídá pravděpodobnost budoucího trestného chování a který používají soudci k určení délky trestů. Co se stane, když se tento systém nepřiměřeně zaměřuje na určité demografické skupiny?

Etika umělé inteligence je síla pro dobro, která pomáhá zmírňovat nespravedlivé předpojatosti, odstraňuje překážky přístupnosti a zvyšuje kreativitu, mezi mnoha dalšími výhodami. Vzhledem k tomu, že organizace stále více spoléhají na umělou inteligenci při rozhodnutích, která mají dopad na lidské životy, je důležité, aby zvážily složité etické důsledky, protože zneužití umělé inteligence může poškodit jednotlivce i společnost - a na hospodářské výsledky a pověst.

V tomto článku se podíváme na:

Příklady etických principů umělé inteligence

Pohoda lidí je v centru každé diskuse o etice AI. Zatímco systémy umělé inteligence mohou být navrženy tak, aby upřednostňovaly morálku a etiku, lidé jsou v konečném důsledku zodpovědní za zajištění etického návrhu a používání – a v případě potřeby zasáhnout.

Neexistuje žádný jediný, všeobecně dohodnutý soubor etických principů umělé inteligence. Mnoho organizací a vládních agentur konzultuje s odborníky na etiku, právo a umělou inteligenci, aby vytvořily své hlavní principy. Tyto zásady se obvykle týkají:

Etické pojmy a definice umělé inteligence

Jako průnik etiky a špičkových technologií konverzace o etické umělé inteligenci často používají slovní zásobu z obou oblastí. Pochopení tohoto slovníku je důležité pro schopnost diskutovat o etice umělé inteligence:

Etika umělé inteligence: Soubor hodnot, principů a technik, které využívají široce uznávané standardy práva a špatnosti k vedení morálního chování při vývoji, nasazení, používání a prodeji technologií umělé inteligence.

Model umělé inteligence: Matematický rámec vytvořený lidmi a trénovaný na datech, který umožňuje systémům umělé inteligence provádět určité úlohy identifikací vzorů, rozhodováním a predikcí výsledků. Mezi běžná použití patří mimo jiné rozpoznávání obrazu a překlad jazyka.

AI systém: Komplexní struktura algoritmů a modelů navržených tak, aby napodobovala lidské uvažování a prováděla úkoly autonomně.

Agentura: schopnost jednotlivců jednat nezávisle a svobodně se rozhodovat.

Předpojatost: Příklon nebo předsudek vůči osobě či skupině nebo vůči ní, zejména způsobem považovaným za nespravedlivý. Předpojatost v datech školení – jako je nedostatečné nebo nadměrné znázornění dat týkajících se určité skupiny – může způsobit, že umělá inteligence bude jednat neobjektivním způsobem.

Vysvětlitelnost: Schopnost odpovědět na otázku „Co stroj udělal, aby dosáhl svého výstupu?“ Vysvětlitelnost označuje technologický kontext systému umělé inteligence, jako je jeho mechanika, pravidla a algoritmy a data školení.

Spravedlnost: Nestranné a spravedlivé zacházení nebo chování bez nespravedlivého favoritismu nebo diskriminace.

Člověk ve smyčce: Schopnost lidských bytostí zasahovat do každého rozhodovacího cyklu systému umělé inteligence.

Interpretabilita: Schopnost lidí porozumět reálnému kontextu a dopadu výstupu systému umělé inteligence, například když se umělá inteligence používá k rozhodování o schválení nebo zamítnutí žádosti o půjčku.

Velký jazykový model (LLM): Typ strojového učení, který se často používá v úlohách rozpoznávání a generování textu.

Strojové učení: Podmnožina umělé inteligence, která poskytuje systémům schopnost automaticky se učit, zlepšovat zkušenosti a přizpůsobovat se novým datům, aniž by k tomu byly explicitně naprogramovány.

Normativní: Klíčový kontext praktické etiky týkající se toho, co lidé a instituce „by měli“ nebo „měli“ dělat v určitých situacích.

Transparentnost: V souvislosti s vysvětlitelností je transparentnost schopnost zdůvodnit, jak a proč je systém umělé inteligence vyvinut, implementován a používán, a zajistit, aby tyto informace byly pro lidi viditelné a srozumitelné.

Jak implementovat principy pro etiku umělé inteligence

Pro organizace platí, že umělou inteligenci lze používat více eticky než jen přijímat etické principy. Tyto principy musí být integrovány do všech technických a operačních procesů umělé inteligence. Zatímco integrace etiky se může zdát těžkopádná pro organizace, které rychle přijímají umělou inteligenci, reálné případy poškození způsobené problémy v návrzích a používání modelů umělé inteligence ukazují, že zanedbání správné etiky může být riskantní a nákladné.

Kdo je odpovědný za etiku umělé inteligence?

Krátká odpověď: každý, kdo se podílí na umělé inteligenci, včetně podniků, vlád, spotřebitelů a občanů.

Různé role různých lidí v etice umělé inteligence

Co potřebují lidské zainteresované strany, aby porozuměly infografice

Role obchodních lídrů v etice umělé inteligence

Mnoho podniků zakládá výbory vedené vysokými představiteli, aby utvářely své politiky řízení umělé inteligence. Například ve společnosti SAP jsme vytvořili poradní panel a řídící výbor pro etiku umělé inteligence, složený z odborníků na etiku a technologie, s cílem integrovat naše etické principy umělé inteligence do našich produktů a operací. Tyto zásady upřednostňují:

Vytvoření řídícího výboru pro etiku umělé inteligence

Zřízení řídicího výboru je zásadní pro řízení přístupu organizace k etice umělé inteligence a poskytuje odpovědnost a dohled na nejvyšší úrovni. Tento výbor zajišťuje, aby byly etické úvahy vtaženy do vývoje a nasazení umělé inteligence.

Osvědčené postupy pro vytvoření řídícího výboru pro etiku umělé inteligence

Vytvoření zásad etiky umělé inteligence

Vývoj zásad etiky umělé inteligence je nezbytný pro vedení iniciativ umělé inteligence v rámci organizace. Řídící výbor je v tomto procesu kritický a využívá své rozmanité odborné znalosti k zajištění toho, aby politika dodržovala zákony, normy a širší etické zásady.

Příklad přístupu k vytvoření zásad etiky umělé inteligence

Vývojový diagram &klasifikace rizika; procesu hodnocení

Stanovení procesu kontroly shody

Vývoj efektivních procesů kontroly shody je zásadní pro zajištění toho, aby nasazení umělé inteligence odpovídalo zásadám a předpisům organizace pro etiku umělé inteligence. Tyto procesy pomáhají budovat důvěru s uživateli a regulátory a slouží ke zmírnění rizik a dodržování etických postupů napříč projekty umělé inteligence.

Typické procesy kontroly shody

Technická implementace etických postupů umělé inteligence

Integrace etických úvah do vývoje umělé inteligence zahrnuje přizpůsobení současných technologických postupů tak, aby byly systémy vytvářeny a nasazovány odpovědně. Kromě zavedení etických principů umělé inteligence organizace někdy také vytvářejí odpovědné principy umělé inteligence, které mohou být více zaměřeny na jejich specifické odvětvové a technické případy použití.

Klíčové technické požadavky na etické systémy umělé inteligence

Detekce předpojatosti a zmírňování: Používejte různé datové sady a statistické metody k detekci a opravě předpojatostí v modelech umělé inteligence. Provádějte pravidelné audity za účelem monitorování předpojatosti.

Transparentnost a vysvětlitelnost: Vyvíjet systémy, které mohou uživatelé snadno pochopit a ověřit, pomocí metod, jako jsou skóre důležitosti funkcí, rozhodovací stromy a modelování agnostických vysvětlení pro zlepšení transparentnosti.

Ochrana a zabezpečení dat: Zajistěte bezpečnou správu dat v systémech umělé inteligence a dodržování zákonů o ochraně osobních údajů. Systémy musí používat šifrování, anonymizaci a zabezpečené protokoly k zajištění integrity dat.

Robustní a spolehlivá konstrukce: Systémy umělé inteligence musí být odolné a spolehlivé za různých podmínek, zahrnující rozsáhlé testování a validaci, aby bylo možné efektivně zvládnout neočekávané scénáře.

Průběžné monitorování a aktualizace: Udržujte průběžné monitorování za účelem posouzení výkonu umělé inteligence a etické shody s předpisy, podle potřeby aktualizujte systémy na základě nových dat nebo změn podmínek.

Zapojení zúčastněných stran a zpětná vazba: Zapojit zúčastněné strany, jako jsou koncoví uživatelé, etici a odborníci v oblasti, do procesů navrhování a vývoje, aby se shromáždila zpětná vazba a zajistilo, že systém bude v souladu s etickými a provozními požadavky.

Školení organizace v etice umělé inteligence

Komplexní školení je klíčové pro zajištění toho, aby zaměstnanci porozuměli etice umělé inteligence a mohli odpovědně pracovat s technologiemi umělé inteligence. Školení také slouží ke zvýšení integrity a efektivity nástrojů a řešení umělé inteligence organizace.

Klíčové komponenty efektivního školicího curricula umělé inteligence

Případy použití etiky umělé inteligence pro různé role v organizaci

Všichni v organizaci, která pracuje s aplikacemi využívajícími umělou inteligenci nebo s enginy pro odpovědi umělé inteligence, by měli být opatrní, aby riskovali nezaujatost a pracovali zodpovědně. Příklady případů použití etiky umělé inteligence pro různé role nebo oddělení ve firemních podnicích jsou:

Úřady pro etiku umělé inteligence

Etika umělé inteligence je složitá, formovaná vyvíjejícími se předpisy, právními normami, odvětvovými postupy a technologickým pokrokem. Organizace musí být informovány o změnách zásad, které by je mohly ovlivnit – a měly by spolupracovat s příslušnými zúčastněnými stranami na určení, které zásady se na ně vztahují. Níže uvedený seznam není vyčerpávající, ale poskytuje smysl pro škálu politických zdrojů, které by organizace měly hledat na základě svého odvětví a regionu.

Příklady etických autorit a zdrojů umělé inteligence

ACET Umělá inteligence pro tvorbu ekonomických politik: Tato výzkumná studie Afrického centra pro hospodářskou transformaci hodnotí ekonomické a etické aspekty umělé inteligence za účelem informování inkluzivní a udržitelné hospodářské, finanční a průmyslové politiky v celé Africe.

AlgorithmWatch: Organizace pro lidská práva, která obhajuje a vyvíjí nástroje pro vytváření a používání algoritmických systémů, které chrání demokracii, právní stát, svobodu, autonomii, spravedlnost a rovnost.

ASEAN Guide on AI Governance and Ethics: Praktický návod pro členské státy ve Sdružení národů jihovýchodní Asie pro návrh, vývoj a nasazení technologií umělé inteligence eticky a produktivně.

Evropská komise AI Watch: Společné výzkumné středisko Evropské komise poskytuje pokyny pro vytváření důvěryhodných systémů umělé inteligence, včetně zpráv a řídicích panelů specifických pro jednotlivé země, které pomáhají monitorovat vývoj, využívání a dopad umělé inteligence pro Evropu

Zpráva o odpovědnosti NTIA AI: Tato zpráva Národní správy telekomunikací a informací navrhuje dobrovolná, regulační a další opatření, která mají pomoci zajistit právní a důvěryhodné systémy umělé inteligence ve Spojených státech.

Zásady OECD pro umělou inteligenci: Toto fórum zemí a skupin zúčastněných stran pracuje na utváření důvěryhodné umělé inteligence. V roce 2019 usnadnila zásady OECD pro umělou inteligenci, první mezivládní standard pro umělou inteligenci. Tyto zásady také sloužily jako základ principů umělé inteligence G20.

Doporučení UNESCO o etice umělé inteligence: Rámec doporučení této agentury Organizace spojených národů přijal 193 členských států po dvouletém globálním procesu konzultací s odborníky a zúčastněnými stranami.

Závěr

Na závěr lze říci, že etický vývoj a nasazení umělé inteligence vyžadují mnohostranný přístup. Jako organizace se doporučuje zavést jasné etické principy, integrovat je do procesů vývoje umělé inteligence a zajistit průběžnou shodu prostřednictvím robustního řízení a školicích programů. Tím, že podniky upřednostňují hodnoty zaměřené na člověka, jako je spravedlnost, transparentnost a odpovědnost, mohou zodpovědně využívat sílu umělé inteligence, podněcovat inovace a zároveň zmírňovat potenciální rizika a zajistit, aby tyto technologie byly ku prospěchu společnosti jako celku.

Přečíst si více