flex-height
text-black

Ingenjörer och forskare arbetar med en bionics exoskelettprototyp

Vad är AI-etik?

AI-etik hänvisar till de principer som styr AI:s beteende när det gäller mänskliga värderingar. AI-etik hjälper till att se till att AI utvecklas och används på sätt som är fördelaktiga för samhället. Det omfattar ett brett spektrum av överväganden, bland annat rättvisa, öppenhet, ansvarsskyldighet, integritet, säkerhet och potentiella samhällseffekter.

Introduktion till AI-etik

Föreställ dig ett AI-system som förutspår sannolikheten för framtida kriminellt beteende och används av domare för att bestämma strafflängder. Vad händer om detta system är oproportionerligt inriktat på vissa demografiska grupper?

AI-etik är en kraft för gott som bidrar till att mildra orättvisa fördomar, tar bort hinder för tillgänglighet och ökar kreativiteten, bland många andra fördelar. Eftersom organisationer i allt högre grad förlitar sig på AI för beslut som påverkar människoliv, är det viktigt att de anser att de komplexa etiska implikationerna beror på att missbruk av AI kan skada individer och samhället – och företagens bottenlinjer och rykte.

I den här artikeln ska vi utforska:

Exempel på etiska AI-principer

Människors välmående står i centrum för alla diskussioner om AI:s etik. AI-system kan utformas för att prioritera moral och etik, men människor är ytterst ansvariga för att säkerställa etisk design och användning – och att ingripa när det behövs.

Det finns ingen enda, allmänt överenskommen uppsättning etiska AI-principer. Många organisationer och myndigheter samråder med experter inom etik, juridik och AI för att skapa sina vägledande principer. Dessa principer behandlar allmänt följande:

AI-etiska termer och definitioner

Som skärningspunkt mellan etik och högteknologi använder sig samtal om etisk AI ofta av ordförråd från båda områdena. Att förstå detta ordförråd är viktigt för att kunna diskutera AI-etik:

AI-etik: En uppsättning värderingar, principer och tekniker som använder allmänt accepterade standarder för rätt och fel för att vägleda moraliskt beteende vid utveckling, distribution, användning och försäljning av AI-teknik.

AI-modell: Ett matematiskt ramverk skapat av människor och tränat på data som gör det möjligt för AI-system att utföra vissa uppgifter genom att identifiera mönster, fatta beslut och förutsäga utfall. Vanliga användningsområden är bland annat bildigenkänning och språköversättning.

AI-system: En komplex struktur av algoritmer och modeller utformade för att efterlikna mänskligt resonemang och utföra uppgifter autonomt.

Byrån: Enskilda personers förmåga att agera självständigt och att göra fria val.

Bias: En böjelse eller fördom för eller mot en person eller grupp, särskilt på ett sätt som anses vara orättvist. Fördomar i träningsdata – som under- eller överrepresentation av data som hör till en viss grupp – kan få AI att agera på vinklade sätt.

Förklaring: Förmågan att svara på frågan, ”Vad gjorde maskinen för att nå sin utgång?” Förklarbarhet avser AI-systemets tekniska kontext, såsom dess mekanik, regler och algoritmer samt träningsdata.

Rättvisa: Opartisk och rättvis behandling eller beteende utan orättvis favoritism eller diskriminering.

Människa-i-slinga: Människors förmåga att ingripa i varje beslutscykel av ett AI-system.

Tolkning: Förmåga för människor att förstå den verkliga kontexten och effekten av ett AI-systems utdata, till exempel när AI används för att hjälpa till att fatta ett beslut om att godkänna eller avslå en låneansökan.

Stor språkmodell (LLM): En typ av maskininlärning som ofta används vid textigenkänning och genereringsuppgifter.

Maskininlärning: En delmängd av AI som ger system möjlighet att automatiskt lära sig, förbättra erfarenheten och anpassa sig till nya data utan att vara uttryckligen programmerade för att göra det.

Normativ: En central kontext av praktisk etik som handlar om vad människor och institutioner ”bör” eller ”borde” göra i särskilda situationer.

Transparens: När det gäller förklarbarhet är transparens förmågan att motivera hur och varför ett AI-system utvecklas, implementeras och används, och att göra den informationen synlig och begriplig för människor.

Så implementerar du principer för AI-etik

För organisationer finns det mer att använda AI etiskt än att bara anta etiska principer; dessa principer måste integreras i alla tekniska och operativa AI-processer. Även om integreringen av etik kan verka besvärlig för organisationer som snabbt använder AI, visar verkliga fall av skador orsakade av problem i AI-modelldesign och användning att det kan vara riskabelt och kostsamt att ignorera korrekt etik.

Vem ansvarar för AI-etik?

Det korta svaret: alla som är involverade i AI, inklusive företag, regeringar, konsumenter och medborgare.

Olika personers olika roller inom AI-etik

Vad mänskliga intressenter behöver för att förstå infografik

Företagsledarnas roll inom AI-etik

Många företag inrättar kommittéer som leds av deras ledande ledare för att utforma sin AI-styrningspolicy. Till exempel har vi på SAP bildat en rådgivande panel och en styrgrupp för AI-etik, bestående av etik- och teknikexperter, för att integrera våra etiska AI-principer i våra produkter och verksamheter. Dessa principer prioriterar:

Utformning av en styrgrupp för AI-etik

Att inrätta en styrgrupp är avgörande för att hantera en organisations förhållningssätt till AI-etik och ger ansvarsskyldighet och tillsyn på högsta nivå. Denna kommitté ser till att etiska överväganden vävs in i AI-utveckling och -distribution.

Bästa praxis för att bilda en styrgrupp för AI-etik

Skapa en AI-etisk policy

Att utveckla en AI-etisk policy är avgörande för att styra AI-initiativ inom en organisation. Styrgruppen är kritisk i denna process och använder sin mångsidiga expertis för att säkerställa att politiken följer lagar, standarder och bredare etiska principer.

Exempel på metod för att skapa en AI-etisk policy

Riskklassificering & flödesdiagram för bedömningsprocess

Upprätta en process för efterlevnadskontroll

Det är viktigt att utveckla effektiva processer för konformitetsgranskning för att säkerställa att AI-implementeringar följer organisationens policyer och föreskrifter för AI-etik. Dessa processer bidrar till att skapa förtroende hos användare och tillsynsmyndigheter och bidrar till att minska riskerna och upprätthålla etiska metoder i alla AI-projekt.

Typiska processer för efterlevnadskontroll

Teknisk implementering av AI-etik

Att integrera etiska överväganden i AI-utvecklingen innebär att anpassa nuvarande teknikpraxis för att säkerställa att system byggs och distribueras på ett ansvarsfullt sätt. Förutom att fastställa etiska AI-principer skapar organisationer ibland även ansvarsfulla AI-principer, som kan vara mer fokuserade på deras specifika bransch och tekniska användningsfall.

Centrala tekniska krav för etiska AI-system

Detektering och reducering av bior: Använd olika dataset och statistiska metoder för att upptäcka och korrigera fördomar i AI-modeller. Utför regelbundna revisioner för att övervaka partiskhet.

Transparens och förklaringsbarhet: Utveckla system som användare lätt kan förstå och verifiera, med metoder som funktionsviktspoäng, beslutsträd och modellagnostiska förklaringar för att förbättra transparensen.

Dataskydd: Säkerställ att data i AI-system hanteras säkert och följer sekretesslagar. System måste använda kryptering, anonymisering och säkra protokoll för att skydda dataintegriteten.

Robust och tillförlitlig design: AI-system måste vara hållbara och tillförlitliga under olika förhållanden, med omfattande tester och validering för att hantera oväntade scenarier effektivt.

Kontinuerlig övervakning och uppdatering: Upprätthåll löpande övervakning för att bedöma AI-prestanda och etisk efterlevnad, uppdatera system efter behov baserat på nya data eller ändrade förutsättningar.

Intressenters engagemang och återkoppling: Engagera intressenter, såsom slutanvändare, etiktiker och områdesexperter, i design- och utvecklingsprocesserna för att samla in feedback och säkerställa att systemet överensstämmer med etiska och operativa krav.

Att utbilda organisationen i AI-etik

Omfattande utbildning är avgörande för att säkerställa att medarbetare förstår AI-etik och kan arbeta ansvarsfullt med AI-teknik. Utbildningen bidrar också till att förbättra integriteten och effektiviteten hos organisationens AI-verktyg och -lösningar.

Viktiga komponenter i en effektiv AI-kursplan

AI-etik använder fall för olika roller i organisationen

Alla i en organisation som arbetar med AI-drivna applikationer, eller med AI-svarsmotorer, bör vara försiktiga med risken för ai bias och arbeta ansvarsfullt. Exempel på AI-etiska användningsfall för olika roller eller avdelningar i företagsverksamheter är:

Myndigheter för AI-etik

AI-etik är komplex, formad av framväxande regelverk, juridiska standarder, branschpraxis och tekniska framsteg. Organisationer måste hålla sig uppdaterade om policyändringar som kan påverka dem – och de bör samarbeta med relevanta intressenter för att fastställa vilka policyer som gäller för dem. Listan nedan är inte uttömmande, men ger en känsla av det spektrum av politiska resurser organisationer bör söka efter utifrån sin bransch och region.

Exempel på AI-etiska myndigheter och resurser

ACET Artificial Intelligence for Economic Policymaking-rapport: Denna forskningsstudie av African Center for Economic Transformation bedömer AI:s ekonomiska och etiska överväganden i syfte att informera inkluderande och hållbar ekonomisk, finansiell och industriell politik i hela Afrika.

AlgorithmWatch: En människorättsorganisation som förespråkar och utvecklar verktyg för att skapa och använda algoritmiska system som skyddar demokrati, rättsstatsprincipen, frihet, autonomi, rättvisa och jämlikhet.

ASEAN Guide on AI Governance and Ethics: En praktisk guide för medlemsstater i Sydostasiatiska nationers förbund att designa, utveckla och använda AI-teknik etiskt och produktivt.

Europeiska kommissionen AI Watch: Europeiska kommissionens gemensamma forskningscentrum ger vägledning för att skapa tillförlitliga AI-system, inklusive landsspecifika rapporter och instrumentpaneler för att hjälpa till att övervaka utvecklingen, spridningen och effekten av AI för Europa

NTIA AI Accoun-Report: Denna rapport från den nationella telekommunikations- och informationsförvaltningen föreslår frivilliga, reglerande och andra åtgärder för att bidra till att säkerställa lagliga och pålitliga AI-system i USA.

OECD:s AI-principer: Detta forum av länder och intressentgrupper arbetar för att forma pålitlig AI. Under 2019 underlättade det OECD:s AI-principer, den första mellanstatliga standarden för AI. Dessa principer låg också till grund för G20:s AI-principer.

Unescos rekommendation om etik för artificiell intelligens: Denna FN-byrås rekommendationsram antogs av 193 medlemsstater efter en tvåårig global samrådsprocess med experter och intressenter.

Slutsats

Sammanfattningsvis kräver etisk AI-utveckling och implementering en mångfacetterad strategi. Som organisation rekommenderas att etablera tydliga etiska principer, integrera dem i AI-utvecklingsprocesser och säkerställa kontinuerlig efterlevnad genom robusta styrnings- och utbildningsprogram. Genom att prioritera människocentrerade värderingar som rättvisa, transparens och ansvarsskyldighet kan företag utnyttja kraften i AI på ett ansvarsfullt sätt, driva innovation samtidigt som de minskar potentiella risker och ser till att dessa teknologier gynnar samhället som helhet.

Läs mer