Vad är AI-etik?
AI-etik hänvisar till de principer som styr AI:s beteende när det gäller mänskliga värderingar. AI-etik hjälper till att se till att AI utvecklas och används på sätt som är fördelaktiga för samhället. Det omfattar ett brett spektrum av överväganden, bland annat rättvisa, öppenhet, ansvarsskyldighet, integritet, säkerhet och potentiella samhällseffekter.
Introduktion till AI-etik
AI-etik är en kraft för gott som bidrar till att mildra orättvisa fördomar, tar bort hinder för tillgänglighet och ökar kreativiteten, bland många andra fördelar. Eftersom organisationer i allt högre grad förlitar sig på AI för beslut som påverkar människoliv, är det viktigt att de anser att de komplexa etiska implikationerna beror på att missbruk av AI kan skada individer och samhället – och företagens bottenlinjer och rykte.
I den här artikeln ska vi utforska:
- Vanliga AI-etiska principer, termer och definitioner
- Skapa etiska AI-principer för en organisation
- Vem ansvarar för AI-etik?
- Implementera utbildning, styrning och tekniska processer inom AI-etik
- Användningsfall och implementeringar för etisk AI
- Några ledande auktoriteter inom AI-etik
Exempel på etiska AI-principer
Människors välmående står i centrum för alla diskussioner om AI:s etik. AI-system kan utformas för att prioritera moral och etik, men människor är ytterst ansvariga för att säkerställa etisk design och användning – och att ingripa när det behövs.
Det finns ingen enda, allmänt överenskommen uppsättning etiska AI-principer. Många organisationer och myndigheter samråder med experter inom etik, juridik och AI för att skapa sina vägledande principer. Dessa principer behandlar allmänt följande:
- Mänskligt välbefinnande och värdighet: AI-system ska alltid prioritera och säkerställa individens välbefinnande, säkerhet och värdighet, varken ersätta människor eller äventyra människors välfärd
- Mänsklig tillsyn: AI behöver mänsklig övervakning i varje utvecklings- och användningsskede – ibland kallat ”en människa i kretsloppet” – för att säkerställa att det yttersta etiska ansvaret vilar på en människa
- Att ta itu med snedvridningar och diskriminering: Designprocesserna bör prioritera rättvisa, jämlikhet och representation för att minska snedvridningar och diskriminering
- Transparens och förklarbarhet: Hur AI-modeller fattar specifika beslut och ger specifika resultat ska vara transparenta och förklarbara på ett tydligt språk
- Upprätthålla datasekretess och dataskydd: AI-system måste uppfylla de strängaste standarderna för dataintegritet och dataskydd med hjälp av robusta cybersäkerhetsmetoder för att undvika dataintrång och obehörig åtkomst
- Främja delaktighet och mångfald: AI-teknik måste återspegla och respektera det stora utbudet av mänskliga identiteter och erfarenheter
- Samhälle och ekonomi: AI bör bidra till samhälleliga framsteg och ekonomiskt välstånd för alla människor, utan att främja ojämlikhet eller illojal praxis
- Förbättrad digital kompetens och läs- och skrivkunnighet: AI-teknik bör sträva efter att vara tillgänglig och begriplig för alla, oavsett en persons digitala färdigheter
- Företagens hälsa: AI-affärsteknik bör påskynda processer, maximera effektiviteten och främja tillväxt
AI-etiska termer och definitioner
Som skärningspunkt mellan etik och högteknologi använder sig samtal om etisk AI ofta av ordförråd från båda områdena. Att förstå detta ordförråd är viktigt för att kunna diskutera AI-etik:
-
AI: Förmågan hos en maskin att utföra kognitiva funktioner associerar vi med mänskliga sinnen, såsom att uppfatta, resonera, lära och problemlösning. Det finns två huvudtyper av AI-system, och vissa system är en kombination av båda:
- Regelbaserad AI, även kallad expert AI, beter sig enligt en uppsättning fullt definierade regler som skapats av mänskliga experter – till exempel använder många e-handelsplattformar regelbaserad AI för att ge produktrekommendationer
- Learning-baserad AI löser problem och anpassar sin funktionalitet på egen hand, baserat på sin ursprungliga människa-designade konfigurations- och träningsdataset –generativa AI-verktyg är exempel på inlärningsbaserad AI
AI-etik: En uppsättning värderingar, principer och tekniker som använder allmänt accepterade standarder för rätt och fel för att vägleda moraliskt beteende vid utveckling, distribution, användning och försäljning av AI-teknik.
AI-modell: Ett matematiskt ramverk skapat av människor och tränat på data som gör det möjligt för AI-system att utföra vissa uppgifter genom att identifiera mönster, fatta beslut och förutsäga utfall. Vanliga användningsområden är bland annat bildigenkänning och språköversättning.
AI-system: En komplex struktur av algoritmer och modeller utformade för att efterlikna mänskligt resonemang och utföra uppgifter autonomt.
Byrån: Enskilda personers förmåga att agera självständigt och att göra fria val.
Bias: En böjelse eller fördom för eller mot en person eller grupp, särskilt på ett sätt som anses vara orättvist. Fördomar i träningsdata – som under- eller överrepresentation av data som hör till en viss grupp – kan få AI att agera på vinklade sätt.
Förklaring: Förmågan att svara på frågan, ”Vad gjorde maskinen för att nå sin utgång?” Förklarbarhet avser AI-systemets tekniska kontext, såsom dess mekanik, regler och algoritmer samt träningsdata.
Rättvisa: Opartisk och rättvis behandling eller beteende utan orättvis favoritism eller diskriminering.
Människa-i-slinga: Människors förmåga att ingripa i varje beslutscykel av ett AI-system.
Tolkning: Förmåga för människor att förstå den verkliga kontexten och effekten av ett AI-systems utdata, till exempel när AI används för att hjälpa till att fatta ett beslut om att godkänna eller avslå en låneansökan.
Stor språkmodell (LLM): En typ av maskininlärning som ofta används vid textigenkänning och genereringsuppgifter.
Maskininlärning: En delmängd av AI som ger system möjlighet att automatiskt lära sig, förbättra erfarenheten och anpassa sig till nya data utan att vara uttryckligen programmerade för att göra det.
Normativ: En central kontext av praktisk etik som handlar om vad människor och institutioner ”bör” eller ”borde” göra i särskilda situationer.
Transparens: När det gäller förklarbarhet är transparens förmågan att motivera hur och varför ett AI-system utvecklas, implementeras och används, och att göra den informationen synlig och begriplig för människor.
Så implementerar du principer för AI-etik
För organisationer finns det mer att använda AI etiskt än att bara anta etiska principer; dessa principer måste integreras i alla tekniska och operativa AI-processer. Även om integreringen av etik kan verka besvärlig för organisationer som snabbt använder AI, visar verkliga fall av skador orsakade av problem i AI-modelldesign och användning att det kan vara riskabelt och kostsamt att ignorera korrekt etik.
Vem ansvarar för AI-etik?
Det korta svaret: alla som är involverade i AI, inklusive företag, regeringar, konsumenter och medborgare.
Olika personers olika roller inom AI-etik
- Utvecklare och forskare spelar en avgörande roll för att skapa AI-system som prioriterar mänskliga agenturer och tillsyn, tar itu med partiskhet och diskriminering, och är transparenta och förklarbara.
- Beslutsfattare och tillsynsmyndigheter fastställer lagar och regler för att styra den etiska användningen av AI och skydda individers rättigheter.
- Företags- och branschledare ser till att deras organisationer antar etiska AI-principer så att de använder AI på ett sätt som bidrar positivt till samhället.
- Civilsamhällets organisationer förespråkar etisk användning av AI, spelar en roll i tillsynen och ger stöd till drabbade samhällen.
- Akademiska institutioner bidrar genom utbildning, forskning och utveckling av etiska riktlinjer.
- Slutanvändare och berörda användare, liksom konsumenter och medborgare, har en del i att se till att AI-system är förklarbara, tolkningsbara, rättvisa, transparenta och fördelaktiga för samhället.
Företagsledarnas roll inom AI-etik
Många företag inrättar kommittéer som leds av deras ledande ledare för att utforma sin AI-styrningspolicy. Till exempel har vi på SAP bildat en rådgivande panel och en styrgrupp för AI-etik, bestående av etik- och teknikexperter, för att integrera våra etiska AI-principer i våra produkter och verksamheter. Dessa principer prioriterar:
- Proportionalitet och att inte göra någon skada
- Säkerhet och trygghet
- Rättvisa och icke-diskriminering
- Hållbarhet
- Rätt till integritet och dataskydd
- Mänsklig tillsyn och beslutsamhet
- Öppenhet och förklarbarhet
- Ansvar och ansvarsskyldighet
- Medvetenhet och teknisk kompetens
- Flerpartsstyrning och adaptiv styrning och samarbete
Utformning av en styrgrupp för AI-etik
Att inrätta en styrgrupp är avgörande för att hantera en organisations förhållningssätt till AI-etik och ger ansvarsskyldighet och tillsyn på högsta nivå. Denna kommitté ser till att etiska överväganden vävs in i AI-utveckling och -distribution.
Bästa praxis för att bilda en styrgrupp för AI-etik
- Komposition och expertis: Inkludera en mångsidig blandning av intressenter med expertis inom AI, juridik och etik. Externa rådgivare kan erbjuda opartiska perspektiv.
- Definierar syfte och omfattning: Tydligt definiera kommitténs uppdrag och mål, med fokus på etisk AI-design, implementering och drift. Detta bör överensstämma med företagets värderingar, rättvisa, transparens och integritet.
- Definiera roller och ansvarsområden: Beskriv specifika roller för medlemmarna, till exempel utveckla AI-etiska policyer, ge råd om etiska frågor i AI-projekt och säkerställa efterlevnad av föreskrifter.
- Ange mål: Ange tydliga, mätbara mål som att genomföra en årlig etisk granskning av AI-projekt och erbjuda kvartalsvis etisk AI-utbildning.
- Skapa förfaranden: Upprätta operativa förfaranden, inklusive tidtabeller, dokumentationsstandarder och kommunikationsprotokoll för att upprätthålla transparens.
- Pågående utbildning och anpassning: Håll dig à jour med ny utveckling inom AI-teknik, etiska standarder och regelverk genom regelbunden utbildning och konferenser.
Skapa en AI-etisk policy
Att utveckla en AI-etisk policy är avgörande för att styra AI-initiativ inom en organisation. Styrgruppen är kritisk i denna process och använder sin mångsidiga expertis för att säkerställa att politiken följer lagar, standarder och bredare etiska principer.
Exempel på metod för att skapa en AI-etisk policy
-
Utarbeta den inledande policyn: Börja med att utarbeta en policy som speglar organisationens kärnvärden, juridiska krav och bästa praxis. Detta första utkast kommer att ligga till grund för ytterligare förbättringar.
-
Konsultation och synpunkter: Engagera med interna och externa intressenter, inklusive AI-utvecklare, företagsledare och etister, för att göra policyn heltäckande och representativ för flera perspektiv.
-
Integrering av tvärvetenskapliga insikter: Utnyttja kommittémedlemmarnas olika bakgrunder för att införliva insikter från teknik, etik, juridik och företag för att ta itu med de komplexa aspekterna av AI-etik.
-
Fastställande av fall med hög risk och rödlinjig användning: För att säkerställa tydlighet bör kommittén ange vilka AI-tillämpningar som utgör betydande risker eller anses vara oetiska och därför förbjudna. SAP:s styrkommitté kategoriserar till exempel följande som:
- Hög risk: Kategorin omfattar applikationer som kan vara skadliga på alla sätt, och omfattar applikationer relaterade till brottsbekämpning, migration och demokratiska processer – samt sådana som involverar personuppgifter, automatiserat beslutsfattande eller påverkar det sociala välbefinnandet. Dessa måste genomgå en grundlig bedömning av kommittén före utveckling, införande eller försäljning.
- Röd linje: Tillämpningar som möjliggör mänsklig övervakning, diskriminering, avanonymisering av uppgifter som leder till identifiering av individer eller grupper, eller de som manipulerar den allmänna opinionen eller underminerar demokratiska debatter är förbjudna. SAP anser att dessa användningar är mycket oetiska och förbjuder utveckling, implementering och försäljning av dem.
-
Översyn och översyn: Kontinuerlig översyn och översyn av politiken på grundval av återkoppling, så att den förblir relevant och praktisk för den verkliga världen.
-
Slutförande och godkännande: Lämna in den slutförda policyn för slutligt godkännande av beslutsfattare, såsom styrelsen, med stöd av en stark rekommendation från utskottet.
-
Genomförande och fortlöpande tillsyn: Kommittén bör övervaka politikens genomförande och regelbundet uppdatera den för att återspegla ny teknisk och etisk utveckling.
Upprätta en process för efterlevnadskontroll
Det är viktigt att utveckla effektiva processer för konformitetsgranskning för att säkerställa att AI-implementeringar följer organisationens policyer och föreskrifter för AI-etik. Dessa processer bidrar till att skapa förtroende hos användare och tillsynsmyndigheter och bidrar till att minska riskerna och upprätthålla etiska metoder i alla AI-projekt.
Typiska processer för efterlevnadskontroll
- Utveckla ett standardiserat granskningsramverk: Formulera ett omfattande ramverk som definierar procedurer för bedömning av AI-projekt mot etiska riktlinjer, juridiska standarder och operativa krav.
- Riskklassificering: Klassificera AI-projekt efter deras etiska och lagstadgade risker. Högriskprojekt, till exempel sådana som hanterar känsliga personuppgifter eller med betydande beslutseffekter, kräver en hög grad av granskning.
- Regelbundna revisioner och bedömningar: Utför regelbundna revisioner för att verifiera pågående efterlevnad, vilket innefattar både automatiserade kontroller och manuella granskningar av tvärvetenskapliga team.
- Intressenters medverkan: Engagera en rad olika intressenter i granskningsprocessen, inklusive etiktiker, juridiska experter, datavetare och slutanvändare, för att upptäcka potentiella risker och etiska dilemman.
- Dokumentation och transparens: Behåll detaljerade register över alla konformitetsaktiviteter och se till att de är tillgängliga och tydliga för både interna och externa revisioner
- Återkoppling och eskaleringsmekanismer: Genomföra tydliga förfaranden för rapportering och hantering av etiska problem och efterlevnadsfrågor
Teknisk implementering av AI-etik
Att integrera etiska överväganden i AI-utvecklingen innebär att anpassa nuvarande teknikpraxis för att säkerställa att system byggs och distribueras på ett ansvarsfullt sätt. Förutom att fastställa etiska AI-principer skapar organisationer ibland även ansvarsfulla AI-principer, som kan vara mer fokuserade på deras specifika bransch och tekniska användningsfall.
Centrala tekniska krav för etiska AI-system
Detektering och reducering av bior: Använd olika dataset och statistiska metoder för att upptäcka och korrigera fördomar i AI-modeller. Utför regelbundna revisioner för att övervaka partiskhet.
Transparens och förklaringsbarhet: Utveckla system som användare lätt kan förstå och verifiera, med metoder som funktionsviktspoäng, beslutsträd och modellagnostiska förklaringar för att förbättra transparensen.
Dataskydd: Säkerställ att data i AI-system hanteras säkert och följer sekretesslagar. System måste använda kryptering, anonymisering och säkra protokoll för att skydda dataintegriteten.
Robust och tillförlitlig design: AI-system måste vara hållbara och tillförlitliga under olika förhållanden, med omfattande tester och validering för att hantera oväntade scenarier effektivt.
Kontinuerlig övervakning och uppdatering: Upprätthåll löpande övervakning för att bedöma AI-prestanda och etisk efterlevnad, uppdatera system efter behov baserat på nya data eller ändrade förutsättningar.
Intressenters engagemang och återkoppling: Engagera intressenter, såsom slutanvändare, etiktiker och områdesexperter, i design- och utvecklingsprocesserna för att samla in feedback och säkerställa att systemet överensstämmer med etiska och operativa krav.
Att utbilda organisationen i AI-etik
Omfattande utbildning är avgörande för att säkerställa att medarbetare förstår AI-etik och kan arbeta ansvarsfullt med AI-teknik. Utbildningen bidrar också till att förbättra integriteten och effektiviteten hos organisationens AI-verktyg och -lösningar.
Viktiga komponenter i en effektiv AI-kursplan
- Omfattande kursplansutveckling: Använd en kursplan som tar upp AI-grunder, etiska överväganden, efterlevnadsfrågor och praktiska applikationer, skräddarsydda för olika organisationsroller från teknisk personal till verkställande ledning.
- Rollspecifika utbildningsmoduler: Tillhandahåll utbildningsmoduler anpassade efter olika avdelningars unika behov och ansvarsområden. Till exempel kan utvecklare fokusera på etiska kodningsmetoder, medan försäljnings- och marknadsföringsteam lär sig om AI:s implikationer i kundinteraktioner.
- Kontinuerlig inlärning och uppdateringar: AI utvecklas snabbt, så det är viktigt att hålla utbildningsprogrammen uppdaterade med den senaste utvecklingen och bästa praxis.
- Interaktiva och praktiska lärandeupplevelser: Använd fallstudier, simuleringar och workshops för att illustrera verkliga tillämpningar och etiska utmaningar för att stödja teoretisk kunskap med praktisk erfarenhet.
- Bedömning och certifiering: Genomför bedömningar för att mäta medarbetarnas förståelse och skicklighet i AI-etik och överväga att erbjuda certifiering för att känna igen och motivera ständiga förbättringar.
- Återkopplingsmekanismer: Inrätta återkopplingskanaler för anställda för att bidra till den pågående förfiningen av utbildningsprogram, så att de uppfyller organisationens föränderliga behov.
AI-etik använder fall för olika roller i organisationen
Alla i en organisation som arbetar med AI-drivna applikationer, eller med AI-svarsmotorer, bör vara försiktiga med risken för ai bias och arbeta ansvarsfullt. Exempel på AI-etiska användningsfall för olika roller eller avdelningar i företagsverksamheter är:
- Datavetare eller maskininlärningsingenjörer: I dessa roller rekommenderas att man införlivar metoder för detektering och begränsning av bias, säkerställer modellens förklarbarhet och förbättrar modellen. Det handlar om tekniker som rättvisemått och kontrafaktisk analys.
- Produktchefer eller affärsanalytiker: AI-etiska ansvarsområden kan variera från etiska riskbedömningar, prioritering av användarcentrerad design och utveckling av tydliga kommunikationsstrategier för att förklara AI-system för användare och intressenter. Detta innebär att man överväger potentiella samhällseffekter, användarbehov och bygger upp förtroende genom öppenhet.
- Juridisk avdelning: Kritiska användningsfall är efterlevnad av relevanta föreskrifter (t.ex. dataskyddslagar), hantering av juridiska risker och anseenderisk associerad med AI och utveckling av strategier för att minska skulder till följd av algoritmisk partiskhet eller oavsiktliga konsekvenser
- HR-proffs: HR-avdelningen ska arbeta med AI-drivna rekryteringsverktyg som är fria från partiskhet och följer antidiskrimineringslagar. Uppgifter innefattar revision av algoritmer, implementering av människa-in-the-loop-system och utbildning om etiska AI-rekryteringsmetoder.
Myndigheter för AI-etik
AI-etik är komplex, formad av framväxande regelverk, juridiska standarder, branschpraxis och tekniska framsteg. Organisationer måste hålla sig uppdaterade om policyändringar som kan påverka dem – och de bör samarbeta med relevanta intressenter för att fastställa vilka policyer som gäller för dem. Listan nedan är inte uttömmande, men ger en känsla av det spektrum av politiska resurser organisationer bör söka efter utifrån sin bransch och region.
Exempel på AI-etiska myndigheter och resurser
ACET Artificial Intelligence for Economic Policymaking-rapport: Denna forskningsstudie av African Center for Economic Transformation bedömer AI:s ekonomiska och etiska överväganden i syfte att informera inkluderande och hållbar ekonomisk, finansiell och industriell politik i hela Afrika.
AlgorithmWatch: En människorättsorganisation som förespråkar och utvecklar verktyg för att skapa och använda algoritmiska system som skyddar demokrati, rättsstatsprincipen, frihet, autonomi, rättvisa och jämlikhet.
ASEAN Guide on AI Governance and Ethics: En praktisk guide för medlemsstater i Sydostasiatiska nationers förbund att designa, utveckla och använda AI-teknik etiskt och produktivt.
Europeiska kommissionen AI Watch: Europeiska kommissionens gemensamma forskningscentrum ger vägledning för att skapa tillförlitliga AI-system, inklusive landsspecifika rapporter och instrumentpaneler för att hjälpa till att övervaka utvecklingen, spridningen och effekten av AI för Europa
NTIA AI Accoun-Report: Denna rapport från den nationella telekommunikations- och informationsförvaltningen föreslår frivilliga, reglerande och andra åtgärder för att bidra till att säkerställa lagliga och pålitliga AI-system i USA.
OECD:s AI-principer: Detta forum av länder och intressentgrupper arbetar för att forma pålitlig AI. Under 2019 underlättade det OECD:s AI-principer, den första mellanstatliga standarden för AI. Dessa principer låg också till grund för G20:s AI-principer.
Unescos rekommendation om etik för artificiell intelligens: Denna FN-byrås rekommendationsram antogs av 193 medlemsstater efter en tvåårig global samrådsprocess med experter och intressenter.
Slutsats
Sammanfattningsvis kräver etisk AI-utveckling och implementering en mångfacetterad strategi. Som organisation rekommenderas att etablera tydliga etiska principer, integrera dem i AI-utvecklingsprocesser och säkerställa kontinuerlig efterlevnad genom robusta styrnings- och utbildningsprogram. Genom att prioritera människocentrerade värderingar som rättvisa, transparens och ansvarsskyldighet kan företag utnyttja kraften i AI på ett ansvarsfullt sätt, driva innovation samtidigt som de minskar potentiella risker och ser till att dessa teknologier gynnar samhället som helhet.
SAP-produkt
Fler AI-etiska användningsfall och vägledning
Få fördjupad vägledning för implementering av etiska AI-metoder i SAP AI Ethics Handbook.