Hvad er AI-etik?
AI-etik henviser til de principper, der styrer AI's adfærd i form af menneskelige værdier. AI-etik er med til at sikre, at AI udvikles og bruges på måder, der er gavnlige for samfundet. Den omfatter en bred vifte af overvejelser, herunder rimelighed, gennemsigtighed, ansvarlighed, privatlivets fred, sikkerhed og de potentielle samfundsmæssige virkninger.
Introduktion til AI-etik
AI-etik er en god kraft, der hjælper med at afbøde urimelige fordomme, fjerner barrierer for tilgængelighed og øger kreativiteten blandt mange andre fordele. Da organisationer i stigende grad er afhængige af AI til beslutninger, der påvirker menneskeliv, er det afgørende, at de overvejer de komplekse etiske implikationer, fordi misbrug af AI kan forårsage skade på enkeltpersoner og samfund – og på virksomhedernes bundlinjer og omdømme.
I denne artikel vil vi undersøge:
- Fælles AI-etiske principper, udtryk og definitioner
- Oprettelse af etiske AI-principper for en organisation
- Hvem er ansvarlig for AI-etik
- Implementering af uddannelse i AI-etik, governance og tekniske processer
- Etiske AI-anvendelseseksempler og -implementeringer
- Nogle førende myndigheder om etik af AI
Eksempler på etiske AI-principper
Folks trivsel er i centrum for enhver diskussion om etikken i AI. Mens AI-systemer kan designes til at prioritere moral og etik, er mennesker i sidste ende ansvarlige for at sikre etisk design og brug – og for at gribe ind, når det er nødvendigt.
Der er ikke noget enkelt sæt af etiske AI-principper, som alle er enige om. Mange organisationer og regeringsorganer rådfører sig med eksperter inden for etik, lov og AI for at skabe deres vejledende principper. Disse principper vedrører almindeligvis:
- Menneskeligt velvære og værdighed: AI-systemer bør altid prioritere og sikre den enkeltes trivsel, sikkerhed og værdighed, hverken erstatte mennesker eller kompromittere menneskers velfærd
- Menneskeligt tilsyn: AI har brug for menneskelig overvågning på alle udviklings- og anvendelsesstadier – nogle gange kaldet "et menneske i løkken" – for at sikre, at det ultimative etiske ansvar ligger hos et menneske
- Bekæmpelse af skævheder og forskelsbehandling: Designprocesser bør prioritere retfærdighed, lighed og repræsentation for at afbøde skævheder og forskelsbehandling
- Gennemsigtighed og forklaringsevne: Hvordan AI-modeller træffer specifikke beslutninger og skaber specifikke resultater, bør være gennemsigtig og forklaret på et klart sprog
- Beskyttelse af personoplysninger: AI-systemer skal opfylde de strengeste standarder for databeskyttelse og beskyttelse ved hjælp af robuste cybersikkerhedsmetoder for at undgå brud på datasikkerheden og uautoriseret adgang
- Fremme af inklusivitet og mangfoldighed: AI-teknologier skal afspejle og respektere det store udvalg af menneskelige identiteter og erfaringer
- Samfund og økonomier: AI bør bidrage til at fremme samfundsmæssige fremskridt og økonomisk velstand for alle mennesker uden at fremme ulighed eller urimelig praksis
- Forbedring af digitale færdigheder og læse- og skrivefærdigheder: AI-teknologier bør stræbe efter at være tilgængelige og forståelige for alle, uanset en persons digitale færdigheder
- Virksomhedernes sundhed: AI-forretningsteknologier bør fremskynde processer, maksimere effektivitet og fremme vækst
AI-etiske termer og definitioner
Som et kryds af etik og højteknologi bruger samtaler om etisk AI ofte ordforråd fra begge områder. Forståelse af dette ordforråd er vigtigt for at kunne diskutere etikken i AI:
-
AI: En maskines evne til at udføre kognitive funktioner, vi forbinder med menneskelige sind, såsom at opfatte, ræsonnere, lære og problemløsning. Der er to hovedtyper af AI-systemer, og nogle systemer er en kombination af begge:
- Regelbaseret AI, også kaldet ekspert AI, opfører sig i henhold til et sæt fuldt definerede regler, der er oprettet af menneskelige eksperter – som et eksempel bruger mange e-handelsplatforme regelbaseret AI til at levere produktanbefalinger
- Læringsbaseret AI løser problemer og tilpasser sin funktionalitet alene, baseret på den oprindelige menneske-designede konfiguration og træningsdatasæt –generative AI-værktøjer er eksempler på læringsbaseret AI
AI-etik: Et sæt værdier, principper og teknikker, der anvender bredt accepterede standarder for ret og forkert til at styre moralsk adfærd i udvikling, implementering, brug og salg af AI-teknologier.
AI-model: Et matematisk framework skabt af mennesker og trænet på data, der gør det muligt for AI-systemer at udføre visse opgaver ved at identificere mønstre, træffe beslutninger og forudsige resultater. Almindelige anvendelser omfatter blandt andet billedgenkendelse og sprogoversaettelse.
AI-system: En kompleks struktur af algoritmer og modeller designet til at efterligne menneskelig ræsonnement og udføre opgaver autonomt.
Agenturet: Den enkeltes evne til at handle uafhængigt og træffe frie valg.
Bias: En tilbøjelighed eller skade for eller imod en person eller gruppe, især på en måde, der anses for at være urimelig. Biaser i træningsdata – såsom under- eller overrepræsentation af data vedrørende en bestemt gruppe – kan få AI til at handle på forudindtagede måder.
Forklaringsevne: Evnen til at besvare spørgsmålet, "Hvad gjorde maskinen for at nå sit output?" Forklaringsevne henviser til AI-systemets teknologiske kontekst, såsom dets mekanik, regler og algoritmer og træningsdata.
Retfærdighed: Upartisk og retfærdig behandling eller adfærd uden uretfærdig begunstigelse eller diskrimination.
Menneske-i-the-loop: Menneskets evne til at gribe ind i alle beslutningsforløb i et AI-system.
Fortolkelighed: Evnen for folk til at forstå den virkelige kontekst og virkningen af et AI-systems output, såsom når AI bruges til at hjælpe med at træffe en beslutning om at godkende eller afvise en låneansøgning.
Stor sprogmodel (LLM): En type maskinindlæring, der ofte bruges i tekstgenkendelses- og genereringsopgaver.
Maskinindlæring: En delmængde af AI, der giver systemer mulighed for automatisk at lære, forbedre fra erfaring og tilpasse sig nye data uden at blive programmeret eksplicit til at gøre det.
Normativ: En central kontekst af praktisk etik, der beskaeftiger sig med, hvad mennesker og institutioner ”bør” eller ”burde” gøre i bestemte situationer.
Gennemsigtighed: I relation til forklaringsevne er gennemsigtighed evnen til at retfærdiggøre, hvordan og hvorfor et AI-system udvikles, implementeres og anvendes, og til at gøre disse oplysninger synlige og forståelige for folk.
Sådan implementerer du principper for AI-etik
For organisationer er der mere at bruge AI etisk end blot at vedtage etiske principper; disse principper skal integreres i alle tekniske og operationelle AI-processer. Mens integration af etik kan virke besværlig for organisationer, der hurtigt indfører AI, viser virkelige tilfælde af skade forårsaget af problemer i AI-modeldesign og brug, at det kan være risikabelt og dyrt at forsømme korrekt etik.
Hvem er ansvarlig for AI-etik?
Det korte svar: alle, der er involveret i AI, herunder virksomheder, regeringer, forbrugere og borgere.
Forskellige menneskers forskellige roller i AI-etik
- Udviklere og forskere spiller en afgørende rolle i at skabe AI-systemer, der prioriterer menneskelige agenturer og tilsyn, adresserer skævheder og diskrimination og er gennemsigtige og forklarbare.
- Politikere og regulerende myndigheder indfører love og bestemmelser, der skal regulere den etiske brug af AI og beskytte enkeltpersoners rettigheder.
- Erhvervs- og brancheledere sikrer, at deres organisationer indfører etiske AI-principper, så de bruger AI på måder, der bidrager positivt til samfundet.
- Civilsamfundsorganisationer går ind for etisk brug af kunstig intelligens, spiller en rolle i tilsynet og yder støtte til de berørte samfund.
- Akademiske institutioner bidrager gennem uddannelse, forskning og udvikling af etiske retningslinjer.
- Slutbrugere og berørte brugere, som forbrugere og borgere, har en interesse i at sikre, at AI-systemer er forklarbare, fortolkbare, retfærdige, gennemsigtige og gavnlige for samfundet.
Virksomhedslederes rolle i AI-etik
Mange virksomheder opretter udvalg under ledelse af deres øverste ledere, der skal udforme deres AI-styringspolitikker. For eksempel dannede vi hos SAP et rådgivende panel og en styregruppe for AI-etik, der bestod af etiske og teknologiske eksperter, for at integrere vores etiske AI-principper i vores produkter og operationer. Disse principper prioriterer:
- Proportionalitet og ingen skade
- Sikkerhed og tryghed
- Retfærdighed og ikke-forskelsbehandling
- Bæredygtighed
- Ret til privatlivets fred og databeskyttelse
- Menneskeligt tilsyn og beslutsomhed
- Gennemsigtighed og forklaringsevne
- Ansvar og ansvarlighed
- Bevidsthed og tekniske færdigheder
- Multiinteressent og adaptiv styring og samarbejde
Formering af en AI-etisk styregruppe
Oprettelse af en styregruppe er afgørende for at styre en organisations tilgang til etikken i AI og giver ansvarlighed og tilsyn på topniveau. Denne komité sikrer, at etiske overvejelser væves ind i AI-udvikling og -implementering.
Bedste praksis for at danne en AI-etisk styregruppe
- Sammensætning og ekspertise: Inkluder en forskelligartet blanding af interessenter med ekspertise inden for AI, lov og etik. Eksterne rådgivere kan tilbyde upartiske perspektiver.
- Definition af formål og omfang: Definer klart udvalgets mission og mål med fokus på etisk AI-design, implementering og drift. Dette bør være i overensstemmelse med virksomhedens værdier, retfærdighed, gennemsigtighed og privatliv.
- Definition af roller og ansvarsområder: Beskriv specifikke roller for medlemmerne, fx udvikling af politikker for AI-etik, rådgivning om etiske hensyn i AI-projekter og sikring af overholdelse af forskrifter.
- Opstilling af mål: Sæt klare, målbare mål som at gennemføre en årlig etisk revision af AI-projekter og tilbyde kvartalsvis etisk AI-uddannelse.
- Oprettelse af procedurer: Fastlæg operationelle procedurer, herunder overholdelse af tidsplaner, dokumentationsstandarder og kommunikationsprotokoller for at opretholde gennemsigtigheden.
- Igangværende uddannelse og tilpasning: Hold dig ajour med nye udviklinger inden for AI-teknologi, etiske standarder og regler gennem regelmæssig træning og konferencer.
Oprettelse af en politik for AI-etik
Udvikling af en politik for AI-etik er afgørende for at kunne vejlede AI-initiativer i en organisation. Styringsudvalget er kritisk i denne proces ved at bruge sin forskelligartede ekspertise til at sikre, at politikken overholder love, standarder og bredere etiske principper.
Eksempeltilgang til oprettelse af en politik for AI-etik
-
Udarbejdelse af den oprindelige politik: Begynd med at udarbejde en politik, der afspejler organisationens kerneværdier, lovkrav og bedste praksis. Dette oprindelige udkast vil danne grundlag for yderligere forbedringer.
-
Høring og input: Engager med interne og eksterne interessenter, herunder AI-udviklere, virksomhedsledere og eticister, for at gøre politikken omfattende og repræsentativ for flere perspektiver.
-
Integration af tværfaglig indsigt: Udnyt udvalgsmedlemmernes forskellige baggrunde til at indarbejde indsigt fra teknologi, etik, jura og forretning til at håndtere de komplekse aspekter af AI-etik.
-
Definition af anvendelseseksempler med høj risiko og røde linjer: For at sikre klarhed bør udvalget skitsere, hvilke AI-applikationer der udgør betydelige risici eller betragtes som uetiske og derfor forbudte. SAP's styringsudvalg kategoriserer f.eks. disse som:
- Høj risiko: Denne kategori omfatter applikationer, der kan være skadelige på nogen måde, og omfatter applikationer relateret til retshåndhævelse, migration og demokratiske processer – såvel som dem, der involverer personoplysninger, automatiseret beslutningstagning eller påvirker social velfærd. Disse skal underkastes en grundig vurdering fra udvalgets side inden udvikling, ibrugtagning eller salg.
- Rød linje: Applikationer, der muliggør menneskelig overvågning, diskrimination, deanonymisering af data, der fører til identifikation af enkeltpersoner eller grupper, eller dem, der manipulerer den offentlige mening eller underminerer demokratiske debatter, er forbudt. SAP anser disse anvendelser for yderst uetiske og forbyder deres udvikling, implementering og salg.
-
Revision og revisioner: Fortsat revision og revision af den politik, der er baseret på feedback, og sikring af, at den fortsat er relevant og praktisk for den virkelige verden.
-
Færdiggørelse og godkendelse: Indsend den gennemførte politik til endelig godkendelse af beslutningstagere, såsom bestyrelsen, bakket op af en stærk anbefaling fra udvalget.
-
Gennemførelse og løbende tilsyn: Udvalget bør overvåge gennemførelsen af politikken og regelmæssigt ajourføre den for at afspejle den nye teknologiske og etiske udvikling.
Etablering af en proces til gennemgang af overholdelse
Udvikling af effektive processer til kontrol af overholdelse er afgørende for at sikre, at AI-implementeringer overholder organisationens politikker og bestemmelser om AI-etik. Disse processer hjælper med at opbygge tillid med brugere og tilsynsmyndigheder og tjener til at reducere risici og opretholde etisk praksis på tværs af AI-projekter.
Typiske processer til gennemgang af overholdelse
- Udvikle en standardiseret revisionsramme: Formulere en omfattende ramme, der definerer procedurer for vurdering af AI-projekter i forhold til etiske retningslinjer, juridiske standarder og operationelle krav.
- Risikoklassificering: Klassificer AI-projekter efter deres etiske og lovgivningsmæssige risici. Projekter med høj risiko, f.eks. dem, der håndterer følsomme personoplysninger eller har betydelige konsekvenser for beslutningstagningen, kræver en høj grad af kontrol.
- Regelmæssige revisioner og vurderinger: Udfør regelmæssige revisioner for at verificere løbende overholdelse, der involverer både automatiserede kontroller og manuelle evalueringer foretaget af tværfaglige teams.
- Inddragelse af interessenter: Inddragelse af en forskelligartet gruppe af interessenter i vurderingsprocessen, herunder eticister, juridiske eksperter, dataforskere og slutbrugere, for at få øje på potentielle risici og etiske dilemmaer.
- Dokumentation og gennemsigtighed: Opbevar detaljerede fortegnelser over alle compliance-aktiviteter, så de er tilgængelige og tydelige for både interne og eksterne revisioner
- Feedback- og eskaleringsmekanismer: Gennemførelse af klare procedurer for indberetning og håndtering af etiske betænkeligheder og spørgsmål vedrørende overholdelse
Teknisk implementering af AI-etiske praksisser
Integration af etiske overvejelser i AI-udvikling indebærer tilpasning af nuværende teknologipraksis for at sikre, at systemer opbygges og implementeres ansvarligt. Ud over at etablere etiske AI-principper opretter organisationer nogle gange også ansvarlige AI-principper, som kan være mere fokuserede på deres specifikke branchespecifikke og tekniske anvendelseseksempler.
Vigtige tekniske krav til etiske AI-systemer
Bias detektering og reduktion: Brug forskellige datasæt og statistiske metoder til at opdage og korrigere biaser i AI-modeller. Gennemføre regelmæssige revisioner for at overvåge partiskhed.
Gennemsigtighed og forklaringsevne: Udvikle systemer, som brugerne nemt kan forstå og verificere ved hjælp af metoder som vigtighedsscorer, beslutningstræer og modelagnostiske forklaringer for at forbedre gennemsigtigheden.
Databeskyttelse og sikkerhed: Sørg for, at data i AI-systemer administreres sikkert og overholder lovgivningen om beskyttelse af personlige oplysninger. Systemer skal bruge kryptering, anonymisering og sikre protokoller for at sikre dataintegriteten.
Robust og pålideligt design: AI-systemer skal være holdbare og pålidelige under forskellige forhold, herunder omfattende test og validering for at håndtere uventede scenarier effektivt.
Kontinuerlig overvågning og opdatering: Vedligehold løbende overvågning for at vurdere AI-performance og etisk overholdelse, opdatere systemer efter behov baseret på nye data eller ændringer i betingelser.
Inddragelse af interessenter og feedback: Inddrage interessenter såsom slutbrugere, eticister og domæneeksperter i design- og udviklingsprocesserne for at indsamle feedback og sikre, at systemet er i overensstemmelse med etiske og operationelle krav.
Uddannelse af organisationen i etik af AI
Omfattende træning er afgørende for at sikre, at medarbejderne forstår AI-etik og kan arbejde ansvarligt med AI-teknologier. Uddannelse tjener også til at forbedre integriteten og effektiviteten af organisationernes AI-værktøjer og -løsninger.
Nøglekomponenter i en effektiv AI-undervisningsplan
- Omfattende læseplansudvikling: Brug en undervisningsplan, der omhandler AI grundlæggende, etiske overvejelser, compliance spørgsmål og praktiske applikationer, skræddersyet til forskellige organisatoriske roller fra teknisk personale til ledende ledelse.
- Rollespecifikke træningsmoduler: Tilbyd træningsmoduler tilpasset de unikke behov og ansvarsområder i forskellige afdelinger. For eksempel kan udviklere fokusere på etisk kodningspraksis, mens salgs- og marketingteams lærer om AI's implikationer i kundeinteraktioner.
- Løbende læring og opdateringer: AI udvikler sig hurtigt, så det er vigtigt at holde træningsprogrammer ajour med de seneste udviklinger og bedste praksis.
- Interaktive og praktiske læringserfaringer: Brug casestudier, simuleringer og workshops til at illustrere virkelige applikationer og etiske udfordringer til at understøtte teoretisk viden med praktisk erfaring.
- Vurdering og certificering: Udfør vurderinger for at måle medarbejdernes forståelse og færdighed i etikken af AI og overveje at tilbyde certificering for at anerkende og motivere løbende forbedringer.
- Feedbackmekanismer: Etablere feedbackkanaler for medarbejderne for at bidrage til den løbende finpudsning af uddannelsesprogrammer, hvilket sikrer, at de opfylder organisationens skiftende behov.
AI-etik bruger eksempler til forskellige roller i organisationen
Alle i en organisation, der arbejder med AI-drevne applikationer, eller med AI-svarmotorer, bør være forsigtige med risikoen for ai bias og arbejde ansvarligt. Eksempler på AI-etiske anvendelseseksempler for forskellige roller eller afdelinger i virksomhedsvirksomheder er:
- Dataforskere eller maskinindlæringsingeniører: I disse roller anbefales det at inkorporere metoder til biasdetektering og -afbødning, sikre modelforklaringsevne og forbedre modellen. Dette omfatter teknikker som fairness metrics og kontrafaktuel analyse.
- Produktledere eller forretningsanalytikere: AI-etiske ansvarsområder kan variere fra etiske risikovurderinger, prioritere brugercentreret design og udvikle klare kommunikationsstrategier for at forklare AI-systemer for brugere og interessenter. Dette indebærer, at der tages hensyn til potentielle samfundsmæssige virkninger, brugerbehov og opbygning af tillid gennem gennemsigtighed.
- Juridisk afdeling: Kritiske anvendelseseksempler er overholdelse af relevante bestemmelser (f.eks. databeskyttelseslove), styring af juridiske og omdømmemæssige risici i forbindelse med AI og udvikling af strategier til at reducere forpligtelser, der opstår som følge af algoritmiske skævheder eller utilsigtede konsekvenser
- HR-medarbejdere: HR-afdelingen bør arbejde med AI-drevne rekrutteringsværktøjer, der er fri for partiskhed og overholder antidiskriminationslove. Opgaver involverer auditeringsalgoritmer, implementering af menneske-in-the-loop-systemer og uddannelse i etisk AI-rekrutteringspraksis.
Myndigheder inden for AI-etik
AI-etik er kompleks, formet af skiftende regler, juridiske standarder, branchepraksis og teknologiske fremskridt. Organisationer skal holde sig opdateret om politikændringer, der kan påvirke dem – og de bør samarbejde med relevante interessenter for at afgøre, hvilke politikker der gælder for dem. Nedenstående liste er ikke udtømmende, men giver en fornemmelse af, hvilke politiske ressourcer organisationer bør søge ud fra deres industri og region.
Eksempler på AI-etiske myndigheder og ressourcer
ACET's rapport om kunstig intelligens til økonomisk politikfremstilling: Denne forskningsundersøgelse foretaget af African Center for Economic Transformation vurderer de økonomiske og etiske overvejelser af AI med henblik på at informere om inklusive og bæredygtige økonomiske, finansielle og industrielle politikker i hele Afrika.
AlgorithmWatch: En menneskerettighedsorganisation, der går ind for og udvikler redskaber til oprettelse og brug af algoritmiske systemer, der beskytter demokrati, retsstatsprincippet, frihed, autonomi, retfærdighed og lighed.
ASEAN Guide on AI Governance and Ethics: En praktisk vejledning for medlemsstaterne i Sammenslutningen af Sydøstasiatiske Nationer til at designe, udvikle og implementere AI-teknologier etisk og produktivt.
Europa-Kommissionen AI Watch: Europa-Kommissionens Fælles Forskningscenter giver vejledning i at skabe troværdige AI-systemer, herunder landespecifikke rapporter og dashboards, der kan hjælpe med at overvåge udviklingen, udbredelsen og virkningen af AI for Europa
NTIA AI-ansvarlighedsrapport: Denne rapport om den nationale telekommunikations- og informationsadministration foreslår frivillige, lovgivningsmæssige og andre foranstaltninger, der skal hjælpe med at sikre juridiske og troværdige AI-systemer i USA.
OECD AI Principles: Dette forum af lande og interessentgrupper arbejder for at forme troværdig AI. I 2019 faciliterede det OECD AI Principles, den første mellemstatslige standard om AI. Disse principper dannede også grundlag for G20 AI-principperne.
UNESCO's henstilling om kunstig intelligens: Dette FN-agenturs anbefalingsramme blev vedtaget af 193 medlemsstater efter en toårig global høringsproces med eksperter og interessenter.
Konklusion
Det kan konkluderes, at udvikling og implementering af etisk AI kræver en mangesidet tilgang. Som organisation anbefales det at etablere klare etiske principper, integrere dem i AI-udviklingsprocesser og sikre løbende overholdelse gennem robust governance og træningsprogrammer. Ved at prioritere menneskecentrerede værdier som retfærdighed, gennemsigtighed og ansvarlighed kan virksomheder udnytte kraften i AI ansvarligt, drive innovation og samtidig mindske potentielle risici og sikre, at disse teknologier gavner samfundet som helhed.
SAP-produkt
Mere AI-etik bruger cases og vejledning
Få dybdegående vejledning til implementering af etisk AI-praksis i SAP AI Ethics Handbook.