flex-height
text-black

Ingeniører og forskere arbejder på en bionisk exoskelet prototype

Hvad er AI-etik?

AI-etik henviser til de principper, der styrer AI's adfærd i form af menneskelige værdier. AI-etik er med til at sikre, at AI udvikles og bruges på måder, der er gavnlige for samfundet. Den omfatter en bred vifte af overvejelser, herunder rimelighed, gennemsigtighed, ansvarlighed, privatlivets fred, sikkerhed og de potentielle samfundsmæssige virkninger.

Introduktion til AI-etik

Forestil dig et AI-system, der forudsiger sandsynligheden for fremtidig kriminel adfaerd og bruges af dommere til at bestemme straffelaengde. Hvad sker der, hvis dette system er uforholdsmæssigt målrettet mod visse demografiske grupper?

AI-etik er en god kraft, der hjælper med at afbøde urimelige fordomme, fjerner barrierer for tilgængelighed og øger kreativiteten blandt mange andre fordele. Da organisationer i stigende grad er afhængige af AI til beslutninger, der påvirker menneskeliv, er det afgørende, at de overvejer de komplekse etiske implikationer, fordi misbrug af AI kan forårsage skade på enkeltpersoner og samfund – og på virksomhedernes bundlinjer og omdømme.

I denne artikel vil vi undersøge:

Eksempler på etiske AI-principper

Folks trivsel er i centrum for enhver diskussion om etikken i AI. Mens AI-systemer kan designes til at prioritere moral og etik, er mennesker i sidste ende ansvarlige for at sikre etisk design og brug – og for at gribe ind, når det er nødvendigt.

Der er ikke noget enkelt sæt af etiske AI-principper, som alle er enige om. Mange organisationer og regeringsorganer rådfører sig med eksperter inden for etik, lov og AI for at skabe deres vejledende principper. Disse principper vedrører almindeligvis:

AI-etiske termer og definitioner

Som et kryds af etik og højteknologi bruger samtaler om etisk AI ofte ordforråd fra begge områder. Forståelse af dette ordforråd er vigtigt for at kunne diskutere etikken i AI:

AI-etik: Et sæt værdier, principper og teknikker, der anvender bredt accepterede standarder for ret og forkert til at styre moralsk adfærd i udvikling, implementering, brug og salg af AI-teknologier.

AI-model: Et matematisk framework skabt af mennesker og trænet på data, der gør det muligt for AI-systemer at udføre visse opgaver ved at identificere mønstre, træffe beslutninger og forudsige resultater. Almindelige anvendelser omfatter blandt andet billedgenkendelse og sprogoversaettelse.

AI-system: En kompleks struktur af algoritmer og modeller designet til at efterligne menneskelig ræsonnement og udføre opgaver autonomt.

Agenturet: Den enkeltes evne til at handle uafhængigt og træffe frie valg.

Bias: En tilbøjelighed eller skade for eller imod en person eller gruppe, især på en måde, der anses for at være urimelig. Biaser i træningsdata – såsom under- eller overrepræsentation af data vedrørende en bestemt gruppe – kan få AI til at handle på forudindtagede måder.

Forklaringsevne: Evnen til at besvare spørgsmålet, "Hvad gjorde maskinen for at nå sit output?" Forklaringsevne henviser til AI-systemets teknologiske kontekst, såsom dets mekanik, regler og algoritmer og træningsdata.

Retfærdighed: Upartisk og retfærdig behandling eller adfærd uden uretfærdig begunstigelse eller diskrimination.

Menneske-i-the-loop: Menneskets evne til at gribe ind i alle beslutningsforløb i et AI-system.

Fortolkelighed: Evnen for folk til at forstå den virkelige kontekst og virkningen af et AI-systems output, såsom når AI bruges til at hjælpe med at træffe en beslutning om at godkende eller afvise en låneansøgning.

Stor sprogmodel (LLM): En type maskinindlæring, der ofte bruges i tekstgenkendelses- og genereringsopgaver.

Maskinindlæring: En delmængde af AI, der giver systemer mulighed for automatisk at lære, forbedre fra erfaring og tilpasse sig nye data uden at blive programmeret eksplicit til at gøre det.

Normativ: En central kontekst af praktisk etik, der beskaeftiger sig med, hvad mennesker og institutioner ”bør” eller ”burde” gøre i bestemte situationer.

Gennemsigtighed: I relation til forklaringsevne er gennemsigtighed evnen til at retfærdiggøre, hvordan og hvorfor et AI-system udvikles, implementeres og anvendes, og til at gøre disse oplysninger synlige og forståelige for folk.

Sådan implementerer du principper for AI-etik

For organisationer er der mere at bruge AI etisk end blot at vedtage etiske principper; disse principper skal integreres i alle tekniske og operationelle AI-processer. Mens integration af etik kan virke besværlig for organisationer, der hurtigt indfører AI, viser virkelige tilfælde af skade forårsaget af problemer i AI-modeldesign og brug, at det kan være risikabelt og dyrt at forsømme korrekt etik.

Hvem er ansvarlig for AI-etik?

Det korte svar: alle, der er involveret i AI, herunder virksomheder, regeringer, forbrugere og borgere.

Forskellige menneskers forskellige roller i AI-etik

Hvad menneskelige interessenter har brug for for at forstå infografik

Virksomhedslederes rolle i AI-etik

Mange virksomheder opretter udvalg under ledelse af deres øverste ledere, der skal udforme deres AI-styringspolitikker. For eksempel dannede vi hos SAP et rådgivende panel og en styregruppe for AI-etik, der bestod af etiske og teknologiske eksperter, for at integrere vores etiske AI-principper i vores produkter og operationer. Disse principper prioriterer:

Formering af en AI-etisk styregruppe

Oprettelse af en styregruppe er afgørende for at styre en organisations tilgang til etikken i AI og giver ansvarlighed og tilsyn på topniveau. Denne komité sikrer, at etiske overvejelser væves ind i AI-udvikling og -implementering.

Bedste praksis for at danne en AI-etisk styregruppe

Oprettelse af en politik for AI-etik

Udvikling af en politik for AI-etik er afgørende for at kunne vejlede AI-initiativer i en organisation. Styringsudvalget er kritisk i denne proces ved at bruge sin forskelligartede ekspertise til at sikre, at politikken overholder love, standarder og bredere etiske principper.

Eksempeltilgang til oprettelse af en politik for AI-etik

Risikoklassificering & flowdiagram for vurderingsproces

Etablering af en proces til gennemgang af overholdelse

Udvikling af effektive processer til kontrol af overholdelse er afgørende for at sikre, at AI-implementeringer overholder organisationens politikker og bestemmelser om AI-etik. Disse processer hjælper med at opbygge tillid med brugere og tilsynsmyndigheder og tjener til at reducere risici og opretholde etisk praksis på tværs af AI-projekter.

Typiske processer til gennemgang af overholdelse

Teknisk implementering af AI-etiske praksisser

Integration af etiske overvejelser i AI-udvikling indebærer tilpasning af nuværende teknologipraksis for at sikre, at systemer opbygges og implementeres ansvarligt. Ud over at etablere etiske AI-principper opretter organisationer nogle gange også ansvarlige AI-principper, som kan være mere fokuserede på deres specifikke branchespecifikke og tekniske anvendelseseksempler.

Vigtige tekniske krav til etiske AI-systemer

Bias detektering og reduktion: Brug forskellige datasæt og statistiske metoder til at opdage og korrigere biaser i AI-modeller. Gennemføre regelmæssige revisioner for at overvåge partiskhed.

Gennemsigtighed og forklaringsevne: Udvikle systemer, som brugerne nemt kan forstå og verificere ved hjælp af metoder som vigtighedsscorer, beslutningstræer og modelagnostiske forklaringer for at forbedre gennemsigtigheden.

Databeskyttelse og sikkerhed: Sørg for, at data i AI-systemer administreres sikkert og overholder lovgivningen om beskyttelse af personlige oplysninger. Systemer skal bruge kryptering, anonymisering og sikre protokoller for at sikre dataintegriteten.

Robust og pålideligt design: AI-systemer skal være holdbare og pålidelige under forskellige forhold, herunder omfattende test og validering for at håndtere uventede scenarier effektivt.

Kontinuerlig overvågning og opdatering: Vedligehold løbende overvågning for at vurdere AI-performance og etisk overholdelse, opdatere systemer efter behov baseret på nye data eller ændringer i betingelser.

Inddragelse af interessenter og feedback: Inddrage interessenter såsom slutbrugere, eticister og domæneeksperter i design- og udviklingsprocesserne for at indsamle feedback og sikre, at systemet er i overensstemmelse med etiske og operationelle krav.

Uddannelse af organisationen i etik af AI

Omfattende træning er afgørende for at sikre, at medarbejderne forstår AI-etik og kan arbejde ansvarligt med AI-teknologier. Uddannelse tjener også til at forbedre integriteten og effektiviteten af organisationernes AI-værktøjer og -løsninger.

Nøglekomponenter i en effektiv AI-undervisningsplan

AI-etik bruger eksempler til forskellige roller i organisationen

Alle i en organisation, der arbejder med AI-drevne applikationer, eller med AI-svarmotorer, bør være forsigtige med risikoen for ai bias og arbejde ansvarligt. Eksempler på AI-etiske anvendelseseksempler for forskellige roller eller afdelinger i virksomhedsvirksomheder er:

Myndigheder inden for AI-etik

AI-etik er kompleks, formet af skiftende regler, juridiske standarder, branchepraksis og teknologiske fremskridt. Organisationer skal holde sig opdateret om politikændringer, der kan påvirke dem – og de bør samarbejde med relevante interessenter for at afgøre, hvilke politikker der gælder for dem. Nedenstående liste er ikke udtømmende, men giver en fornemmelse af, hvilke politiske ressourcer organisationer bør søge ud fra deres industri og region.

Eksempler på AI-etiske myndigheder og ressourcer

ACET's rapport om kunstig intelligens til økonomisk politikfremstilling: Denne forskningsundersøgelse foretaget af African Center for Economic Transformation vurderer de økonomiske og etiske overvejelser af AI med henblik på at informere om inklusive og bæredygtige økonomiske, finansielle og industrielle politikker i hele Afrika.

AlgorithmWatch: En menneskerettighedsorganisation, der går ind for og udvikler redskaber til oprettelse og brug af algoritmiske systemer, der beskytter demokrati, retsstatsprincippet, frihed, autonomi, retfærdighed og lighed.

ASEAN Guide on AI Governance and Ethics: En praktisk vejledning for medlemsstaterne i Sammenslutningen af Sydøstasiatiske Nationer til at designe, udvikle og implementere AI-teknologier etisk og produktivt.

Europa-Kommissionen AI Watch: Europa-Kommissionens Fælles Forskningscenter giver vejledning i at skabe troværdige AI-systemer, herunder landespecifikke rapporter og dashboards, der kan hjælpe med at overvåge udviklingen, udbredelsen og virkningen af AI for Europa

NTIA AI-ansvarlighedsrapport: Denne rapport om den nationale telekommunikations- og informationsadministration foreslår frivillige, lovgivningsmæssige og andre foranstaltninger, der skal hjælpe med at sikre juridiske og troværdige AI-systemer i USA.

OECD AI Principles: Dette forum af lande og interessentgrupper arbejder for at forme troværdig AI. I 2019 faciliterede det OECD AI Principles, den første mellemstatslige standard om AI. Disse principper dannede også grundlag for G20 AI-principperne.

UNESCO's henstilling om kunstig intelligens: Dette FN-agenturs anbefalingsramme blev vedtaget af 193 medlemsstater efter en toårig global høringsproces med eksperter og interessenter.

Konklusion

Det kan konkluderes, at udvikling og implementering af etisk AI kræver en mangesidet tilgang. Som organisation anbefales det at etablere klare etiske principper, integrere dem i AI-udviklingsprocesser og sikre løbende overholdelse gennem robust governance og træningsprogrammer. Ved at prioritere menneskecentrerede værdier som retfærdighed, gennemsigtighed og ansvarlighed kan virksomheder udnytte kraften i AI ansvarligt, drive innovation og samtidig mindske potentielle risici og sikre, at disse teknologier gavner samfundet som helhed.

Læs mere