Hvad er ansvarlig AI?
Ansvarlig AI refererer til udvikling, implementering og brug af systemer med kunstig intelligens (AI) på måder, der er etiske, gennemsigtige og ansvarlige. Det har til formål at sikre, at AI-teknologier er tilpasset menneskelige værdier, respekterer grundlæggende rettigheder og er designet til at fremme retfærdighed, sikkerhed og velfærd for enkeltpersoner og samfundet.
default
{}
default
{}
primary
default
{}
secondary
Definition af ansvarlig AI
Ansvarlig AI er praksis med at bruge AI på en måde, der understreger menneskeligt tilsyn og samfundsmaessig trivsel. Det handler om at sikre, at AI-modeller, datasæt og applikationer udvikles og implementeres etisk og juridisk uden at forårsage forsætlig skade eller vedvarende uligevægt. Det er vigtigt, fordi misbrug af AI, eller brug af den skødesløst, kan forårsage skade på brugere, berørte personer, registrerede personer, samfundet og virksomheder.
Hvad er ansvarlig AI vs. troværdig AI vs etisk AI?
Begreberne ansvarlig AI, troværdig AI og etisk AI er nært beslægtede, men der er nogle centrale forskelle:
- Ansvarlig AI omfatter de overordnede etiske konsekvenser, governance, tilsyn, juridiske og langsigtede konsekvenser af AI.
- Troværdig AI refererer specifikt til designet af AI-systemer, så folk opfatter dem som pålidelige, retfærdige, gennemsigtige, forklarbare og sikre.
- Etisk AI fokuserer på de moralske principper for, hvordan AI er designet og brugt, så det ikke skader menneskeheden eller den menneskelige værdighed.
Vi skal altid huske på, at fordi AI ikke er menneskelig, er den ude af stand til at have de menneskelige træk af ansvar, troværdighed eller etik. Derfor er det vigtigt at tilskrive disse termer til de mennesker, der skaber eller bruger denne teknologi, og ikke til selve teknologien.
Sådan fungerer ansvarlig AI
Der er menneskelige og teknologiske aspekter til at få ansvarlig AI til at fungere:
- Folk skal forstå fordelene og risiciene ved at bruge AI – og forpligte sig til at bruge den etisk. Enkeltpersoner og mennesker i organisationer og regeringer har alle en rolle at spille.
- AI-teknologi skal udvikles, implementeres og styres på måder, der prioriterer menneskerettigheder og trivsel.
Etablering af formaliserede ansvarlige AI-principper er en god måde at tilpasse alle i en organisation til en fælles vision om ansvarlig AI. Men at etablere principper er bare en start: Organisationen skal også implementere effektiv AI governance, træning og tekniske processer for at sætte principperne i værk.
Ansvarlige AI-principper varierer mellem organisationer. F.eks. kan virksomheder, der beskæftiger sig med finansielle tjenesteydelser, lægge større vægt på retfærdighed og ikke-forskelsbehandling, mens virksomheder på sociale medier kan fokusere mere på gennemsigtighed eller privatlivets fred. Her er et eksempel på principper, der er opsummeret fra Europa-Kommissionens etiske retningslinjer for at skabe troværdige AI-systemer:
Eksempel på ansvarlige AI-principper
Humanagentur og tilsyn: AI bør øge beslutningstagningen af mennesker, opretholde menneskerettighederne og have mekanismer til at føre tilsyn med mennesker.
Teknisk robusthed og sikkerhed: AI-systemer skal være sikre, robuste, sikre, nøjagtige og pålidelige med en beredskabsplan for at forhindre utilsigtet skade.
Databeskyttelse og dataforvaltning: Systemerne bør fuldt ud respektere privatlivets fred og regulere kvaliteten, privatlivets fred og lovlig adgang til data.
Gennemsigtighed: Systemerne skal kunne spores og være gennemsigtige. De bør være tydeligt markeret som AI, og deres evner og begrænsninger bør kommunikeres effektivt.
Mangfoldighed, ikke-forskelsbehandling og retfærdighed: AI bør undgå at fremme bias, bør støtte mangfoldighed, sikre lige adgang og inddrage interessenter i udviklingsprocessen.
Samfundsmæssig og miljømæssig velfærd: AI-systemer bør være til gavn for alle mennesker, herunder fremtidige generationer. De skal være bæredygtige og miljøvenlige, og deres samfundsmæssige indvirkning bør overvejes nøje.
Ansvarlighed: Der bør indføres mekanismer til at sikre ansvarlighed og ansvarlighed for AI-systemer og deres resultater. Auditabilitet og tilgængelighed bør sikres.
Ansvarlig AI-udviklingspraksis
Udviklere og forskere, der opretter eller implementerer AI-systemer, skal følge pålidelige tekniske bedste praksisser for AI og løbende vurdere deres systemers overholdelse af deres organisationers ansvarlige AI-principper. Her er nogle almindelige praksisser:
Vurdering af modeltræningsdata
At have forskellige datasæt hjælper med at repræsentere forskellige kohorter, hvilket forbedrer robustheden og inklusiviteten af AI-systemet. Forståelse af de data, der bruges til at træne modeller, er nødvendig for at afdække eller afhjælpe problemer som AI-bias.
Kausalanalyse
Forståelse af, hvordan årsag-og-effekt-relationer fungerer i AI-modeller, kan hjælpe med etisk beslutningstagning om, hvordan de skal implementeres, eller om de overhovedet skal implementeres. Denne analyse gør prognosemodeller mere robuste ved at afsløre interaktioner mellem forskellige variabler.
Kontrafaktualanalyse
Dette er processen med at forbedre modelrimelighed og beslutningstagning ved at bruge "what-if" forespørgsler til at afsløre AI-fordomme og logiske problemer. Det fungerer ved at spørge modellen, hvordan dens beslutninger ville ændre sig, hvis inputtet, såsom data om en person eller situation, havde været anderledes.
Fairness i maskinindlæring
Eliminering af AI bias er afgørende for at sikre, at systemer behandler forskellige grupper eller individer retfærdigt. Dette gøres ved at identificere ubalanceret repræsentation eller uretfærdig behandling i maskinindlæring træningsdata og algoritmer, og har typisk tre faser:
- Forbehandling af data for at identificere og fjerne uligevægte
- Anvendelse af rimelighedsbegrænsninger under modeltest
- Efterbehandlingsjusteringer af modellens beslutningstagning
Vurdering af modelfejl
Evaluering og korrektion af fejl i modellernes forudsigelser er afgørende for at undgå risikable eller pinlige resultater. Almindelige metoder til vurdering af fejl omfatter forvirringsmatrix, præcision, tilbagekaldelse, F1-score og ROC-kurve.
Modelfortolkningsevne
For at fremme tillid og gennemsigtighed over for brugere og tilsynsmyndigheder skal udviklerne kunne fortolke og forklare, hvorfor deres modeller træffer specifikke beslutninger og demonstrerer bestemte adfærdsmønstre. Nogle almindeligt anvendte fortolkningsteknikker:
- Funktionens vigtighed identificerer og rangerer de mest indflydelsesrige variabler eller "funktioner", der bruges af modellen til at foretage forudsigelser
- Delvise afhængighedspartier er grafer, der visualiserer relationen mellem en valgt variabel og et specifikt resultat, hvor alle andre variabler er konstante
SAP AI Ethics Handbook
Dette dybe dyk hjælper dig med at anvende SAP's globale politik for AI-etik på dit daglige arbejde med at opnå ansvarlig AI.
Hvorfor er ansvarlig AI vigtig?
AI har en dybtgående indvirkning på samfundet og har indflydelse på, hvordan vi arbejder og interagerer. Ansvarlig AI kan være en katalysator for innovation ved at tilskynde til nye, menneske-første tilgange til problemløsning og produktudvikling. Uansvarlig brug af AI udgør imidlertid betydelige risici, f.eks. forværring af uligheder og frembringelse af skadeligt indhold. Ved at overholde ansvarlige AI-principper og -praksis kan organisationer sikre, at deres AI-systemer udvikles og bruges på måder, der er etiske, ansvarlige og gavnlige for alle interessenter – det handler om at være ansvarlig.
Etiske krav til virksomheder og regeringer
Alle organisationer og enkeltpersoner skal opretholde høje etiske standarder i deres brug af AI. Ud over at opfylde lovkrav skal virksomheder og regeringer også prioritere databeskyttelse, gennemsigtighed og retfærdighed i deres AI-bestræbelser.
Samfundsmæssige forventninger til brug af etisk teknologi
Efterspørgslen efter ansvarlighed og gennemsigtighed fra teknologivirksomheder vokser i takt med, at AI bliver mere udbredt. Samfundet forventer, at AI-systemer bliver konstrueret til at respektere menneskerettighederne, tage mangfoldighed til sig og prioritere almenvellet.
Ansvarlige AI-fordele
Efterhånden som organisationer fremskynder deres anvendelse af AI, er det naturligt, at nogle måske ser ansvarlig AI som et fartbump – eller som noget, der skal implementeres senere. Men at etablere vejledende principper, før du starter store AI-projekter, er afgørende for at hjælpe med at forhindre teknologifejl, skade på mennesker og skade på omdømmet.
Konkurrencefordel
Organisationer kan positionere sig som førende inden for etisk innovation og tiltrække kunder, der prioriterer etiske værdier i deres indkøbsbeslutninger. Ud over effektivitets- og innovationsfordelene ved AI giver ansvarlig brug virksomheder mulighed for at implementere AI med mindre risiko end konkurrenter, der ikke gør.
Omkostningsbesparelser og effektivitet
Proaktiv håndtering af AI-fordomme og sikring af nøjagtigheden af modeldata kan hjælpe med at forhindre skade på mennesker, dyre fejl og forbedre effektiviteten. Desuden er gennemsigtige og forklarbare AI-modeller normalt mere nøjagtige end dem, der ikke er.
Forbedret tillid til brand
En åben kommunikation om, hvordan AI-systemer designes, implementeres og styres, viser et engagement i etiske værdier og kundetrivsel. Dette kan øge opfattelsen af brand, kundeloyalitet og hjælpe med at opbygge tillid til kunder og partnere.
Forbedret beslutningstagning
Ved at identificere og afbøde skævheder i data og algoritmer kan organisationer være mere sikre på, at AI-drevet indsigt og anbefalinger er nøjagtige, retfærdige og i overensstemmelse med etiske standarder. Denne fordel gælder på tværs af forskellige forretningsfunktioner, herunder produktudvikling, kundeservice og strategisk planlægning.
Risikoreduktion
Tilfælde af kunstig intelligens, brud på datasikkerheden eller uetisk implementering kan skade en organisations omdømme og føre til dyre retssager. At overholde ansvarlige AI-principper kan hjælpe med at undgå disse risici.
Ansvarlige AI-udfordringer
At skabe et sæt ansvarlige AI-principper er blot det første skridt til at etablere den nødvendige tankegang og operationelle tilgang til at skabe og implementere AI ansvarligt. Her er nogle af udfordringerne ved ansvarlig AI:
AI-bias: Identifikation og afhjælpning
AI-systemer kan afspejle eller forstærke eksisterende skævheder i deres træningsdata, hvilket potentielt kan føre til urimelige resultater i ansøgninger som jobansættelse eller godkendelse af lån. For at mindske disse skævheder skal organisationer sørge for, at deres datasæt er forskellige, udføre regelmæssige revisioner og anvende algoritmer til modvirkning af skævheder.
AI-governance: Sikring af etisk overholdelse
Uden en robust AI-styringsramme kan organisationer stå over for problemer med beskyttelse af personlige oplysninger, sikkerhed og kontrol. Etablering af klare politikker, omfavnelse af gennemsigtighed og inddragelse af interessenter er afgørende for at opretholde overholdelse og ansvarlighed i AI-systemer.
Overholdelse af lovgivningen og standardisering
Den hurtige udvikling af AI har overgået mange lovgivningsmæssige rammer, hvilket skaber et hul, der kan føre til etiske overtrædelser. Adaptive juridiske rammer og internationalt samarbejde er nødvendige for at hjælpe med at sikre, at AI-systemer er bygget til at overholde opdaterede forskrifter og standarder.
Skalerbarhed af etiske AI-praksisser
Skalering af etisk AI praksis er udfordrende, især for organisationer, der mangler ressourcer eller ekspertise. Uddannelse af AI-fagfolk i etik og brug af teknologi til at automatisere etiske kontroller kan hjælpe med at skalere ansvarlig praksis effektivt.
Skadelig brug af AI
Spredning af misinformation, uautoriseret overvågning og diskriminerende profilering er spørgsmål, der giver anledning til alvorlig bekymring. For at imødegå disse risici er det nødvendigt med strenge lovgivningsmæssige foranstaltninger, strenge etiske retningslinjer og kontinuerligt menneskeligt tilsyn.
Ansvarlige AI-anvendelseseksempler
Sundhedssektor: Forbedring af diagnostisk nøjagtighed
AI kan hjælpe klinikere til at diagnosticere sygdomme mere præcist fra medicinske billeder. Ved at sikre en model for retfærdighed og gennemsigtighed kan brugen af AI føre til mere retfærdige sundhedsresultater på tværs af forskellige demografier.
Finans: Retfærdige långivningsbeslutninger
Ved aktivt at overvåge og justere kreditscoringsalgoritmer for at eliminere AI-fordomme kan banker og udlånsinstitutter give mere lige adgang til finansielle produkter, hvilket mindsker forskelsbehandlingen.
Detailhandel: Personlige kundeoplevelser
Generativ AI giver detailhandlere mulighed for at oprette meget personaliseret indhold og produktanbefalinger. Ved at være gennemsigtige om, hvordan de bruger denne teknologi, kan detailhandlere opbygge dybere tillid til forbrugerne, hvilket fører til øget loyalitet og salg.
Biler: Sikrere køretøjer
Gennem streng test og overholdelse af etiske AI-standarder sigter producenterne mod at reducere ulykker og forbedre trafiksikkerheden.
Menneskelige ressourcer: Biasfri rekruttering
Ved at anvende algoritmer, der regelmæssigt revideres for retfærdighed, kan HR-afdelinger træffe mere upartiske ansættelsesbeslutninger, fremme diversitet og inklusion på arbejdspladsen.
Typer af ansvarlig AI
Ud over etisk AI og troværdig AI er der flere andre typer ansvarlig AI:
Bæredygtig AI fokuserer på at udvikle AI-teknologier på en miljøvenlig måde. Dette omfatter optimering af energiforbruget af systemer, brug af grønnere infrastruktur og hensyntagen til de livscykluseffekter, som AI-implementeringer har for at minimere CO2-fodaftryk og miljøpåvirkning.
AI, der overholder lovgivningen, har til formål at sikre, at alle AI-operationer og -teknologi overholder relevante love og bestemmelser. Denne type ansvarlig AI er afgørende i stærkt regulerede industrier som finansiering og sundhedspleje, hvor overholdelse af juridiske standarder er lige så vigtigt som teknisk ydeevne.
Menneskeligt centreret AI prioriterer menneskelige værdier og velfærd, der inddrager interessenter i udviklingsprocessen og fokuserer på teknologier, der øger mennesker uden at erstatte dem.
Ofte stillede spørgsmål
SAP AI Ethics Handbook
Udvid din forståelse af ansvarlige AI-koncepter, herunder gennemsigtighed, humant bureau og modelskævheder.