flex-height
text-black

Ingenieurs en wetenschappers werken aan een prototype van een bionics-exoskelet

Wat is AI-ethiek?

AI-ethiek verwijst naar de principes die het gedrag van AI bepalen in termen van menselijke waarden. AI-ethiek helpt ervoor te zorgen dat AI wordt ontwikkeld en gebruikt op manieren die gunstig zijn voor de samenleving. Het omvat een breed scala aan overwegingen, waaronder eerlijkheid, transparantie, verantwoordingsplicht, privacy, veiligheid en de potentiële maatschappelijke effecten.

default

{}

default

{}

primary

default

{}

secondary

Inleiding tot AI-ethiek

Stel je een AI-systeem voor dat de waarschijnlijkheid van toekomstig crimineel gedrag voorspelt en door rechters wordt gebruikt om de lengte van straffen te bepalen. Wat gebeurt er als dit systeem onevenredig gericht is op bepaalde demografische groepen?

AI-ethiek is een kracht voor goed die oneerlijke vooroordelen helpt te beperken, barrières voor toegankelijkheid wegneemt en creativiteit vergroot, naast vele andere voordelen. Omdat organisaties steeds meer afhankelijk zijn van AI voor beslissingen die mensenlevens beïnvloeden, is het van cruciaal belang dat ze rekening houden met de complexe ethische implicaties, omdat misbruik van AI schadelijk kan zijn voor individuen en de samenleving, en voor de bedrijfsresultaten en reputaties.

In dit artikel onderzoeken we:

Voorbeelden van ethische AI-principes

Het welzijn van mensen staat centraal in elke discussie over de ethiek van AI. Hoewel AI-systemen kunnen worden ontworpen om moraliteit en ethiek te prioriteren, zijn mensen uiteindelijk verantwoordelijk voor ethisch ontwerp en gebruik, en om in te grijpen wanneer dat nodig is.

Er is geen enkele, universeel overeengekomen reeks ethische AI-principes. Veel organisaties en overheidsinstanties overleggen met deskundigen op het gebied van ethiek, recht en AI om hun leidende principes te creëren. Deze beginselen hebben gewoonlijk betrekking op:

AI-ethiek: termen en definities

Als snijpunt van ethiek en hightech gebruiken gesprekken over ethische AI vaak vocabulaire uit beide velden. Inzicht in deze woordenschat is belangrijk om de ethiek van AI te kunnen bespreken:

AI-ethiek: een reeks waarden, principes en technieken die breed geaccepteerde normen van goed en fout gebruiken om moreel gedrag te sturen bij de ontwikkeling, implementatie, het gebruik en de verkoop van AI-technologieën.

AI-model: een wiskundig framework gecreëerd door mensen en getraind op data waarmee AI-systemen bepaalde taken kunnen uitvoeren door patronen te identificeren, beslissingen te nemen en resultaten te voorspellen. Veelvoorkomende toepassingen zijn onder andere beeldherkenning en taalvertaling.

AI-systeem: een complexe structuur van algoritmen en modellen die is ontworpen om menselijke redenering na te bootsen en taken autonoom uit te voeren.

Agentschap: het vermogen van individuen om onafhankelijk te handelen en vrije keuzes te maken.

Bias: een neiging of vooroordeel voor of tegen een persoon of groep, vooral op een wijze die als oneerlijk wordt beschouwd. Biases in trainingsgegevens, zoals de onder- of overweergave van gegevens die betrekking hebben op een bepaalde groep, kunnen ervoor zorgen dat AI op een bevooroordeelde manier handelt.

Uitleg: De mogelijkheid om de vraag te beantwoorden: “Wat deed de machine om zijn output te bereiken?” Explainability verwijst naar de technologische context van het AI-systeem, zoals de mechanica, regels en algoritmen, en trainingsgegevens.

Eerlijkheid: onpartijdige en rechtvaardige behandeling of gedrag zonder onrechtvaardig bevoordeling of discriminatie.

Mens-in-de-loop: het vermogen van mensen om in te grijpen in elke beslissingscyclus van een AI-systeem.

Interpretabiliteit: het vermogen voor mensen om de werkelijke context en impact van de output van een AI-systeem te begrijpen, zoals wanneer AI wordt gebruikt om een beslissing te nemen over het goedkeuren of afwijzen van een leningaanvraag.

Large Language Model (LLM): een type machine learning dat vaak wordt gebruikt in tekstherkennings- en genereringstaken.

Machine learning: een subset van AI die systemen de mogelijkheid biedt om automatisch te leren, te verbeteren vanuit ervaring en zich aan te passen aan nieuwe data zonder daarvoor expliciet te worden geprogrammeerd.

Normatief: een belangrijke context van praktische ethiek die zich bezighoudt met wat mensen en instellingen in bepaalde situaties “moeten” doen.

Transparantie: transparantie is het vermogen om uit te leggen hoe en waarom een AI-systeem wordt ontwikkeld, geïmplementeerd en gebruikt, en om die informatie zichtbaar en begrijpelijk te maken voor mensen.

Hoe principes voor AI-ethiek te implementeren

Voor organisaties is AI ethisch gebruiken meer dan alleen ethische principes invoeren; deze principes moeten worden geïntegreerd in alle technische en operationele AI-processen. Hoewel integratie van ethiek omslachtig kan lijken voor organisaties die snel AI invoeren, tonen echte gevallen van schade veroorzaakt door problemen in AI-modelontwerpen en -gebruik aan dat het negeren van de juiste ethiek riskant en duur kan zijn.

Wie is verantwoordelijk voor AI-ethiek?

Het korte antwoord: iedereen die betrokken is bij AI, inclusief bedrijven, overheden, consumenten en burgers.

De verschillende rollen van verschillende mensen in AI-ethiek

Wat menselijke stakeholders nodig hebben om de infographic te begrijpen

De rol van bedrijfsleiders in AI-ethiek

Veel bedrijven richten commissies op onder leiding van hun senior leidinggevenden om hun beleid inzake AI-governance vorm te geven. Zo hebben we bij SAP een adviespanel en een stuurgroep voor AI-ethiek gevormd, bestaande uit ethische en technologische experts, om onze ethische AI-principes te integreren in onze producten en activiteiten. Deze beginselen geven prioriteit aan:

Een stuurgroep voor AI-ethiek vormen

Het instellen van een stuurgroep is van vitaal belang voor het beheer van de aanpak van een organisatie ten aanzien van de ethiek van AI en biedt verantwoordingsplicht en toezicht op het hoogste niveau. Deze commissie zorgt ervoor dat ethische overwegingen worden verweven met AI-ontwikkeling en -implementatie.

Best practices voor het vormen van een stuurgroep voor AI-ethiek

Een beleid voor AI-ethiek maken

Het ontwikkelen van een AI-ethisch beleid is essentieel voor het begeleiden van AI-initiatieven binnen een organisatie. De stuurgroep is kritisch in dit proces en gebruikt haar uiteenlopende expertise om ervoor te zorgen dat het beleid zich houdt aan wetten, normen en bredere ethische principes.

Voorbeeldaanpak voor het maken van een AI-ethisch beleid

Risicoclassificatie & stroomdiagram beoordelingsproces

Een compliance-controleproces opzetten

Het ontwikkelen van effectieve conformiteitsbeoordelingsprocessen is essentieel om ervoor te zorgen dat AI-implementaties voldoen aan het ethisch beleid en de regelgeving van de organisatie op het gebied van AI. Deze processen helpen bij het opbouwen van vertrouwen met gebruikers en regelgevers en dienen om risico's te beperken en ethische praktijken in AI-projecten te handhaven.

Typische compliance-controleprocessen

Technische implementatie van AI-ethiek

Het integreren van ethische overwegingen in AI-ontwikkeling omvat het aanpassen van de huidige technologiepraktijken om ervoor te zorgen dat systemen op een verantwoorde manier worden gebouwd en geïmplementeerd. Naast het vaststellen van ethische AI-principes creëren organisaties soms ook verantwoorde AI-principes, die meer gericht kunnen zijn op hun specifieke branche- en technische use cases.

Belangrijkste technische vereisten voor ethische AI-systemen

Biasdetectie en -beperking: gebruik verschillende datasets en statistische methoden om vooroordelen in AI-modellen op te sporen en te corrigeren. Regelmatige audits uitvoeren om vooroordelen te controleren.

Transparantie en uitlegbaarheid: ontwikkel systemen die gebruikers gemakkelijk kunnen begrijpen en verifiëren, met behulp van methoden zoals functiescores, beslissingsstructuren en model-agnostische verklaringen om de transparantie te verbeteren.

Gegevensprivacy en -beveiliging: zorg ervoor dat data in AI-systemen veilig worden beheerd en voldoen aan privacywetgeving. Systemen moeten encryptie, anonimisering en beveiligde protocollen gebruiken om de integriteit van gegevens te waarborgen.

Robuust en betrouwbaar ontwerp: AI-systemen moeten duurzaam en betrouwbaar zijn onder verschillende omstandigheden, met uitgebreide tests en validatie om onverwachte scenario's effectief af te handelen.

Continue bewaking en updates: blijf doorlopend monitoren om AI-prestaties en ethische compliance te beoordelen, en werk systemen waar nodig bij op basis van nieuwe gegevens of wijzigingen in de omstandigheden.

Betrokkenheid en feedback van belanghebbenden: betrek belanghebbenden, zoals eindgebruikers, ethici en domeinexperts, bij de ontwerp- en ontwikkelingsprocessen om feedback te verzamelen en ervoor te zorgen dat het systeem in overeenstemming is met ethische en operationele vereisten.

Opleiding van de organisatie in de ethiek van AI

Uitgebreide training is cruciaal om ervoor te zorgen dat werknemers AI-ethiek begrijpen en op een verantwoorde manier met AI-technologieën kunnen werken. Training dient ook om de integriteit en effectiviteit van de AI-tools en -oplossingen van de organisatie te verbeteren.

Belangrijkste componenten van een effectief AI-trainingscurriculum

Use cases voor AI-ethiek voor verschillende rollen in de organisatie

Iedereen in een organisatie die werkt met AI-gestuurde applicaties, of met AI-antwoordsystemen, moet bedacht zijn op het risico van AI-bias en verantwoord te werk gaan. Voorbeelden van use cases voor AI-ethiek voor verschillende rollen of afdelingen in bedrijven zijn:

Autoriteiten op het gebied van AI-ethiek

AI-ethiek is complex, vormgegeven door veranderende regelgeving, wettelijke normen, branchespecifieke praktijken en technologische ontwikkelingen. Organisaties moeten op de hoogte blijven van beleidswijzigingen die van invloed kunnen zijn op hen, en ze moeten samenwerken met relevante belanghebbenden om te bepalen welk beleid op hen van toepassing is. De onderstaande lijst is niet uitputtend, maar geeft een beeld van het scala aan beleidsmiddelen dat organisaties moeten zoeken op basis van hun branche en regio.

Voorbeelden van instanties en middelen op het gebied van AI-ethiek

Rapport ACET Artificial Intelligence for Economic Policymaking: Dit onderzoek van het African Center for Economic Transformation beoordeelt de economische en ethische overwegingen van AI met het oog op het informeren van inclusief en duurzaam economisch, financieel en industrieel beleid in Afrika.

AlgorithmWatch: Een mensenrechtenorganisatie die instrumenten verdedigt en ontwikkelt voor het creëren en gebruiken van algoritmische systemen die de democratie, de rechtsstaat, vrijheid, autonomie, rechtvaardigheid en gelijkheid beschermen.

ASEAN Guide on AI Governance and Ethics: Een praktische gids voor lidstaten in de Associatie van Zuidoost-Aziatische Naties om AI-technologieën ethisch en productief te ontwerpen, ontwikkelen en implementeren.

AI Watch van de Europese Commissie: het Joint Research Centre van de Europese Commissie biedt advies voor het creëren van betrouwbare AI-systemen, inclusief landspecifieke rapporten en dashboards om de ontwikkeling, het gebruik en de impact van AI voor Europa te bewaken

NTIA AI Accountability Report: In dit rapport van de National Telecommunications and Information Administration worden vrijwillige, regelgevende en andere maatregelen voorgesteld om juridische en betrouwbare AI-systemen in de Verenigde Staten te helpen garanderen.

OESO AI-principes: Dit forum van landen en groepen belanghebbenden werkt aan het vormgeven van betrouwbare AI. In 2019 faciliteerde het de OESO AI-principes, de eerste intergouvernementele norm voor AI. Deze principes dienden ook als basis voor de G20 AI Principles.

Aanbeveling van UNESCO inzake de ethiek van kunstmatige intelligentie: Het aanbevelingskader van dit agentschap van de Verenigde Naties werd door 193 lidstaten aangenomen na een wereldwijd raadplegingsproces van twee jaar met deskundigen en belanghebbenden.

Conclusie

Concluderend is dat de ontwikkeling en implementatie van ethische AI een veelzijdige aanpak vereisen. Als organisatie wordt aanbevolen om duidelijke ethische principes vast te stellen, deze te integreren in AI-ontwikkelingsprocessen en te zorgen voor voortdurende compliance door middel van robuuste governance- en trainingsprogramma's. Door prioriteit te geven aan mensgerichte waarden zoals eerlijkheid, transparantie en verantwoordingsplicht, kunnen bedrijven de kracht van AI op een verantwoorde manier benutten, innovatie stimuleren en tegelijkertijd potentiële risico's beperken en ervoor zorgen dat deze technologieën de samenleving als geheel ten goede komen.

SAP logo

SAP resources

Meer use cases en begeleiding op het gebied van AI-ethiek

Krijg diepgaande begeleiding voor het implementeren van ethische AI-praktijken in het SAP AI Ethics Handbook.

Ga naar het handboek

Lees verder