Wat is AI-ethiek?
AI-ethiek verwijst naar de principes die het gedrag van AI bepalen in termen van menselijke waarden. AI-ethiek helpt ervoor te zorgen dat AI wordt ontwikkeld en gebruikt op manieren die gunstig zijn voor de samenleving. Het omvat een breed scala aan overwegingen, waaronder eerlijkheid, transparantie, verantwoordingsplicht, privacy, veiligheid en de potentiële maatschappelijke effecten.
default
{}
default
{}
primary
default
{}
secondary
Inleiding tot AI-ethiek
AI-ethiek is een kracht voor goed die oneerlijke vooroordelen helpt te beperken, barrières voor toegankelijkheid wegneemt en creativiteit vergroot, naast vele andere voordelen. Omdat organisaties steeds meer afhankelijk zijn van AI voor beslissingen die mensenlevens beïnvloeden, is het van cruciaal belang dat ze rekening houden met de complexe ethische implicaties, omdat misbruik van AI schadelijk kan zijn voor individuen en de samenleving, en voor de bedrijfsresultaten en reputaties.
In dit artikel onderzoeken we:
- Gemeenschappelijke principes, termen en definities van AI-ethiek
- Ethische AI-principes voor een organisatie creëren
- Wie is verantwoordelijk voor AI-ethiek?
- Training, governance en technische processen op het gebied van AI-ethiek implementeren
- Ethische use cases en implementaties van AI
- Enkele leidende autoriteiten op het gebied van de ethiek van AI
Voorbeelden van ethische AI-principes
Het welzijn van mensen staat centraal in elke discussie over de ethiek van AI. Hoewel AI-systemen kunnen worden ontworpen om moraliteit en ethiek te prioriteren, zijn mensen uiteindelijk verantwoordelijk voor ethisch ontwerp en gebruik, en om in te grijpen wanneer dat nodig is.
Er is geen enkele, universeel overeengekomen reeks ethische AI-principes. Veel organisaties en overheidsinstanties overleggen met deskundigen op het gebied van ethiek, recht en AI om hun leidende principes te creëren. Deze beginselen hebben gewoonlijk betrekking op:
- Menselijk welzijn en menselijke waardigheid: AI-systemen moeten altijd prioriteit geven aan en zorgen voor het welzijn, de veiligheid en de waardigheid van individuen, zonder de mens te vervangen of het menselijk welzijn in gevaar te brengen
- Menselijk toezicht: AI heeft menselijke monitoring nodig in elke fase van ontwikkeling en gebruik – soms “een mens in de loop” genoemd – om ervoor te zorgen dat de uiteindelijke ethische verantwoordelijkheid berust bij een mens
- Bestrijding van vooroordelen en discriminatie: ontwerpprocessen moeten prioriteit geven aan billijkheid, gelijkheid en vertegenwoordiging om vooroordelen en discriminatietegen te gaan
- Transparantie en uitlegbaarheid: hoe AI-modellen specifieke beslissingen nemen en specifieke resultaten opleveren, moet transparant en uitlegbaar zijn in duidelijke taal
- Handhaving van de privacy en bescherming van data: AI-systemen moeten voldoen aan de strengste normen voor gegevensbescherming, met behulp van robuuste cyberbeveiligingsmethoden om datalekken en ongeautoriseerde toegang te voorkomen
- Bevordering van inclusiviteit en diversiteit: AI-technologieën moeten het enorme scala aan menselijke identiteiten en ervaringenweerspiegelen en respecteren
- Maatschappij en economieën: AI moet maatschappelijke vooruitgang en economische welvaart voor alle mensen stimuleren, zonder ongelijkheid of oneerlijke praktijken te bevorderen
- Digitale vaardigheden en geletterdheid verbeteren: AI-technologieën moeten ernaar streven toegankelijk en begrijpelijk te zijn voor iedereen, ongeacht iemands digitale vaardigheden
- De gezondheid van bedrijven: AI-bedrijfstechnologieën moeten processen versnellen, efficiëntie maximaliseren en groei bevorderen
AI-ethiek: termen en definities
Als snijpunt van ethiek en hightech gebruiken gesprekken over ethische AI vaak vocabulaire uit beide velden. Inzicht in deze woordenschat is belangrijk om de ethiek van AI te kunnen bespreken:
-
AI: Het vermogen van een machine om cognitieve functies uit te voeren die we associëren met menselijke geesten, zoals waarnemen, redeneren, leren en het oplossen van problemen. Er zijn twee hoofdtypen AI-systemen en sommige systemen zijn een combinatie van beide:
- Op regels gebaseerde AI, ook wel deskundige AI genoemd, gedraagt zich volgens een set volledig gedefinieerde regels die zijn gemaakt door menselijke experts. Bijvoorbeeld: veel e-commerceplatforms gebruiken op regels gebaseerde AI om productaanbevelingen te bieden.
- AI op basis van leren lost problemen op en past zijn functionaliteit op zichzelf aan, op basis van de initiële door de mens ontworpen configuratie- en trainingsdataset -generatieve AI-tools zijn voorbeelden van leergebaseerde AI
AI-ethiek: een reeks waarden, principes en technieken die breed geaccepteerde normen van goed en fout gebruiken om moreel gedrag te sturen bij de ontwikkeling, implementatie, het gebruik en de verkoop van AI-technologieën.
AI-model: een wiskundig framework gecreëerd door mensen en getraind op data waarmee AI-systemen bepaalde taken kunnen uitvoeren door patronen te identificeren, beslissingen te nemen en resultaten te voorspellen. Veelvoorkomende toepassingen zijn onder andere beeldherkenning en taalvertaling.
AI-systeem: een complexe structuur van algoritmen en modellen die is ontworpen om menselijke redenering na te bootsen en taken autonoom uit te voeren.
Agentschap: het vermogen van individuen om onafhankelijk te handelen en vrije keuzes te maken.
Bias: een neiging of vooroordeel voor of tegen een persoon of groep, vooral op een wijze die als oneerlijk wordt beschouwd. Biases in trainingsgegevens, zoals de onder- of overweergave van gegevens die betrekking hebben op een bepaalde groep, kunnen ervoor zorgen dat AI op een bevooroordeelde manier handelt.
Uitleg: De mogelijkheid om de vraag te beantwoorden: “Wat deed de machine om zijn output te bereiken?” Explainability verwijst naar de technologische context van het AI-systeem, zoals de mechanica, regels en algoritmen, en trainingsgegevens.
Eerlijkheid: onpartijdige en rechtvaardige behandeling of gedrag zonder onrechtvaardig bevoordeling of discriminatie.
Mens-in-de-loop: het vermogen van mensen om in te grijpen in elke beslissingscyclus van een AI-systeem.
Interpretabiliteit: het vermogen voor mensen om de werkelijke context en impact van de output van een AI-systeem te begrijpen, zoals wanneer AI wordt gebruikt om een beslissing te nemen over het goedkeuren of afwijzen van een leningaanvraag.
Large Language Model (LLM): een type machine learning dat vaak wordt gebruikt in tekstherkennings- en genereringstaken.
Machine learning: een subset van AI die systemen de mogelijkheid biedt om automatisch te leren, te verbeteren vanuit ervaring en zich aan te passen aan nieuwe data zonder daarvoor expliciet te worden geprogrammeerd.
Normatief: een belangrijke context van praktische ethiek die zich bezighoudt met wat mensen en instellingen in bepaalde situaties “moeten” doen.
Transparantie: transparantie is het vermogen om uit te leggen hoe en waarom een AI-systeem wordt ontwikkeld, geïmplementeerd en gebruikt, en om die informatie zichtbaar en begrijpelijk te maken voor mensen.
Hoe principes voor AI-ethiek te implementeren
Voor organisaties is AI ethisch gebruiken meer dan alleen ethische principes invoeren; deze principes moeten worden geïntegreerd in alle technische en operationele AI-processen. Hoewel integratie van ethiek omslachtig kan lijken voor organisaties die snel AI invoeren, tonen echte gevallen van schade veroorzaakt door problemen in AI-modelontwerpen en -gebruik aan dat het negeren van de juiste ethiek riskant en duur kan zijn.
Wie is verantwoordelijk voor AI-ethiek?
Het korte antwoord: iedereen die betrokken is bij AI, inclusief bedrijven, overheden, consumenten en burgers.
De verschillende rollen van verschillende mensen in AI-ethiek
- Ontwikkelaars en onderzoekers spelen een cruciale rol bij het creëren van AI-systemen die prioriteit geven aan menselijk agentschap en toezicht, vooroordelen en discriminatie aanpakken en transparant en verklaarbaar zijn.
- Beleidsmakers en regelgevers stellen wet- en regelgeving vast om het ethische gebruik van AI te regelen en de rechten van individuen te beschermen.
- Bedrijfs- en brancheleiders zorgen ervoor dat hun organisaties ethische AI-principes hanteren, zodat ze AI gebruiken op manieren die een positieve bijdrage leveren aan de samenleving.
- Maatschappelijke organisaties pleiten voor ethisch gebruik van AI, spelen een rol in het toezicht en bieden ondersteuning aan getroffen gemeenschappen.
- Academische instellingen dragen bij door middel van onderwijs, onderzoek en de ontwikkeling van ethische richtlijnen.
- Eindgebruikers en betrokken gebruikers, zoals consumenten en burgers, hebben er belang bij ervoor te zorgen dat AI-systemen verklaarbaar, interpreteerbaar, eerlijk, transparant en gunstig zijn voor de samenleving.
De rol van bedrijfsleiders in AI-ethiek
Veel bedrijven richten commissies op onder leiding van hun senior leidinggevenden om hun beleid inzake AI-governance vorm te geven. Zo hebben we bij SAP een adviespanel en een stuurgroep voor AI-ethiek gevormd, bestaande uit ethische en technologische experts, om onze ethische AI-principes te integreren in onze producten en activiteiten. Deze beginselen geven prioriteit aan:
- Evenredigheid en geen schade berokkenen
- Veiligheid
- Rechtvaardigheid en geen discriminatie
- Duurzaamheid
- Recht op privacy en gegevensbeveiliging
- Menselijk toezicht en vastberadenheid
- Transparantie en uitlegbaarheid
- Verantwoordelijkheid en aansprakelijkheid
- Bewustwording en technische geletterdheid
- Multi-stakeholder, adaptief beheer en samenwerking
Een stuurgroep voor AI-ethiek vormen
Het instellen van een stuurgroep is van vitaal belang voor het beheer van de aanpak van een organisatie ten aanzien van de ethiek van AI en biedt verantwoordingsplicht en toezicht op het hoogste niveau. Deze commissie zorgt ervoor dat ethische overwegingen worden verweven met AI-ontwikkeling en -implementatie.
Best practices voor het vormen van een stuurgroep voor AI-ethiek
- Samenstelling en expertise: neem een diverse mix van belanghebbenden op met expertise op het gebied van AI, recht en ethiek. Externe adviseurs kunnen onbevooroordeelde perspectieven bieden.
- Het definiëren van het doel en de scope: definieer duidelijk de missie en doelstellingen van de commissie, gericht op ethisch AI-ontwerp, implementatie en werking. Dit moet in overeenstemming zijn met de bedrijfswaarden, eerlijkheid, transparantie en privacy.
- Rollen en verantwoordelijkheden definiëren: geef specifieke rollen aan voor de leden, zoals het ontwikkelen van een ethisch beleid voor AI, advies over ethische kwesties in AI-projecten en naleving van regelgeving.
- Doelen stellen: stel duidelijke, meetbare doelen, zoals het uitvoeren van een jaarlijkse ethische audit van AI-projecten en het bieden van driemaandelijkse ethische AI-training.
- Procedures opstellen: operationele procedures vaststellen, waaronder het voldoen aan schema's, documentatienormen en communicatieprotocollen om transparantie te behouden.
- Doorlopend onderwijs en aanpassing: blijf op de hoogte van nieuwe ontwikkelingen in AI-technologie, ethische normen en regelgeving via regelmatige training en conferenties.
Een beleid voor AI-ethiek maken
Het ontwikkelen van een AI-ethisch beleid is essentieel voor het begeleiden van AI-initiatieven binnen een organisatie. De stuurgroep is kritisch in dit proces en gebruikt haar uiteenlopende expertise om ervoor te zorgen dat het beleid zich houdt aan wetten, normen en bredere ethische principes.
Voorbeeldaanpak voor het maken van een AI-ethisch beleid
-
Het oorspronkelijke beleid opstellen: begin met het opstellen van een beleid dat de kernwaarden, wettelijke vereisten en best practices van de organisatie weerspiegelt. Dit eerste ontwerp zal als basis dienen voor verdere verfijning.
-
Raadpleging en input: betrek interne en externe belanghebbenden, waaronder AI-ontwikkelaars, bedrijfsleiders en ethici, om het beleid omvattend en representatief te maken voor meerdere perspectieven.
-
Integratie van interdisciplinaire inzichten: gebruik de verschillende achtergronden van commissieleden om inzichten uit technologie, ethiek, recht en het bedrijfsleven te integreren om de complexe aspecten van AI-ethiek aan te pakken.
-
Het definiëren van use cases met een hoog risico en red-line : Om de duidelijkheid te waarborgen, moet het comité aangeven welke AI-applicaties aanzienlijke risico's inhouden of als onethisch worden beschouwd en daarom verboden zijn. De SAP Steering Committee categoriseert deze bijvoorbeeld als volgt:
- Risico's: deze categorie omvat toepassingen die op welke manier dan ook schadelijk kunnen zijn en omvat toepassingen die verband houden met rechtshandhaving, migratie en democratische processen, evenals toepassingen die betrekking hebben op persoonsgegevens, geautomatiseerde besluitvorming of die gevolgen hebben voor het sociale welzijn. Deze moeten grondig worden beoordeeld door de commissie voordat ze worden ontwikkeld, geïmplementeerd of verkocht.
- Red line: toepassingen die toezicht door de mens mogelijk maken, discriminatie, deanonimisering van gegevens die leiden tot individuele of groepsidentificatie, of die de publieke opinie manipuleren of democratische debatten ondermijnen, zijn verboden. SAP acht dit hoogst onethisch en verbiedt de ontwikkeling, implementatie en verkoop ervan.
-
Evaluatie en herzieningen: het beleid voortdurend herzien op basis van feedback, zodat het relevant en praktisch blijft voor de echte wereld.
-
Afronding en goedkeuring: dien het voltooide beleid in voor definitieve goedkeuring door besluitvormers, zoals de raad van bestuur, ondersteund door een sterke aanbeveling van de commissie.
-
Tenuitvoerlegging en doorlopend toezicht: het comité moet de uitvoering van het beleid monitoren en periodiek actualiseren om rekening te houden met nieuwe technologische en ethische ontwikkelingen.
Een compliance-controleproces opzetten
Het ontwikkelen van effectieve conformiteitsbeoordelingsprocessen is essentieel om ervoor te zorgen dat AI-implementaties voldoen aan het ethisch beleid en de regelgeving van de organisatie op het gebied van AI. Deze processen helpen bij het opbouwen van vertrouwen met gebruikers en regelgevers en dienen om risico's te beperken en ethische praktijken in AI-projecten te handhaven.
Typische compliance-controleprocessen
- Een gestandaardiseerd evaluatiekader ontwikkelen: formuleer een uitgebreid kader dat procedures definieert voor het beoordelen van AI-projecten op ethische richtlijnen, wettelijke normen en operationele vereisten.
- Risicoclassificatie: classificeer AI-projecten op ethische en wettelijke risico's. Projecten met een hoog risico, zoals projecten die gevoelige persoonsgegevens verwerken of die aanzienlijke gevolgen hebben voor de besluitvorming, vereisen een hoge mate van controle.
- Regelmatige audits en beoordelingen: voer regelmatige audits uit om de voortdurende naleving te verifiëren, waarbij zowel geautomatiseerde controles als handmatige controles door interdisciplinaire teams betrokken zijn.
- Betrokkenheid van belanghebbenden: een diverse groep belanghebbenden bij het evaluatieproces betrekken, waaronder ethici, juridische deskundigen, datawetenschappers en eindgebruikers, om potentiële risico's en ethische dilemma's te signaleren.
- Documentatie en transparantie: houd gedetailleerde gegevens bij van alle complianceactiviteiten, zodat deze toegankelijk en duidelijk zijn voor zowel interne als externe audits
- Feedback- en escalatiemechanismen: implementeer duidelijke procedures voor rapportage en het aanpakken van ethische zorgen en nalevingsproblemen
Technische implementatie van AI-ethiek
Het integreren van ethische overwegingen in AI-ontwikkeling omvat het aanpassen van de huidige technologiepraktijken om ervoor te zorgen dat systemen op een verantwoorde manier worden gebouwd en geïmplementeerd. Naast het vaststellen van ethische AI-principes creëren organisaties soms ook verantwoorde AI-principes, die meer gericht kunnen zijn op hun specifieke branche- en technische use cases.
Belangrijkste technische vereisten voor ethische AI-systemen
Biasdetectie en -beperking: gebruik verschillende datasets en statistische methoden om vooroordelen in AI-modellen op te sporen en te corrigeren. Regelmatige audits uitvoeren om vooroordelen te controleren.
Transparantie en uitlegbaarheid: ontwikkel systemen die gebruikers gemakkelijk kunnen begrijpen en verifiëren, met behulp van methoden zoals functiescores, beslissingsstructuren en model-agnostische verklaringen om de transparantie te verbeteren.
Gegevensprivacy en -beveiliging: zorg ervoor dat data in AI-systemen veilig worden beheerd en voldoen aan privacywetgeving. Systemen moeten encryptie, anonimisering en beveiligde protocollen gebruiken om de integriteit van gegevens te waarborgen.
Robuust en betrouwbaar ontwerp: AI-systemen moeten duurzaam en betrouwbaar zijn onder verschillende omstandigheden, met uitgebreide tests en validatie om onverwachte scenario's effectief af te handelen.
Continue bewaking en updates: blijf doorlopend monitoren om AI-prestaties en ethische compliance te beoordelen, en werk systemen waar nodig bij op basis van nieuwe gegevens of wijzigingen in de omstandigheden.
Betrokkenheid en feedback van belanghebbenden: betrek belanghebbenden, zoals eindgebruikers, ethici en domeinexperts, bij de ontwerp- en ontwikkelingsprocessen om feedback te verzamelen en ervoor te zorgen dat het systeem in overeenstemming is met ethische en operationele vereisten.
Opleiding van de organisatie in de ethiek van AI
Uitgebreide training is cruciaal om ervoor te zorgen dat werknemers AI-ethiek begrijpen en op een verantwoorde manier met AI-technologieën kunnen werken. Training dient ook om de integriteit en effectiviteit van de AI-tools en -oplossingen van de organisatie te verbeteren.
Belangrijkste componenten van een effectief AI-trainingscurriculum
- Uitgebreide curriculumontwikkeling: gebruik een trainingscurriculum dat zich richt op basisprincipes van AI, ethische overwegingen, complianceproblemen en praktische toepassingen, afgestemd op verschillende organisatorische rollen, van technisch personeel tot management.
- Rolspecifieke trainingsmodules: zorg voor trainingsmodules die zijn afgestemd op de unieke behoeften en verantwoordelijkheden van verschillende afdelingen. Ontwikkelaars kunnen zich bijvoorbeeld richten op ethische coderingspraktijken, terwijl sales- en marketingteams meer te weten komen over de implicaties van AI in klantinteracties.
- Continu leren en updates: AI ontwikkelt zich snel, dus het is belangrijk om trainingsprogramma's up-to-date te houden met de nieuwste ontwikkelingen en best practices.
- Interactieve en praktische leerervaringen: gebruik casestudy's, simulaties en workshops om toepassingen uit de praktijk en ethische uitdagingen te illustreren om theoretische kennis met praktische ervaring te ondersteunen.
- Beoordeling en certificering: voer beoordelingen uit om het begrip en de bekwaamheid van werknemers in de ethiek van AI te meten en overweeg certificering aan te bieden om continue verbetering te herkennen en te motiveren.
- Feedbackmechanismen: stel feedbackkanalen in voor werknemers om bij te dragen aan de voortdurende verfijning van trainingsprogramma's, zodat deze voldoen aan de veranderende behoeften van de organisatie.
Use cases voor AI-ethiek voor verschillende rollen in de organisatie
Iedereen in een organisatie die werkt met AI-gestuurde applicaties, of met AI-antwoordsystemen, moet bedacht zijn op het risico van AI-bias en verantwoord te werk gaan. Voorbeelden van use cases voor AI-ethiek voor verschillende rollen of afdelingen in bedrijven zijn:
- Datawetenschappers of ingenieurs op het gebied van machine learning: in deze rollen wordt aanbevolen om methoden voor het opsporen en beperken van vooroordelen op te nemen, ervoor te zorgen dat modellen uitlegbaar zijn en het model te verbeteren. Hierbij gaat het om technieken als eerlijkheidsmetrieken en contrafeitelijke analyse.
- Productmanagers of bedrijfsanalisten: verantwoordelijkheden op het gebied van AI-ethiek kunnen variëren van ethische risicobeoordelingen, het prioriteren van gebruikersgericht ontwerp en het ontwikkelen van duidelijke communicatiestrategieën om AI-systemen aan gebruikers en belanghebbenden uit te leggen. Hierbij moet rekening worden gehouden met mogelijke maatschappelijke effecten, gebruikersbehoeften en moet er door middel van transparantie vertrouwen worden opgebouwd.
- Juridische en complianceafdeling: kritieke use cases zijn naleving van relevante regelgeving (bijvoorbeeld wetgeving inzake dataprivacy), het beheren van juridische en reputatierisico's in verband met AI en het ontwikkelen van strategieën om aansprakelijkheid als gevolg van algoritmische vooroordelen of onbedoelde gevolgen te beperken.
- HR-professionals: de HR-afdeling moet werken met AI-gestuurde wervingstools die vrij zijn van vooringenomenheid en voldoen aan antidiscriminatiewetgeving. Taken omvatten audit-algoritmen, het implementeren van mens-in-de-loop systemen en het geven van training over ethische AI-wervingspraktijken.
Autoriteiten op het gebied van AI-ethiek
AI-ethiek is complex, vormgegeven door veranderende regelgeving, wettelijke normen, branchespecifieke praktijken en technologische ontwikkelingen. Organisaties moeten op de hoogte blijven van beleidswijzigingen die van invloed kunnen zijn op hen, en ze moeten samenwerken met relevante belanghebbenden om te bepalen welk beleid op hen van toepassing is. De onderstaande lijst is niet uitputtend, maar geeft een beeld van het scala aan beleidsmiddelen dat organisaties moeten zoeken op basis van hun branche en regio.
Voorbeelden van instanties en middelen op het gebied van AI-ethiek
Rapport ACET Artificial Intelligence for Economic Policymaking: Dit onderzoek van het African Center for Economic Transformation beoordeelt de economische en ethische overwegingen van AI met het oog op het informeren van inclusief en duurzaam economisch, financieel en industrieel beleid in Afrika.
AlgorithmWatch: Een mensenrechtenorganisatie die instrumenten verdedigt en ontwikkelt voor het creëren en gebruiken van algoritmische systemen die de democratie, de rechtsstaat, vrijheid, autonomie, rechtvaardigheid en gelijkheid beschermen.
ASEAN Guide on AI Governance and Ethics: Een praktische gids voor lidstaten in de Associatie van Zuidoost-Aziatische Naties om AI-technologieën ethisch en productief te ontwerpen, ontwikkelen en implementeren.
AI Watch van de Europese Commissie: het Joint Research Centre van de Europese Commissie biedt advies voor het creëren van betrouwbare AI-systemen, inclusief landspecifieke rapporten en dashboards om de ontwikkeling, het gebruik en de impact van AI voor Europa te bewaken
NTIA AI Accountability Report: In dit rapport van de National Telecommunications and Information Administration worden vrijwillige, regelgevende en andere maatregelen voorgesteld om juridische en betrouwbare AI-systemen in de Verenigde Staten te helpen garanderen.
OESO AI-principes: Dit forum van landen en groepen belanghebbenden werkt aan het vormgeven van betrouwbare AI. In 2019 faciliteerde het de OESO AI-principes, de eerste intergouvernementele norm voor AI. Deze principes dienden ook als basis voor de G20 AI Principles.
Aanbeveling van UNESCO inzake de ethiek van kunstmatige intelligentie: Het aanbevelingskader van dit agentschap van de Verenigde Naties werd door 193 lidstaten aangenomen na een wereldwijd raadplegingsproces van twee jaar met deskundigen en belanghebbenden.
Conclusie
Concluderend is dat de ontwikkeling en implementatie van ethische AI een veelzijdige aanpak vereisen. Als organisatie wordt aanbevolen om duidelijke ethische principes vast te stellen, deze te integreren in AI-ontwikkelingsprocessen en te zorgen voor voortdurende compliance door middel van robuuste governance- en trainingsprogramma's. Door prioriteit te geven aan mensgerichte waarden zoals eerlijkheid, transparantie en verantwoordingsplicht, kunnen bedrijven de kracht van AI op een verantwoorde manier benutten, innovatie stimuleren en tegelijkertijd potentiële risico's beperken en ervoor zorgen dat deze technologieën de samenleving als geheel ten goede komen.
SAP resources
Meer use cases en begeleiding op het gebied van AI-ethiek
Krijg diepgaande begeleiding voor het implementeren van ethische AI-praktijken in het SAP AI Ethics Handbook.