Was ist KI-Ethik?
KI-Ethik bezieht sich auf die Grundsätze, die das Verhalten von KI in Bezug auf menschliche Werte regeln. KI-Ethik trägt dazu bei, dass KI so entwickelt und eingesetzt wird, dass sie der Gesellschaft zugute kommt. Sie umfasst eine Vielzahl von Aspekten, darunter Fairness, Transparenz, Rechenschaftspflicht, Datenschutz, Sicherheit und mögliche gesellschaftliche Auswirkungen.
default
{}
default
{}
primary
default
{}
secondary
Einführung in die KI-Ethik
KI-Ethik soll solchen Tendenzen entgegenwirken, indem sie unter anderem dazu beiträgt, unfaire Vorurteile abzubauen, Hindernisse für die Barrierefreiheit zu beseitigen und die Kreativität zu fördern. Da Unternehmen bei Entscheidungen mit Einfluss auf das Leben von Menschen zunehmend auf KI setzen, müssen sie den komplexen ethischen Implikationen Rechnung tragen, weil der Missbrauch von KI Einzelpersonen und der Gesellschaft Schaden zufügen kann – wie auch dem Gewinn und Ruf von Unternehmen.
In diesem Artikel werden wir uns mit folgenden Themen befassen:
- Allgemeine Grundsätze, Begriffe und Definitionen der KI-Ethik
- Festlegung ethischer KI-Grundsätze für ein Unternehmen
- Verantwortung für die KI-Ethik
- Implementierung von Schulungen, Governance und technischen Prozessen im Bereich KI-Ethik
- Anwendungsfälle und Implementierungen für ethische KI
- Einige führende Autoritäten auf dem Gebiet der KI-Ethik
Beispiele für ethische KI-Grundsätze
Im Mittelpunkt jeder Diskussion über KI-Ethik steht das Wohlergehen des Menschen. KI-Systeme können zwar so konzipiert werden, dass sie Moral und Ethik priorisieren, doch letztendlich sind Menschen dafür verantwortlich, eine ethische Konzeption und Nutzung sicherzustellen – und bei Bedarf einzugreifen.
Es gibt keine einheitlichen, allgemein anerkannten ethischen Grundsätze für KI. Viele Unternehmen und Behörden konsultieren Fachleute für Ethik, Recht und KI, um ihre Leitprinzipien zu formulieren. Diese Grundsätze behandeln in der Regel folgende Themen:
- Wohlergehen und Würde des Menschen: KI-Systeme sollten stets das Wohlergehen, die Sicherheit und die Würde des Einzelnen in den Vordergrund stellen und gewährleisten, ohne den Menschen zu ersetzen oder sein Wohlbefinden zu beeinträchtigen.
- Aufsicht durch den Menschen: KI muss in jeder Phase ihrer Entwicklung und Nutzung von Menschen überwacht werden – manchmal auch als „Human in the Loop“ bezeichnet –, um sicherzustellen, dass die letztendliche ethische Verantwortung beim Menschen liegt.
- Bekämpfung von Vorurteilen und Diskriminierung: Bei der Konzeption von Prozessen sollten Fairness, Gleichberechtigung und ausgewogene Repräsentation im Vordergrund stehen, um Vorurteile und Diskriminierung abzubauen.
- Transparenz und Erklärbarkeit: Wie KI-Modelle bestimmte Entscheidungen treffen und bestimmte Ergebnisse erzielen, sollte nachvollziehbar und mit einfachen Worten erklärbar sein.
- Wahrung des Datenschutzes und der Datensicherheit: KI-Systeme müssen strengste Datenschutz- und Datensicherheitsstandards erfüllen und robuste Methoden zur Cybersicherheit einsetzen, um Datenverletzungen und unbefugten Zugriff zu verhindern.
- Förderung von Inklusion und Diversität: KI-Technologien müssen die enorme Vielfalt menschlicher Identitäten und Erfahrungen widerspiegeln und respektieren.
- Gesellschaft und Wirtschaft: KI sollte den gesellschaftlichen Fortschritt und den wirtschaftlichen Wohlstand aller Menschen fördern, ohne Ungleichheit oder unfaire Praktiken zu begünstigen.
- Verbesserung der digitalen Kompetenzen und Kenntnisse: KI-Technologien sollten so ausgelegt sein, dass sie für alle zugänglich und verständlich sind, unabhängig von den digitalen Kompetenzen der einzelnen Personen.
- Geschäftserfolg: KI-Unternehmenstechnologien sollten Prozesse beschleunigen, Effizienz maximieren und Wachstum fördern.
Begriffe und Definitionen zur KI-Ethik
Angesichts der Überschneidungen zwischen Ethik und Hochtechnologie werden in Diskussionen über ethische KI häufig Begriffe aus beiden Bereichen verwendet. Das Verständnis dieses Vokabulars ist wichtig, um sich über ethische Fragen der KI austauschen zu können:
-
KI: Die Fähigkeit einer Maschine, kognitive Funktionen auszuführen, die wir mit dem menschlichen Verstand assoziieren, wie beispielsweise Wahrnehmen, Denken, Lernen und Lösen von Problemen. Es gibt zwei Haupttypen von KI-Systemen, wobei einige Systeme eine Kombination aus beiden darstellen:
- Regelbasierte KI, auch Experten-KI genannt, verhält sich gemäß einer Reihe vollständig definierter Regeln, die von menschlichen Fachleuten erstellt wurden. So nutzen beispielsweise viele E-Commerce-Plattformen regelbasierte KI, um Produktempfehlungen zu geben.
- Lernbasierte KI löst Probleme und passt ihre Funktionalität selbstständig an, basierend auf ihrer ursprünglichen, von Menschen entworfenen Konfiguration und ihrem Trainingsdatensatz – generative KI-Tools sind Beispiele für lernbasierte KI.
KI-Ethik: Werte, Grundsätze und Techniken, die allgemein anerkannte Standards für „richtig“ und „falsch“ anwenden, um moralisches Verhalten bei Entwicklung, Einsatz, Nutzung und Verkauf von KI-Technologien zu leiten.
KI-Modell: Ein von Menschen erstelltes mathematisches Rahmenwerk, das anhand von Daten trainiert wird und KI-Systemen ermöglicht, bestimmte Aufgaben auszuführen, indem sie Muster erkennen, Entscheidungen treffen und Ergebnisse vorhersagen. Zu den gängigen Anwendungsbereichen zählen unter anderem die Bilderkennung und die Sprachübersetzung.
KI-System: Eine komplexe Struktur aus Algorithmen und Modellen, die menschliches Denken nachahmen und Aufgaben autonom ausführen soll.
Handlungsfähigkeit: Die Fähigkeit von Individuen, unabhängig zu handeln und freie Entscheidungen zu treffen.
Voreingenommenheit: Eine Neigung oder ein Vorurteil gegenüber einer Person oder Gruppe, insbesondere in einer Weise, die als unfair gilt. Voreingenommenheit in Trainingsdaten – wie die Unter- oder Überrepräsentation von Daten, die sich auf eine bestimmte Gruppe beziehen – kann dazu führen, dass KI vorurteilsbehaftet handelt.
Erklärbarkeit: Die Fähigkeit, die Frage „Was hat die Maschine getan, um zu diesem Ergebnis zu kommen?“ zu beantworten. Erklärbarkeit bezieht sich auf den technologischen Kontext des KI-Systems, wie beispielsweise dessen Mechanismen, Regeln und Algorithmen sowie Trainingsdaten.
Fairness: Unparteiische und gerechte Behandlung oder Verhaltensweise ohne ungerechtfertigte Bevorzugung oder Diskriminierung.
Human-in-the-Loop: Die Möglichkeit des Menschen, in jeden Entscheidungszyklus eines KI-Systems einzugreifen.
Interpretierbarkeit: Die Fähigkeit von Menschen, den realen Kontext und die Auswirkungen der Ergebnisse eines KI-Systems zu verstehen, beispielsweise wenn KI zur Entscheidung über die Genehmigung oder Ablehnung eines Kreditantrags eingesetzt wird.
Großes Sprachmodell (Large Language Model, LLM): Eine Art des maschinellen Lernens, die häufig bei der Texterkennung und ‑erstellung verwendet wird.
Maschinelles Lernen (Machine Learning): Ein Teilbereich der KI, der Systemen die Fähigkeit verleiht, automatisch zu lernen, aus Erfahrungen besser zu werden und sich an neue Daten anzupassen, ohne dass sie dafür explizit programmiert wurden.
Normativ: Ein wichtiger Kontext der praktischen Ethik, der sich damit befasst, was Menschen und Institutionen in bestimmten Situationen tun „sollten“.
Transparenz: Im Zusammenhang mit der Erklärbarkeit ist Transparenz die Fähigkeit, zu begründen, wie und warum ein KI-System entwickelt, implementiert und verwendet wird, und diese Informationen für Menschen sichtbar und verständlich zu machen.
Implementierung der Grundsätze für KI-Ethik
Für Unternehmen bedeutet der ethische Einsatz von KI mehr als nur die Übernahme ethischer Grundsätze. Diese Grundsätze müssen in alle technischen und betrieblichen KI-Prozesse integriert werden. Die Einbindung von Ethik mag Unternehmen, die KI schnell einführen, mühsam erscheinen. Schadenfälle aus der Praxis, die Folge von Problemen bei der Konzeption und Nutzung von KI-Modellen sind, zeigen jedoch, dass es riskant und kostspielig sein kann, angemessene ethische Grundsätze zu vernachlässigen.
Wer ist für KI-Ethik verantwortlich?
Kurz gesagt: Alle, die mit KI zu tun haben, darunter Unternehmen, Regierungen, Konsumenten sowie Bürgerinnen und Bürger.
Die unterschiedlichen Rollen verschiedener Personen in der KI-Ethik
- Fachkräfte für Forschung und Entwicklung spielen eine entscheidende Rolle bei der Schaffung von KI-Systemen, die menschliches Handeln und Kontrolle in den Vordergrund stellen, Vorurteile und Diskriminierung bekämpfen sowie transparent und nachvollziehbar sind.
- Politische Entscheidungsträger und Regulierungsbehörden erlassen Gesetze und Vorschriften, um die ethische Nutzung von KI zu regeln und die Rechte des Einzelnen zu schützen.
- Führungskräfte stellen sicher, dass ihre Unternehmen ethische KI-Grundsätze befolgen und KI daher so einsetzen, dass sie einen positiven Beitrag für die Gesellschaft leistet.
- Zivilgesellschaftliche Organisationen setzen sich für den ethischen Einsatz von KI ein, übernehmen eine Kontrollfunktion und unterstützen betroffene Communitys.
- Akademische Einrichtungen leisten einen Beitrag durch Bildung, Forschung und die Entwicklung ethischer Richtlinien.
- Endbenutzer und betroffene Anwender wie Verbrauchergruppen und Bürgerinnen und Bürger haben ein Interesse daran, dass KI-Systeme erklärbar, interpretierbar, fair, transparent und nutzbringend für die Gesellschaft sind.
Die Rolle von Führungskräften in der KI-Ethik
Viele Unternehmen richten Ausschüsse unter der Leitung ihrer Führungskräfte ein, um ihre Richtlinien zur KI-Governance zu definieren. Bei SAP haben wir beispielsweise einen Beirat und einen Lenkungsausschuss für KI-Ethik gebildet, die sich aus Fachleuten aus den Bereichen Ethik und Technologie zusammensetzen, um unsere ethischen KI-Grundsätze in all unsere Produkte und Abläufe zu integrieren. Schwerpunkt dieser Grundsätze bilden:
- Verhältnismäßigkeit und Schadensverhütung
- Sicherheit und Schutz
- Fairness und Nichtdiskriminierung
- Nachhaltigkeit
- Recht auf Privatsphäre und Datenschutz
- Kontrolle und Entscheidungsgewalt durch den Menschen
- Transparenz und Nachvollziehbarkeit
- Verantwortlichkeit und Rechenschaftspflicht
- Bewusstsein und technische Kompetenzen
- Flexible Organisation und Zusammenarbeit unter Einbeziehung aller Interessengruppen
Einrichtung eines Lenkungsausschusses für KI-Ethik
Die Einrichtung eines Lenkungsausschusses ist für die Steuerung des Umgangs eines Unternehmens mit KI-Ethik von entscheidender Bedeutung und gewährleistet Verantwortlichkeit und Aufsicht auf höchster Ebene. Dieser Ausschuss stellt sicher, dass ethische Überlegungen in die Entwicklung und den Einsatz von KI einfließen.
Best Practices für die Einrichtung eines Lenkungsausschusses für KI-Ethik
- Zusammensetzung und Fachwissen: Einbeziehung einer vielfältigen Mischung von Interessengruppen mit Fachwissen in den Bereichen KI, Recht und Ethik. Durch externe Beratung fließen unvoreingenommene Perspektiven mit ein.
- Festlegung von Zweck und Umfang: Klare Definition der Aufgaben und Ziele des Ausschusses mit Schwerpunkt auf ethischer Gestaltung, Realisierung und Nutzung von KI. Dies sollte im Einklang mit den Unternehmenswerten, Fairness, Transparenz und Datenschutz stehen.
- Festlegung von Rollen und Verantwortlichkeiten: Legen Sie konkrete Aufgaben für die Mitglieder fest, z. B. die Entwicklung von Richtlinien zur KI-Ethik, die Beratung zu ethischen Fragen in KI-Projekten und die Sicherstellung der Einhaltung von Vorschriften.
- Festlegung von Zielen: Legen Sie klare, messbare Ziele fest, wie beispielsweise die Durchführung einer jährlichen Ethikprüfung von KI-Projekten und das Angebot vierteljährlicher Schulungen zum Thema ethische KI.
- Festlegen von Verfahren: Legen Sie operative Verfahren fest, darunter Besprechungspläne, Dokumentationsstandards und Kommunikationsprotokolle, um Transparenz zu gewährleisten.
- Fortlaufende Weiterbildung und Anpassung: Halten Sie sich durch regelmäßige Schulungen und Konferenzen über neue Entwicklungen in der KI-Technologie, ethische Standards und Vorschriften auf dem Laufenden.
Erstellung einer Richtlinie zur KI-Ethik
Die Entwicklung einer KI-Ethikrichtlinie ist für die Steuerung von KI-Initiativen innerhalb eines Unternehmens unerlässlich. Der Lenkungsausschuss spielt in diesem Prozess eine entscheidende Rolle und nutzt sein vielfältiges Fachwissen, um sicherzustellen, dass die Richtlinie Gesetzen, Standards und allgemeinen ethischen Grundsätzen entspricht.
Beispielansatz für die Erstellung einer KI-Ethikrichtlinie
-
Erstentwurf der Richtlinie: Beginnen Sie mit dem Entwurf einer Richtlinie, die die Grundwerte, gesetzlichen Anforderungen und Best Practices des Unternehmens widerspiegelt. Dieser erste Entwurf dient als Grundlage für die weitere Ausarbeitung.
-
Beratung und Input: Binden Sie interne und externe Stakeholder ein, darunter KI-Entwicklungskräfte, Führungskräfte aus der Wirtschaft und Ethikexperten, um die Richtlinie umfassend zu gestalten und sicherzustellen, dass sie unterschiedliche Perspektiven widerspiegelt.
-
Integration interdisziplinärer Erkenntnisse: Nutzen Sie die vielfältigen Hintergründe der Ausschussmitglieder, um Erkenntnisse aus den Bereichen Technologie, Ethik, Recht und Wirtschaft einfließen zu lassen und so den komplexen Aspekten der KI-Ethik Rechnung zu tragen.
-
Definition von Anwendungsfällen mit hohem Risiko und roten Linien: Um Klarheit zu gewährleisten, sollte der Ausschuss darlegen, welche KI-Anwendungen erhebliche Risiken bergen oder als unethisch gelten und daher unzulässig sind. Der SAP-Lenkungsausschuss kategorisiert diese beispielsweise wie folgt:
- Hohes Risiko: Diese Kategorie umfasst Anwendungen, die in irgendeiner Weise schädlich sein können, darunter Anwendungen im Zusammenhang mit Strafverfolgung, Migration und demokratischen Prozessen sowie Anwendungen, die personenbezogene Daten, automatisierte Entscheidungen oder das Wohl der Gesellschaft betreffen. Diese müssen vor ihrer Entwicklung, Einführung oder ihrem Verkauf einer gründlichen Bewertung durch den Ausschuss unterzogen werden.
- Rote Linie: Anwendungen, die die Überwachung von Menschen, Diskriminierung oder die Deanonymisierung von Daten zwecks Identifizierung von Einzelpersonen oder Gruppen ermöglichen oder die öffentliche Meinung manipulieren bzw. demokratische Debatten untergraben, sind nicht zulässig. SAP hält diese Einsatzzwecke für höchst unethisch und untersagt deren Entwicklung, Einsatz und Verkauf.
-
Überprüfung und Überarbeitung: Überprüfen und überarbeiten Sie die Richtlinie kontinuierlich auf der Grundlage von Feedback, um sicherzustellen, dass sie praxisrelevant und praktikabel bleibt.
-
Finalisierung und Genehmigung: Legen Sie die fertige Richtlinie den Entscheidungsträgern, z. B. dem Vorstand, zur endgültigen Genehmigung vor – mit einer nachdrücklichen Empfehlung des Ausschusses.
-
Umsetzung und laufende Überwachung: Der Ausschuss sollte die Umsetzung der Richtlinie überwachen und sie regelmäßig aktualisieren, um neuen technologischen und ethischen Entwicklungen Rechnung zu tragen.
Einführung eines Compliance-Prüfungsverfahrens
Die Entwicklung effektiver Prozesse zur Überprüfung der Compliance ist unerlässlich, um sicherzustellen, dass KI-Implementierungen den KI-Ethikrichtlinien und ‑vorschriften des Unternehmens entsprechen. Diese Prozesse tragen dazu bei, Vertrauen bei Benutzern und Regulierungsbehörden aufzubauen, Risiken zu mindern und ethische Praktiken in KI-Projekten zu befolgen.
Typische Prozesse der Compliance-Prüfung
- Entwicklung eines standardisierten Prüfungsrahmens: Formulieren Sie einen umfassenden Rahmen, der Verfahren zur Bewertung von KI-Projekten anhand ethischer Leitlinien, rechtlicher Standards und betrieblicher Anforderungen definiert.
- Risikoklassifizierung: Klassifizieren Sie KI-Projekte nach ihren ethischen und regulatorischen Risiken. Risikoreiche Projekte, wie beispielsweise solche, die sensible personenbezogene Daten verarbeiten oder erhebliche Auswirkungen auf Entscheidungsprozesse haben, erfordern ein hohes Maß an Kontrolle.
- Regelmäßige Audits und Bewertungen: Führen Sie regelmäßige Audits durch, um die fortlaufende Compliance zu überprüfen, wobei sowohl automatisierte Kontrollen als auch manuelle Überprüfungen durch interdisziplinäre Teams erfolgen sollten.
- Einbeziehung von Stakeholdern: Beziehen Sie eine vielfältige Gruppe von Stakeholdern in den Überprüfungsprozess ein, darunter Fachleute für Ethik und Recht, Data Scientists und Endbenutzer, um potenzielle Risiken und ethische Dilemmata zu erkennen.
- Dokumentation und Transparenz: Führen Sie detaillierte Aufzeichnungen über alle Compliance-Aktivitäten und stellen Sie sicher, dass diese für interne und externe Audits zugänglich und klar verständlich sind.
- Feedback- und Eskalationsmechanismen: Implementieren Sie klare Verfahren für die Meldung und Adressierung von ethischen Bedenken und Compliance-Problemen.
Technische Umsetzung von KI-Ethikpraktiken
Die Integration ethischer Überlegungen in die KI-Entwicklung umfasst die Anpassung bestehender technologischer Verfahren, um sicherzustellen, dass Systeme verantwortungsbewusst entwickelt und eingesetzt werden. Neben der Festlegung ethischer KI-Grundsätze erstellen Unternehmen manchmal auch Grundsätze für verantwortungsvolle KI, die stärker auf ihre spezifische Branche und technische Anwendungsfälle ausgerichtet sein können.
Wichtige technische Anforderungen an ethische KI-Systeme
Erkennung und Minderung von Voreingenommenheit: Verwenden Sie vielfältige Datensätze und statistische Methoden, um Voreingenommenheit in KI-Modellen zu erkennen und zu korrigieren. Führen Sie regelmäßige Audits durch, um Voreingenommenheit zu vermeiden.
Transparenz und Erklärbarkeit: Entwickeln Sie Systeme, die Benutzer leicht verstehen und verifizieren können, indem Sie Methoden wie Wichtigkeitsbewertungen von Features, Entscheidungsbäume und modellunabhängige Erklärungen einsetzen, um die Transparenz zu verbessern.
Datenschutz und ‑sicherheit: Stellen Sie sicher, dass Daten in KI-Systemen sicher verwaltet und die Datenschutzgesetze eingehalten werden. Systeme müssen Verschlüsselung, Anonymisierung und sichere Protokolle verwenden, um die Datenintegrität zu gewährleisten.
Robustes und zuverlässiges Design: KI-Systeme müssen unter verschiedenen Bedingungen robust und zuverlässig sein und umfangreiche Tests und Validierungen durchlaufen, um unerwartete Szenarien effektiv bewältigen zu können.
Kontinuierliche Überwachung und Aktualisierung: Führen Sie eine kontinuierliche Überwachung durch, um die Leistung der KI und die Einhaltung ethischer Grundsätze zu bewerten, und aktualisieren Sie die Systeme bei Bedarf auf der Grundlage neuer Daten oder veränderter Bedingungen.
Einbindung von Stakeholdern und Feedback: Beziehen Sie Stakeholder wie Endbenutzer:innen, Ethik- und Fachexpert:innen in die Konzeptionierungs- und Entwicklungsprozesse ein, um Feedback zu sammeln und sicherzustellen, dass das System den ethischen und betrieblichen Anforderungen entspricht.
Schulung im Unternehmen zum Thema KI-Ethik
Umfassende Schulungen sind unerlässlich, um sicherzustellen, dass die Beschäftigten die KI-Ethik verstehen und verantwortungsbewusst mit KI-Technologien arbeiten können. Schulungen dienen auch dazu, die Integrität und Effektivität der KI-Tools und ‑Lösungen der Unternehmen zu verbessern.
Wichtige Komponenten eines effektiven KI-Schulungsprogramms
- Entwicklung eines umfassenden Schulungsprogramms: Nutzen Sie ein Curriculum, das sich mit den Grundlagen der KI, ethischen Überlegungen, Compliance-Fragen und praktischen Anwendungen befasst und auf verschiedene Rollen innerhalb des Unternehmens zugeschnitten ist, vom technischen Personal bis zur Geschäftsleitung.
- Rollenspezifische Schulungsmodule: Bieten Sie Schulungsmodule an, die auf die besonderen Anforderungen und Aufgaben der verschiedenen Abteilungen ausgerichtet sind. Für Entwicklungskräfte würden sich beispielsweise ethische Programmierpraktiken anbieten, während sich Vertriebs- und Marketingteams mit den Auswirkungen der KI auf die Kundeninteraktion befassen könnten.
- Kontinuierliches Lernen und Aktualisierungen: KI entwickelt sich rasant weiter, daher ist es wichtig, Schulungsprogramme auf dem neuesten Stand der Entwicklungen und Best Practices zu halten.
- Interaktive und praktische Lernerfahrungen: Veranschaulichen Sie anhand von Fallstudien, Simulationen und Workshops reale Anwendungsfälle und ethische Herausforderungen, um theoretisches Wissen durch praktische Erfahrungen zu untermauern.
- Bewertung und Zertifizierung: Führen Sie Bewertungen durch, um das Verständnis und die Kenntnisse der Beschäftigten im Bereich KI-Ethik zu messen, und erwägen Sie die Einführung von Zertifizierungen, um kontinuierliche Verbesserungen zu würdigen und Motivation zu geben.
- Feedback-Mechanismen: Richten Sie Feedback-Kanäle für Beschäftigte ein, damit diese zur kontinuierlichen Verbesserung der Schulungsprogramme beitragen können und so sichergestellt ist, dass sie den sich wandelnden Anforderungen des Unternehmens gerecht werden.
Anwendungsfälle für KI-Ethik für verschiedene Rollen im Unternehmen
Jeder in einem Unternehmen, der mit KI-gestützten Anwendungen oder KI-Antwortgeneratoren arbeitet, sollte sich der Gefahr von KI-Voreingenommenheit bewusst sein und verantwortungsbewusst handeln. Hier sind ein paar Beispiele für Anwendungsfälle von KI-Ethik in verschiedenen Rollen oder Abteilungen in Unternehmen:
- Data Scientists oder Machine Learning Engineers: In diesen Funktionen ist es ratsam, Methoden zur Erkennung und Minderung von Voreingenommenheit zu integrieren, die Erklärbarkeit von Modellen sicherzustellen und Modelle zu verbessern. Dazu gehören Techniken wie Fairnesskennzahlen und kontrafaktische Analysen.
- Produktverantwortliche oder Business Analysten: Die Verantwortlichkeiten im Bereich der KI-Ethik können von der Bewertung ethischer Risiken über die Priorisierung benutzerorientierter Designs bis hin zur Entwicklung klarer Kommunikationsstrategien zur Erläuterung von KI-Systemen gegenüber Benutzern und Stakeholdern reichen. Dabei werden potenzielle gesellschaftliche Auswirkungen und die Bedürfnisse der Benutzer berücksichtigt und durch Transparenz Vertrauen aufgebaut.
- Rechts- und Compliance-Abteilung: Kritische Anwendungsfälle sind die Einhaltung relevanter Vorschriften (z. B. Datenschutzgesetze), das Management rechtlicher und reputationsbezogener Risiken im Zusammenhang mit KI sowie die Entwicklung von Strategien zur Minderung von Haftungsrisiken, die sich aus algorithmischer Voreingenommenheit oder unbeabsichtigten Folgen ergeben.
- HR-Fachleute: Die Personalabteilung sollte mit KI-gestützten Tools für die Personalbeschaffung arbeiten, die frei von Vorurteilen sind und den Antidiskriminierungsgesetzen entsprechen. Zu den Aufgaben gehören die Prüfung von Algorithmen, die Implementierung von Human-in-the-Loop-Systemen und die Durchführung von Schulungen zu ethischen Praktiken bei der Personalbeschaffung mit KI.
Autoritäten für KI-Ethik
KI-Ethik ist komplex und wird durch sich weiterentwickelnde Vorschriften, rechtliche Standards, Branchenpraktiken und technologische Fortschritte geprägt. Unternehmen müssen sich über regulatorische Änderungen auf dem Laufenden halten und gemeinsam mit den relevanten Stakeholdern klären, welche Richtlinien für sie gelten. Die folgende Liste ist nicht vollständig, vermittelt jedoch einen Eindruck von der Bandbreite an Richtlinienressourcen, die Unternehmen je nach Branche und Region in Betracht ziehen sollten.
Beispiele für Autoritäten und Ressourcen im Bereich KI-Ethik
ACET-Studie „Artificial Intelligence for Economic Policymaking“: Diese Forschungsstudie des African Center for Economic Transformation bewertet die wirtschaftlichen und ethischen Aspekte von KI mit dem Ziel, einen Beitrag zu einer inklusiven und nachhaltigen Wirtschafts-, Finanz- und Industriepolitik in ganz Afrika zu leisten.
AlgorithmWatch: Ein Unternehmen, das sich für die Schaffung und Nutzung von algorithmischen Systemen einsetzt, die Demokratie, Rechtsstaatlichkeit, Freiheit, Autonomie, Gerechtigkeit und Gleichheit schützen, und entsprechende Tools entwickelt.
ASEAN Guide on AI Governance and Ethics: Ein praktischer Leitfaden für die Mitgliedstaaten der Vereinigung südostasiatischer Staaten zur ethischen und produktiven Gestaltung, Entwicklung und Einführung von KI-Technologien.
European Commission AI Watch: Die Gemeinsame Forschungsstelle der Europäischen Kommission entwickelt Leitlinien für die Schaffung vertrauenswürdiger KI-Systeme, darunter länderspezifische Berichte und Dashboards zur Überwachung der Entwicklung, Einführung und Auswirkungen von KI in Europa.
NTIA-Bericht „Artificial Intelligence Accountability Policy“: Dieser Bericht der National Telecommunications and Information Administration schlägt freiwillige, regulatorische und andere Maßnahmen vor, um rechtmäßige und vertrauenswürdige KI-Systeme in den Vereinigten Staaten zu gewährleisten.
KI-Grundsätze der OECD: Dieses Forum aus Ländern und Interessengruppen arbeitet daran, vertrauenswürdige KI zu gestalten. Im Jahr 2019 hat sie die KI-Grundsätze der OECD (OECD AI Principles), den ersten zwischenstaatlichen Standard für KI, auf den Weg gebracht. Diese Grundsätze dienten auch als Grundlage für die KI-Grundsätze der G20.
UNESCO-Empfehlung zur Ethik der künstlichen Intelligenz: Der Empfehlungsrahmen dieser Organisation der Vereinten Nationen wurde nach einem zweijährigen globalen Konsultationsprozess mit Expert:innen und Interessengruppen aus 193 Mitgliedstaaten verabschiedet.
Fazit
Zusammenfassend lässt sich sagen, dass die Entwicklung und der Einsatz ethischer KI einen vielschichtigen Ansatz erfordern. Als Unternehmen ist es empfehlenswert, klare ethische Grundsätze festzulegen, diese in die KI-Entwicklungsprozesse zu integrieren und deren kontinuierliche Compliance durch robuste Governance- und Schulungsprogramme sicherzustellen. Durch die Priorisierung menschlicher Werte wie Fairness, Transparenz und Rechenschaftspflicht können Unternehmen die Möglichkeiten der KI verantwortungsbewusst nutzen, Innovationen vorantreiben, potenzielle Risiken mindern und sicherstellen, dass diese Technologien der Gesellschaft als Ganzes zugutekommen.
SAP-Ressourcen
Weitere Anwendungsfälle und Leitlinien zur KI-Ethik
Ausführliche Anleitungen zur Umsetzung ethischer KI-Praktiken finden Sie im KI-Ethik-Handbuch von SAP.