flex-height
text-black

Techniker und Wissenschaftlerin arbeiten an einem Prototyp eines bionischen Exoskeletts

Was ist KI-Ethik?

KI-Ethik bezieht sich auf die Grundsätze, die das Verhalten von KI in Bezug auf menschliche Werte regeln. KI-Ethik trägt dazu bei, dass KI so entwickelt und eingesetzt wird, dass sie der Gesellschaft zugute kommt. Sie umfasst eine Vielzahl von Aspekten, darunter Fairness, Transparenz, Rechenschaftspflicht, Datenschutz, Sicherheit und mögliche gesellschaftliche Auswirkungen.

default

{}

default

{}

primary

default

{}

secondary

Einführung in die KI-Ethik

Ein Gedankenspiel: Ein KI-System sagt die Wahrscheinlichkeit für künftige kriminelle Handlungen vorher und wird von Richtern zur Festlegung des Strafmaßes herangezogen, benachteiligt aber bestimmte Bevölkerungsgruppen unverhältnismäßig stark.

KI-Ethik soll solchen Tendenzen entgegenwirken, indem sie unter anderem dazu beiträgt, unfaire Vorurteile abzubauen, Hindernisse für die Barrierefreiheit zu beseitigen und die Kreativität zu fördern. Da Unternehmen bei Entscheidungen mit Einfluss auf das Leben von Menschen zunehmend auf KI setzen, müssen sie den komplexen ethischen Implikationen Rechnung tragen, weil der Missbrauch von KI Einzelpersonen und der Gesellschaft Schaden zufügen kann – wie auch dem Gewinn und Ruf von Unternehmen.

In diesem Artikel werden wir uns mit folgenden Themen befassen:

Beispiele für ethische KI-Grundsätze

Im Mittelpunkt jeder Diskussion über KI-Ethik steht das Wohlergehen des Menschen. KI-Systeme können zwar so konzipiert werden, dass sie Moral und Ethik priorisieren, doch letztendlich sind Menschen dafür verantwortlich, eine ethische Konzeption und Nutzung sicherzustellen – und bei Bedarf einzugreifen.

Es gibt keine einheitlichen, allgemein anerkannten ethischen Grundsätze für KI. Viele Unternehmen und Behörden konsultieren Fachleute für Ethik, Recht und KI, um ihre Leitprinzipien zu formulieren. Diese Grundsätze behandeln in der Regel folgende Themen:

Begriffe und Definitionen zur KI-Ethik

Angesichts der Überschneidungen zwischen Ethik und Hochtechnologie werden in Diskussionen über ethische KI häufig Begriffe aus beiden Bereichen verwendet. Das Verständnis dieses Vokabulars ist wichtig, um sich über ethische Fragen der KI austauschen zu können:

KI-Ethik: Werte, Grundsätze und Techniken, die allgemein anerkannte Standards für „richtig“ und „falsch“ anwenden, um moralisches Verhalten bei Entwicklung, Einsatz, Nutzung und Verkauf von KI-Technologien zu leiten.

KI-Modell: Ein von Menschen erstelltes mathematisches Rahmenwerk, das anhand von Daten trainiert wird und KI-Systemen ermöglicht, bestimmte Aufgaben auszuführen, indem sie Muster erkennen, Entscheidungen treffen und Ergebnisse vorhersagen. Zu den gängigen Anwendungsbereichen zählen unter anderem die Bilderkennung und die Sprachübersetzung.

KI-System: Eine komplexe Struktur aus Algorithmen und Modellen, die menschliches Denken nachahmen und Aufgaben autonom ausführen soll.

Handlungsfähigkeit: Die Fähigkeit von Individuen, unabhängig zu handeln und freie Entscheidungen zu treffen.

Voreingenommenheit: Eine Neigung oder ein Vorurteil gegenüber einer Person oder Gruppe, insbesondere in einer Weise, die als unfair gilt. Voreingenommenheit in Trainingsdaten – wie die Unter- oder Überrepräsentation von Daten, die sich auf eine bestimmte Gruppe beziehen – kann dazu führen, dass KI vorurteilsbehaftet handelt.

Erklärbarkeit: Die Fähigkeit, die Frage „Was hat die Maschine getan, um zu diesem Ergebnis zu kommen?“ zu beantworten. Erklärbarkeit bezieht sich auf den technologischen Kontext des KI-Systems, wie beispielsweise dessen Mechanismen, Regeln und Algorithmen sowie Trainingsdaten.

Fairness: Unparteiische und gerechte Behandlung oder Verhaltensweise ohne ungerechtfertigte Bevorzugung oder Diskriminierung.

Human-in-the-Loop: Die Möglichkeit des Menschen, in jeden Entscheidungszyklus eines KI-Systems einzugreifen.

Interpretierbarkeit: Die Fähigkeit von Menschen, den realen Kontext und die Auswirkungen der Ergebnisse eines KI-Systems zu verstehen, beispielsweise wenn KI zur Entscheidung über die Genehmigung oder Ablehnung eines Kreditantrags eingesetzt wird.

Großes Sprachmodell (Large Language Model, LLM): Eine Art des maschinellen Lernens, die häufig bei der Texterkennung und ‑erstellung verwendet wird.

Maschinelles Lernen (Machine Learning): Ein Teilbereich der KI, der Systemen die Fähigkeit verleiht, automatisch zu lernen, aus Erfahrungen besser zu werden und sich an neue Daten anzupassen, ohne dass sie dafür explizit programmiert wurden.

Normativ: Ein wichtiger Kontext der praktischen Ethik, der sich damit befasst, was Menschen und Institutionen in bestimmten Situationen tun „sollten“.

Transparenz: Im Zusammenhang mit der Erklärbarkeit ist Transparenz die Fähigkeit, zu begründen, wie und warum ein KI-System entwickelt, implementiert und verwendet wird, und diese Informationen für Menschen sichtbar und verständlich zu machen.

Implementierung der Grundsätze für KI-Ethik

Für Unternehmen bedeutet der ethische Einsatz von KI mehr als nur die Übernahme ethischer Grundsätze. Diese Grundsätze müssen in alle technischen und betrieblichen KI-Prozesse integriert werden. Die Einbindung von Ethik mag Unternehmen, die KI schnell einführen, mühsam erscheinen. Schadenfälle aus der Praxis, die Folge von Problemen bei der Konzeption und Nutzung von KI-Modellen sind, zeigen jedoch, dass es riskant und kostspielig sein kann, angemessene ethische Grundsätze zu vernachlässigen.

Wer ist für KI-Ethik verantwortlich?

Kurz gesagt: Alle, die mit KI zu tun haben, darunter Unternehmen, Regierungen, Konsumenten sowie Bürgerinnen und Bürger.

Die unterschiedlichen Rollen verschiedener Personen in der KI-Ethik

Was menschliche Stakeholder verstehen müssen – Infografik

Die Rolle von Führungskräften in der KI-Ethik

Viele Unternehmen richten Ausschüsse unter der Leitung ihrer Führungskräfte ein, um ihre Richtlinien zur KI-Governance zu definieren. Bei SAP haben wir beispielsweise einen Beirat und einen Lenkungsausschuss für KI-Ethik gebildet, die sich aus Fachleuten aus den Bereichen Ethik und Technologie zusammensetzen, um unsere ethischen KI-Grundsätze in all unsere Produkte und Abläufe zu integrieren. Schwerpunkt dieser Grundsätze bilden:

Einrichtung eines Lenkungsausschusses für KI-Ethik

Die Einrichtung eines Lenkungsausschusses ist für die Steuerung des Umgangs eines Unternehmens mit KI-Ethik von entscheidender Bedeutung und gewährleistet Verantwortlichkeit und Aufsicht auf höchster Ebene. Dieser Ausschuss stellt sicher, dass ethische Überlegungen in die Entwicklung und den Einsatz von KI einfließen.

Best Practices für die Einrichtung eines Lenkungsausschusses für KI-Ethik

Erstellung einer Richtlinie zur KI-Ethik

Die Entwicklung einer KI-Ethikrichtlinie ist für die Steuerung von KI-Initiativen innerhalb eines Unternehmens unerlässlich. Der Lenkungsausschuss spielt in diesem Prozess eine entscheidende Rolle und nutzt sein vielfältiges Fachwissen, um sicherzustellen, dass die Richtlinie Gesetzen, Standards und allgemeinen ethischen Grundsätzen entspricht.

Beispielansatz für die Erstellung einer KI-Ethikrichtlinie

Risikoklassifizierung und ‑bewertung – Ablaufdiagramm

Einführung eines Compliance-Prüfungsverfahrens

Die Entwicklung effektiver Prozesse zur Überprüfung der Compliance ist unerlässlich, um sicherzustellen, dass KI-Implementierungen den KI-Ethikrichtlinien und ‑vorschriften des Unternehmens entsprechen. Diese Prozesse tragen dazu bei, Vertrauen bei Benutzern und Regulierungsbehörden aufzubauen, Risiken zu mindern und ethische Praktiken in KI-Projekten zu befolgen.

Typische Prozesse der Compliance-Prüfung

Technische Umsetzung von KI-Ethikpraktiken

Die Integration ethischer Überlegungen in die KI-Entwicklung umfasst die Anpassung bestehender technologischer Verfahren, um sicherzustellen, dass Systeme verantwortungsbewusst entwickelt und eingesetzt werden. Neben der Festlegung ethischer KI-Grundsätze erstellen Unternehmen manchmal auch Grundsätze für verantwortungsvolle KI, die stärker auf ihre spezifische Branche und technische Anwendungsfälle ausgerichtet sein können.

Wichtige technische Anforderungen an ethische KI-Systeme

Erkennung und Minderung von Voreingenommenheit: Verwenden Sie vielfältige Datensätze und statistische Methoden, um Voreingenommenheit in KI-Modellen zu erkennen und zu korrigieren. Führen Sie regelmäßige Audits durch, um Voreingenommenheit zu vermeiden.

Transparenz und Erklärbarkeit: Entwickeln Sie Systeme, die Benutzer leicht verstehen und verifizieren können, indem Sie Methoden wie Wichtigkeitsbewertungen von Features, Entscheidungsbäume und modellunabhängige Erklärungen einsetzen, um die Transparenz zu verbessern.

Datenschutz und ‑sicherheit: Stellen Sie sicher, dass Daten in KI-Systemen sicher verwaltet und die Datenschutzgesetze eingehalten werden. Systeme müssen Verschlüsselung, Anonymisierung und sichere Protokolle verwenden, um die Datenintegrität zu gewährleisten.

Robustes und zuverlässiges Design: KI-Systeme müssen unter verschiedenen Bedingungen robust und zuverlässig sein und umfangreiche Tests und Validierungen durchlaufen, um unerwartete Szenarien effektiv bewältigen zu können.

Kontinuierliche Überwachung und Aktualisierung: Führen Sie eine kontinuierliche Überwachung durch, um die Leistung der KI und die Einhaltung ethischer Grundsätze zu bewerten, und aktualisieren Sie die Systeme bei Bedarf auf der Grundlage neuer Daten oder veränderter Bedingungen.

Einbindung von Stakeholdern und Feedback: Beziehen Sie Stakeholder wie Endbenutzer:innen, Ethik- und Fachexpert:innen in die Konzeptionierungs- und Entwicklungsprozesse ein, um Feedback zu sammeln und sicherzustellen, dass das System den ethischen und betrieblichen Anforderungen entspricht.

Schulung im Unternehmen zum Thema KI-Ethik

Umfassende Schulungen sind unerlässlich, um sicherzustellen, dass die Beschäftigten die KI-Ethik verstehen und verantwortungsbewusst mit KI-Technologien arbeiten können. Schulungen dienen auch dazu, die Integrität und Effektivität der KI-Tools und ‑Lösungen der Unternehmen zu verbessern.

Wichtige Komponenten eines effektiven KI-Schulungsprogramms

Anwendungsfälle für KI-Ethik für verschiedene Rollen im Unternehmen

Jeder in einem Unternehmen, der mit KI-gestützten Anwendungen oder KI-Antwortgeneratoren arbeitet, sollte sich der Gefahr von KI-Voreingenommenheit bewusst sein und verantwortungsbewusst handeln. Hier sind ein paar Beispiele für Anwendungsfälle von KI-Ethik in verschiedenen Rollen oder Abteilungen in Unternehmen:

Autoritäten für KI-Ethik

KI-Ethik ist komplex und wird durch sich weiterentwickelnde Vorschriften, rechtliche Standards, Branchenpraktiken und technologische Fortschritte geprägt. Unternehmen müssen sich über regulatorische Änderungen auf dem Laufenden halten und gemeinsam mit den relevanten Stakeholdern klären, welche Richtlinien für sie gelten. Die folgende Liste ist nicht vollständig, vermittelt jedoch einen Eindruck von der Bandbreite an Richtlinienressourcen, die Unternehmen je nach Branche und Region in Betracht ziehen sollten.

Beispiele für Autoritäten und Ressourcen im Bereich KI-Ethik

ACET-Studie „Artificial Intelligence for Economic Policymaking“: Diese Forschungsstudie des African Center for Economic Transformation bewertet die wirtschaftlichen und ethischen Aspekte von KI mit dem Ziel, einen Beitrag zu einer inklusiven und nachhaltigen Wirtschafts-, Finanz- und Industriepolitik in ganz Afrika zu leisten.

AlgorithmWatch: Ein Unternehmen, das sich für die Schaffung und Nutzung von algorithmischen Systemen einsetzt, die Demokratie, Rechtsstaatlichkeit, Freiheit, Autonomie, Gerechtigkeit und Gleichheit schützen, und entsprechende Tools entwickelt.

ASEAN Guide on AI Governance and Ethics: Ein praktischer Leitfaden für die Mitgliedstaaten der Vereinigung südostasiatischer Staaten zur ethischen und produktiven Gestaltung, Entwicklung und Einführung von KI-Technologien.

European Commission AI Watch: Die Gemeinsame Forschungsstelle der Europäischen Kommission entwickelt Leitlinien für die Schaffung vertrauenswürdiger KI-Systeme, darunter länderspezifische Berichte und Dashboards zur Überwachung der Entwicklung, Einführung und Auswirkungen von KI in Europa.

NTIA-Bericht „Artificial Intelligence Accountability Policy“: Dieser Bericht der National Telecommunications and Information Administration schlägt freiwillige, regulatorische und andere Maßnahmen vor, um rechtmäßige und vertrauenswürdige KI-Systeme in den Vereinigten Staaten zu gewährleisten.

KI-Grundsätze der OECD: Dieses Forum aus Ländern und Interessengruppen arbeitet daran, vertrauenswürdige KI zu gestalten. Im Jahr 2019 hat sie die KI-Grundsätze der OECD (OECD AI Principles), den ersten zwischenstaatlichen Standard für KI, auf den Weg gebracht. Diese Grundsätze dienten auch als Grundlage für die KI-Grundsätze der G20.

UNESCO-Empfehlung zur Ethik der künstlichen Intelligenz: Der Empfehlungsrahmen dieser Organisation der Vereinten Nationen wurde nach einem zweijährigen globalen Konsultationsprozess mit Expert:innen und Interessengruppen aus 193 Mitgliedstaaten verabschiedet.

Fazit

Zusammenfassend lässt sich sagen, dass die Entwicklung und der Einsatz ethischer KI einen vielschichtigen Ansatz erfordern. Als Unternehmen ist es empfehlenswert, klare ethische Grundsätze festzulegen, diese in die KI-Entwicklungsprozesse zu integrieren und deren kontinuierliche Compliance durch robuste Governance- und Schulungsprogramme sicherzustellen. Durch die Priorisierung menschlicher Werte wie Fairness, Transparenz und Rechenschaftspflicht können Unternehmen die Möglichkeiten der KI verantwortungsbewusst nutzen, Innovationen vorantreiben, potenzielle Risiken mindern und sicherstellen, dass diese Technologien der Gesellschaft als Ganzes zugutekommen.

Logo von SAP

SAP-Ressourcen

Weitere Anwendungsfälle und Leitlinien zur KI-Ethik

Ausführliche Anleitungen zur Umsetzung ethischer KI-Praktiken finden Sie im KI-Ethik-Handbuch von SAP.

Zum Handbuch

Mehr erfahren