Czym jest etyka AI?
Etyka AI to zasady, które regulują zachowanie AI w odniesieniu do wartości wyznawanych przez ludzi. Etyka AI ma na celu zadbanie o to, aby sztuczna inteligencja była rozwijana i używana w sposób korzystny dla społeczeństwa. Obejmuje szeroki zakres zagadnień, w tym uczciwość, przejrzystość, rozliczalność, prywatność, bezpieczeństwo i potencjalne skutki społeczne.
Wprowadzenie do etyki AI
Etyka AI stoi po stronie dobra, bo pomaga łagodzić niesprawiedliwe uprzedzenia, usuwa bariery w dostępności i zwiększa kreatywność — a to tylko niektóre korzyści. Ponieważ organizacje w coraz większym stopniu polegają na sztucznej inteligencji przy podejmowaniu decyzji, które mają wpływ na ludzkie życie, muszą brać pod uwagę złożone implikacje etyczne, ponieważ niewłaściwe użycie sztucznej inteligencji może zaszkodzić jednostkom i społeczeństwu, a także negatywnie odbić się na zyskach i reputacji firmy.
W tym artykule omówimy następujące tematy:
- Ogólne zasady etyki AI, terminy i definicje
- Tworzenie etycznych zasad AI dla organizacji
- Kto jest odpowiedzialny za etykę AI
- Wdrażanie szkoleń, nadzoru i procesów technicznych w zakresie etyki AI
- Obszary zastosowania i wdrożenia etycznej AI
- Wybrane czołowe autorytety w dziedzinie etyki AI
Przykłady zasad etycznej AI
Dobrostan rasy ludzkiej jest centralnym elementem każdej dyskusji na temat etyki AI. Chociaż można projektować systemy sztucznej inteligencji, nadając priorytet moralności i etyce, koniec końców to ludzie muszą zadbać o etyczny projekt i użytkowanie — oraz interweniować w razie potrzeby.
Nie ma jednego, powszechnie uzgodnionego zbioru zasad etycznej sztucznej inteligencji. Wiele organizacji i agencji rządowych konsultuje się z ekspertami w dziedzinie etyki, prawa i sztucznej inteligencji, aby opracować swoje zasady przewodnie. Zasady te odnoszą się powszechnie do następujących obszarów:
- Dobrostan i godność człowieka: systemy sztucznej inteligencji powinny zawsze nadawać priorytet dobrostanowi, bezpieczeństwu i godności jednostek, nie zastępować ludzi i nie zagrażać ich dobrobytowi.
- Nadzór ze strony ludzi: sztuczna inteligencja na każdym etapie rozwoju i używania musi być monitorowana przez człowieka. Dzięki temu ostateczne zdanie w kwestiach etycznych będzie należało do ludzi.
- Przeciwdziałanie uprzedzeniom i dyskryminacji: podczas procesu tworzenia rozwiązań należy priorytetowo traktować kwestie sprawiedliwości, równości i pełnej reprezentacji, aby ograniczyć stronniczość i dyskryminację.
- Przejrzystość i wyjaśnialność: sposób podejmowania decyzji i osiągania określonych wyników przez modele AI powinien być przejrzysty i możliwy do wyjaśnienia w prostych słowach.
- Ochrona prywatności danych: systemy sztucznej inteligencji muszą spełniać najbardziej rygorystyczne standardy ochrony prywatności danych i korzystać z zaawansowanych metod dbania o cyberbezpieczeństwo, aby uniknąć naruszenia prywatności danych i nieautoryzowanego dostępu.
- Promowanie inkluzywności i różnorodności: technologie sztucznej inteligencji muszą odzwierciedlać i uwzględniać szeroką gamę ludzkich tożsamości i doświadczeń.
- Społeczeństwo i gospodarka: sztuczna inteligencja powinna przyczyniać się do postępu społecznego i dobrobytu gospodarczego wszystkich ludzi, co wyklucza promowanie nierówności i nieuczciwych praktyk.
- Promowanie umiejętności posługiwania się narzędziami cyfrowymi: technologie sztucznej inteligencji powinny być dostępne i zrozumiałe dla wszystkich, niezależnie od poziomu umiejętności cyfrowych danej osoby.
- Dobrostan firm: technologie biznesowe oparte na sztucznej inteligencji powinny przyspieszać procesy, maksymalizować wydajność i promować rozwój.
Terminy i definicje z zakresu etyki AI
W dyskusjach o etycznej sztucznej inteligencji, toczonych na styku etyki i zaawansowanych technologii, często pojawia się terminologia z obu tych dziedzin. Zrozumienie jej jest istotne dla możliwości kompleksowego omówienia zagadnienia etyki AI:
-
Sztuczna inteligencja — AI: zdolność maszyny do realizowania funkcji poznawczych, które przypominają działanie umysłu ludzkiego, takie jak postrzeganie, rozumowanie, uczenie się i rozwiązywanie problemów. Istnieją dwa główne typy systemów AI, przy czym niektóre systemy stanowią kombinację obu typów:
- AI oparta na regułach, zwana również ekspercką sztuczną inteligencją, zachowuje się zgodnie z zestawem w pełni zdefiniowanych reguł, opracowanych przez ekspertów ludzkich — na przykład wiele platform handlu elektronicznego wykorzystuje sztuczną inteligencję opartą na regułach, aby dostarczać rekomendacje produktów.
- AI oparta na danych szkoleniowych rozwiązuje problemy i samodzielnie dostosowuje swoje funkcje, opierając się na wstępnym zbiorze danych konfiguracyjnych i szkoleniowych, zaprojektowanym przez człowieka — przykładem sztucznej inteligencji opartej na danych szkoleniowych są narzędzia wykorzystujące generatywną AI.
Etyka AI: zbiór wartości, zasad i technik, które opierają się na powszechnie akceptowanych standardach dotyczących dobra i zła, opracowany w celu kierowania się moralnością w rozwijaniu, wdrażaniu, użytkowaniu i sprzedaży technologii AI.
Model AI: struktury matematyczne opracowane przez ludzi i przeszkolone z wykorzystaniem danych, które pozwalają na wykonywanie przez systemy AI określonych zadań na zasadzie rozpoznawania wzorców, podejmowania decyzji i przewidywania wyników. Do powszechnych zastosowań zalicza się między innymi rozpoznawanie obrazów i tłumaczenia językowe.
System AI: złożona struktura algorytmów i modeli zaprojektowanych w celu naśladowania ludzkiego rozumowania i samodzielnego wykonywania zadań.
Sprawczość: zdolność jednostek do samodzielnego działania i dokonywania wolnych wyborów.
Stronniczość: skłonność lub uprzedzenie wobec osoby bądź grupy, zwłaszcza o niesprawiedliwym charakterze. Stronniczość danych szkoleniowych — na przykład niedostateczna lub nadmierna reprezentacja określonej grupy w zbiorze danych — może prowadzić do stronniczości sztucznej inteligencji.
Wyjaśnialność: umiejętność odpowiedzenia na pytanie: „w jaki sposób maszyna uzyskała taki wynik?” Wyjaśnialność odnosi się do kontekstu technologicznego systemu AI, takiego jak jego mechanika, reguły i algorytmy oraz dane szkoleniowe.
Uczciwość: bezstronne i sprawiedliwe traktowanie lub zachowanie bez niesłusznego faworyzowania oraz dyskryminacji.
Udział człowieka: zdolność ludzi do interwencji na każdym etapie cyklu decyzyjnego systemu AI.
Możliwość interpretacji: umiejętność zrozumienia rzeczywistego kontekstu i wpływu wyników wygenerowanych przez system AI, np. kiedy sztuczna inteligencja jest używana do pomocy w podjęciu decyzji o zatwierdzeniu lub odrzuceniu wniosku o pożyczkę.
Duży model językowy (LLM): typ uczenia maszynowego często używany przy rozpoznawaniu tekstu i w zadaniach polegających na generowaniu treści.
Uczenie maszynowe: podzbiór technologii z zakresu sztucznej inteligencji, który zapewnia systemom możliwość automatycznego uczenia się, doskonalenia w miarę zdobywania doświadczenia i dostosowywania się do nowych danych bez specjalnego zaprogramowania.
Normatywność: kluczowy kontekst praktycznej etyki dotyczący oczekiwanego zachowania ludzi i instytucji w określonych sytuacjach.
Przejrzystość: podobnie jak wyjaśnialność, przejrzystość stanowi umiejętność uzasadnienia, w jaki sposób i dlaczego system sztucznej inteligencji jest rozwijany, wdrażany i używany, a także przedstawienia tych informacji ludziom w zrozumiały sposób.
Jak wdrożyć zasady etyki AI
W przypadku organizacji etyczne korzystanie ze sztucznej inteligencji jest czymś więcej niż tylko przyjmowaniem zasad etycznych — zasady te muszą być zintegrowane ze wszystkimi technicznymi i operacyjnymi procesami AI. Chociaż integracja etyki może wydawać się kłopotliwa w przypadku organizacji szybko wdrażających sztuczną inteligencję, rzeczywiste przypadki szkód spowodowanych przez błędy w założeniach i użytkowaniu modeli AI pokazują, że zaniedbania w odniesieniu do kwestii etyki mogą być ryzykowne i kosztowne.
Kto jest odpowiedzialny za etykę AI?
Krótka odpowiedź: każdy podmiot, który jest zaangażowany w działania związane ze sztuczną inteligencją, w tym przedsiębiorstwa, rządy, konsumenci i obywatele.
Różne role różnych osób w etyce AI
- Programiści i badacze odgrywają kluczową rolę w tworzeniu takich systemów sztucznej inteligencji, w których priorytet nadawany jest sprawczości i nadzorowi ze strony człowieka, eliminowana jest stronniczość i dyskryminacja, ale które są przejrzyste i wykazują zdolność do przedstawiania wyjaśnień.
- Decydenci i organy regulacyjne ustanawiają przepisy i regulacje dotyczące etycznego korzystania z AI i chroniące prawa jednostek.
- Liderzy biznesowi i branżowi dbają o to, aby ich organizacje wdrażały zasady etycznej sztucznej inteligencji i korzystały z tej technologii w sposób pozytywny dla społeczeństwa.
- Społeczne organizacje obywatelskie działają na rzecz etycznego wykorzystywania sztucznej inteligencji, odgrywają ważną rolę w nadzorze i udzielają wsparcia społecznościom, na które projekty AI mają wpływ.
- Instytucje akademickie zajmują się edukacją, badaniami i opracowywaniem wytycznych w zakresie etyki.
- Użytkownicy końcowi i użytkownicy, na których technologia ma wpływ, tacy jak konsumenci i obywatele, powinni pilnować, aby systemy sztucznej inteligencji wykazywały zdolność do wyjaśniania, interpretacji, były sprawiedliwe, przejrzyste i korzystne dla społeczeństwa.
Rola liderów biznesowych w etyce AI
Wiele firm powołuje komitety kierowane przez przedstawicieli kadry wyższego szczebla w celu kształtowania zasad zarządzania sztuczną inteligencją. Na przykład w SAP utworzyliśmy panel doradczy i komitet sterujący ds. etyki AI, składający się z ekspertów ds. etyki i technologii, aby zintegrować zasady etycznej sztucznej inteligencji z naszymi produktami i operacjami. Zasady nadają priorytet następującym wartościom:
- Proporcjonalność i nieszkodzenie
- Bezpieczeństwo i ochrona
- Sprawiedliwość i niedyskryminowanie
- Zrównoważony rozwój
- Prawo do prywatności i ochrona danych
- Nadzór i wyznaczanie kierunku — po stronie człowieka
- Przejrzystość i zdolność do wyjaśnienia
- Odpowiedzialność i rozliczalność
- Świadomość i umiejętność korzystania z technologii
- Wielostronne, adaptacyjne zarządzanie i współpraca
Powoływanie komitetu sterującego ds. etyki AI
Powołanie komitetu sterującego ma kluczowe znaczenie dla zarządzania podejściem organizacji do etyki sztucznej inteligencji i zapewnia najwyższy poziom rozliczalności i nadzoru. Komitet pilnuje, aby względy etyczne były wplecione w projektowanie i wdrażanie sztucznej inteligencji.
Najlepsze praktyki w zakresie powoływania komitetu sterującego ds. etyki AI
- Skład i specjalistyczna wiedza. Uwzględnij zróżnicowaną kombinację interesariuszy, mających wiedzę w dziedzinie sztucznej inteligencji, prawa i etyki. Doradcy zewnętrzni mogą zaoferować brak stronniczości.
- Określenie celu i zakresu. Jasno określ misję i cele komitetu, koncentrując się na etycznym projektowaniu, wdrażaniu i używaniu etycznej sztucznej inteligencji. Wszystko to powinno uwzględniać wartości firmy, uczciwość, przejrzystość i ochronę prywatności.
- Określenie ról i obowiązków. Określ role poszczególnych członków: opracowywanie zasad etyki sztucznej inteligencji, doradztwo w kwestiach etycznych w projektach AI, dbanie o zgodność z przepisami.
- Wyznaczanie celów. Wyznacz jasne, mierzalne cele, takie jak przeprowadzanie corocznych audytów projektów AI pod kątem etyki i oferowanie kwartalnych szkoleń z zakresu etycznej sztucznej inteligencji.
- Tworzenie procedur. Określ procedury operacyjne, w tym harmonogramy spotkań, standardy prowadzenia dokumentacji i protokoły komunikacyjne zapewniające zachowanie przejrzystości.
- Bieżąca edukacja i adaptacja. Pozostawaj na bieżąco z nowymi osiągnięciami w dziedzinie technologii AI, standardów etycznych i regulacji, regularnie uczestnicząc w szkoleniach i konferencjach.
Tworzenie polityki dotyczącej etyki AI
Opracowanie polityki dotyczącej etyki AI jest niezbędne do przeprowadzania inicjatyw z dziedziny AI w organizacji. Komitet sterujący odgrywa w tym procesie kluczową rolę: wykorzystuje swoją różnorodną wiedzę specjalistyczną przy pilnowaniu zgodności polityki z przepisami, standardami i szerszymi zasadami etycznymi.
Przykładowe podejście do tworzenia zasad etyki AI
-
Opracowanie wstępnej polityki. Rozpocznij od opracowania polityki, która odzwierciedla podstawowe wartości organizacji, wymagania prawne i najlepsze praktyki. Ten wstępny projekt posłuży jako podstawa do dalszego udoskonalania.
-
Konsultacje i wkład. Współpraca z wewnętrznymi i zewnętrznymi interesariuszami, takimi jak programiści AI, liderzy biznesowi i etycy, aby polityka była kompleksowa i reprezentatywna dla wielu perspektyw.
-
Integracja interdyscyplinarnych spostrzeżeń. Wykorzystaj zróżnicowanie środowisk reprezentowanych przez członków komitetu, aby uwzględnić perspektywę technologiczną, etyczną, prawną i biznesową złożonych aspektów etyki AI.
-
Określenie ryzykownych i zakazanych obszarów zastosowania. Komitet powinien wyraźnie określić, które zastosowania AI wiążą się ze znacznym ryzykiem lub są uważane za nieetyczne, a zatem są zakazane. Na przykład komitet sterujący w SAP kategoryzuje takie zastosowania w następujący sposób:
- Wysokie ryzyko. Ta kategoria obejmuje zastosowania, które mogą być szkodliwe w dowolnym znaczeniu; są to zastosowania związane z egzekwowaniem prawa, migracją i procesami demokratycznymi, a także przetwarzaniem danych osobowych, zautomatyzowanym podejmowaniem decyzji lub mające wpływ na dobrobyt społeczny. Systemy do takich zastosowań muszą zostać poddane wnikliwej ocenie przez komitet przed opracowaniem, wdrożeniem lub sprzedażą.
- Zakaz. Zakazane są zastosowania umożliwiające inwigilację, dyskryminację, deanonimizację danych prowadzącą do identyfikacji indywidualnej lub grupowej, a także manipulowanie opinią publiczną lub zakłócanie demokratycznych debat. SAP uważa, że takie zastosowania są wysoce nieetyczne i zakazuje opracowywania, wdrażania i sprzedaży uwzględniających je systemów.
-
Przegląd i poprawki. Regularnie przeglądaj politykę i wprowadzaj poprawki w oparciu o informację zwrotną, dzięki czemu pozostanie adekwatna i praktyczna.
-
Finalizacja i zatwierdzenie. Przedstaw ukończoną wersję polityki do ostatecznego zatwierdzenia przez decydentów, takich jak zarząd, popartą silną rekomendacją komisji.
-
Wdrożenie i stały nadzór. Komitet powinien monitorować wdrażanie polityki i okresowo ją aktualizować pod kątem zmian technologicznych i nowych opinii etycznych.
Opracowanie procesu weryfikacji zgodności
Opracowanie skutecznych procesów oceny zgodności jest niezbędne dla zapewnienia zgodności wdrożeń AI z zasadami i regulacjami dotyczącymi etyki AI w organizacji. Procesy te pomagają budować zaufanie wśród użytkowników i organów regulacyjnych oraz służą ograniczaniu ryzyka i przestrzeganiu praktyk etycznych we wszystkich projektach z dziedziny AI.
Typowe procesy weryfikacji zgodności
- Opracowanie ustandaryzowanych ram weryfikacji. Określ kompleksowe ramy definiujące procedury oceny projektów z dziedziny AI pod kątem wytycznych dotyczących etyki, standardów prawnych i wymagań operacyjnych.
- Klasyfikacja ryzyka. Klasyfikacja projektów AI według ryzyka etycznego i regulacyjnego. Projekty wysokiego ryzyka, takie jak projekty dotyczące wrażliwych danych osobowych lub mające znaczący wpływ na podejmowanie decyzji, wymagają wysokiego stopnia kontroli.
- Regularne audyty i oceny. Przeprowadzanie regularnych audytów w celu weryfikacji bieżącej zgodności z przepisami, w tym zarówno zautomatyzowanych, jak i ręcznych przeglądów wykonywanych przez interdyscyplinarne zespoły.
- Zaangażowanie zainteresowanych stron. Zaangażuj w proces przeglądu zróżnicowaną grupę zainteresowanych stron, w tym etyków, ekspertów prawnych, analityków danych i użytkowników końcowych, w celu wykrycia potencjalnych zagrożeń i dylematów etycznych.
- Dokumentacja i przejrzystość. Przechowuj szczegółowe rejestry wszystkich działań związanych ze zgodnością z przepisami, upewniając się, że są one dostępne i przejrzyste zarówno na potrzeby audytów wewnętrznych, jak i zewnętrznych.
- Mechanizmy informacji zwrotnej i eskalacji. Wprowadź jasne procedury zgłaszania i rozwiązywania problemów etycznych i kwestii związanych z przestrzeganiem przepisów.
Techniczne wdrożenie praktyk dotyczących etyki AI
Włączenie kwestii etycznych do rozwijania sztucznej inteligencji wymaga dostosowania obecnych praktyk technologicznych, aby systemy były budowane i wdrażane w sposób odpowiedzialny. Oprócz ustanawiania zasad etycznej sztucznej inteligencji organizacje czasami tworzą również zasady odpowiedzialnej AI, które mogą skupiać się bardziej na konkretnych branżowych i technicznych obszarach zastosowania.
Kluczowe wymogi techniczne dotyczące etycznych systemów AI
Wykrywanie i ograniczanie stronniczości. Używaj różnych zbiorów danych i metod statystycznych do wykrywania i korygowania stronniczości w modelach AI. Przeprowadzaj regularne audyty w celu monitorowania stronniczości.
Przejrzystość i zdolność do wyjaśnienia. Opracowuj systemy, które użytkownicy będą mogli łatwo zrozumieć i zweryfikować, stosując metody takie jak oceny istotności cech, drzewa decyzyjne i objaśnienia niezależne od modelu, aby zwiększyć przejrzystość.
Prywatność i bezpieczeństwo danych. Upewnij się, że dane w systemach AI są zarządzane bezpiecznie i zgodnie z przepisami dotyczącymi ochrony prywatności. Systemy muszą wykorzystywać szyfrowanie, anonimizację i bezpieczne protokoły w celu zabezpieczenia integralności danych.
Solidna i niezawodna konstrukcja. Systemy sztucznej inteligencji muszą być trwałe i niezawodne w różnych warunkach, co wymaga szeroko zakrojonych testów i walidacji pod kątem skutecznej obsługi nieoczekiwanych scenariuszy.
Ciągłe monitorowanie i aktualizacja. Stale monitoruj systemy w celu oceny wydajności AI i zgodności z zasadami etyki, a w razie potrzeby zaktualizowania w oparciu o nowe dane lub warunki.
Zaangażowanie interesariuszy i informacja zwrotna. Zaangażuj interesariuszy, takich jak użytkownicy końcowi, etycy i eksperci w danej dziedzinie, w procesy projektowania i rozwoju w celu pozyskania informacji zwrotnej i zapewnienia zgodności systemu z wymogami etycznymi i operacyjnymi.
Szkolenie organizacji w zakresie etyki AI
Kompleksowe szkolenia mają kluczowe znaczenie dla zyskania pewności, że pracownicy zrozumieją etykę sztucznej inteligencji i będą w odpowiedzialny sposób pracować z technologiami AI. Szkolenie ma również na celu zwiększenie integralności oraz efektywności narzędzi i rozwiązań AI w organizacji.
Kluczowe elementy efektywnego programu szkolenia w zakresie AI
- Opracowanie kompleksowego programu. Skorzystaj z programu szkolenia dotyczącego podstaw AI, kwestii etycznych, kwestii związanych ze zgodnością z przepisami i praktycznych zastosowań, dostosowanych do różnych ról organizacyjnych: od personelu technicznego po kierownictwo wyższego szczebla.
- Osobne moduły szkoleniowe dla poszczególnych ról. Zapewnij moduły szkoleniowe dostosowane do unikalnych potrzeb i obowiązków różnych działów. Na przykład programiści mogą skupić się na etycznych praktykach kodowania, podczas gdy zespoły ds. sprzedaży i marketingu zapoznają się z implikacjami wykorzystania AI w interakcjach z klientami.
- Ciągłe uczenie się i aktualizacje. AI rozwija się szybko, dlatego programy szkoleniowe muszą uwzględniać najnowsze osiągnięcia i najlepsze praktyki.
- Szkolenia interaktywne i praktyczne. Posługuj się studiami przypadków, symulacjami i warsztatami, aby zilustrować rzeczywiste zastosowania i wyzwania etyczne i wspierać wiedzę teoretyczną praktycznym doświadczeniem.
- Ocena i certyfikacja. Oceniaj poziom zrozumienia i biegłości pracowników w zakresie etyki sztucznej inteligencji oraz rozważ wprowadzenie certyfikacji w celu monitorowania ciągłego doskonalenia i zachęcania do takiej postawy.
- Mechanizmy pozyskiwania informacji zwrotnej. Określ kanały zbierania informacji zwrotnej od pracowników z myślą o ciągłym doskonaleniu programów szkoleniowych pod kątem zmieniających się potrzeb organizacji.
Obszary zastosowania etyki AI w przypadku różnych ról w organizacji
Każda osoba w organizacji, która używa aplikacji wykorzystujących sztuczną inteligencję lub silników generowania odpowiedzi opartych na AI, powinna brać poprawkę na ryzyko stronniczości tych mechanizmów i wykazywać się odpowiedzialnością. Obszary zastosowania etyki AI w przypadku różnych ról lub działów w firmach:
- Eksperci ds. danych lub inżynierowie uczenia maszynowego. W przypadku tych ról zaleca się włączenie metod wykrywania stronniczości i ograniczania ryzyka, pilnowania zdolności modelu do wyjaśniania i ulepszania modelu. Obejmuje to techniki takie jak wskaźniki uczciwości i analiza alternatywna.
- Menedżerowie produktów lub analitycy biznesowi. Obowiązki związane z etyką AI mogą obejmować różne aspekty: od oceny ryzyka w zakresie etyki, nadawania priorytetu projektom zorientowanym na użytkownika po opracowywanie jasnych strategii komunikacji w celu wyjaśnienia systemów AI użytkownikom i interesariuszom. Obejmuje to rozważanie potencjalnych skutków społecznych, potrzeb użytkowników i budowanie zaufania poprzez przejrzystość.
- Dział prawny i zajmujący się zgodnością. Zgodność z odpowiednimi regulacjami (np. przepisami dotyczącymi prywatności danych), zarządzanie ryzykiem prawnym i ryzykiem utraty reputacji związanym ze sztuczną inteligencją, a także opracowywanie strategii ograniczania zobowiązań wynikających ze stronniczości algorytmów lub niezamierzonych konsekwencji użycia należą do najważniejszych obszarów zastosowania.
- Specjaliści ds. HR. Dział HR powinien używać narzędzi rekrutacyjnych opartych na sztucznej inteligencji, które są wolne od uprzedzeń i zgodne z wymogami przepisów antydyskryminacyjnych. Zadania obejmują algorytmy audytu, wdrażanie systemów uwzględniających interwencję człowieka i zapewnianie szkoleń w zakresie etycznych praktyk rekrutacyjnych opartych na sztucznej inteligencji.
Organy zajmujące się zagadnieniami etyki AI
Etyka sztucznej inteligencji to zagadnienie złożone, kształtowane przez zmieniające się przepisy, standardy prawne, praktyki branżowe i postęp technologiczny. Organizacje muszą być na bieżąco ze zmianami zasad, które mogą mieć na nie wpływ — i współpracować z odpowiednimi interesariuszami w celu rozpoznania tych zasad. Poniższa lista nie jest wyczerpująca, ale prezentuje pewien zakres zasobów dotyczących zasad, którymi organizacje z różnych branż i regionów powinny się zainteresować.
Przykłady organów i zasobów z zakresu etyki sztucznej inteligencji
Raport ACET Artificial Intelligence for Economic Policymaking. To badanie przeprowadzone przez Afrykańskie Centrum Przemian Gospodarczych ocenia ekonomiczne i etyczne aspekty sztucznej inteligencji w celu kształtowania inkluzywnych i zrównoważonych polityk gospodarczych, finansowych i przemysłowych w Afryce.
AlgorithmWatch. Organizacja zajmująca się prawami człowieka, propagująca i rozwijająca narzędzia do tworzenia oraz wykorzystywania systemów algorytmicznych, które chronią demokrację, rządy prawa, wolność, autonomię, sprawiedliwość i równość.
ASEAN Guide on AI Governance and Ethics. Praktyczny przewodnik dla państw członkowskich Stowarzyszenia Narodów Azji Południowo-Wschodniej dotyczący projektowania, rozwoju i wdrażania technologii AI w sposób etyczny i produktywny.
European Commission AI Watch. Wspólne centrum badawcze Komisji Europejskiej zapewnia wskazówki dotyczące tworzenia wiarygodnych systemów sztucznej inteligencji, w tym sprawozdań i pulpitów dla poszczególnych krajów, w celu ułatwienia monitorowania rozwoju, użycia i wpływu sztucznej inteligencji w Europie
NTIA AI Accountability Report. W tym raporcie National Telecommunications and Information Administration zaproponowano dobrowolne, regulacyjne i inne działania na rzecz legalnych i godnych zaufania systemów AI w Stanach Zjednoczonych.
OECD AI Principles. To forum krajów i grup interesariuszy działa na rzecz wiarygodnej sztucznej inteligencji. W 2019 r. pomogło wprowadzić zasady OECD dotyczące sztucznej inteligencji, wyznaczające pierwszy międzyrządowy standard w zakresie sztucznej inteligencji. Zasady te służyły również jako podstawa dla zasad G20 dotyczących sztucznej inteligencji (G20 AI Principles).
Rekomendacja UNESCO w sprawie etyki sztucznej inteligencji. Ramy zaleceń agencji Organizacji Narodów Zjednoczonych zostały przyjęte przez 193 państwa członkowskie po dwuletnim globalnym procesie konsultacji z ekspertami i zainteresowanymi stronami.
Podsumowanie
Podsumowując, rozwijanie i wdrażanie etycznej sztucznej inteligencji wymaga podejścia wieloaspektowego. Organizacja powinna ustanowić jasne zasady etyczne, uwzględnić je w procesach rozwoju sztucznej inteligencji oraz zadbać o stałą zgodność z przepisami dzięki solidnym programom nadzoru i szkoleń. Dzięki priorytetyzacji wartości wyznawanych przez ludzi, takich jak uczciwość, przejrzystość i rozliczalność, firmy mogą w odpowiedzialny sposób wykorzystywać potencjał sztucznej inteligencji, wprowadzając innowacje, ograniczając potencjalne ryzyko i dbając, aby technologie te przynosiły korzyść całemu społeczeństwu.
Produkt SAP
Więcej obszarów zastosowania i wskazówek dotyczących etyki AI
Szczegółowe wskazówki dotyczące wdrażania etycznych praktyk AI można znaleźć w podręczniku SAP poświęconym etyce w AI.