flex-height
text-black

Inżynierowie i naukowcy pracują nad prototypem bionicznego egzoszkieletu

Czym jest etyka AI?

Etyka AI to zasady, które regulują zachowanie AI w odniesieniu do wartości wyznawanych przez ludzi. Etyka AI ma na celu zadbanie o to, aby sztuczna inteligencja była rozwijana i używana w sposób korzystny dla społeczeństwa. Obejmuje szeroki zakres zagadnień, w tym uczciwość, przejrzystość, rozliczalność, prywatność, bezpieczeństwo i potencjalne skutki społeczne.

Wprowadzenie do etyki AI

Wyobraźmy sobie system sztucznej inteligencji, który przewiduje prawdopodobieństwo przyszłych zachowań przestępczych i jest wykorzystywany przez sędziów do określania długości kary. Co się stanie, jeśli system ten będzie dyskryminował niektóre grupy demograficzne?

Etyka AI stoi po stronie dobra, bo pomaga łagodzić niesprawiedliwe uprzedzenia, usuwa bariery w dostępności i zwiększa kreatywność — a to tylko niektóre korzyści. Ponieważ organizacje w coraz większym stopniu polegają na sztucznej inteligencji przy podejmowaniu decyzji, które mają wpływ na ludzkie życie, muszą brać pod uwagę złożone implikacje etyczne, ponieważ niewłaściwe użycie sztucznej inteligencji może zaszkodzić jednostkom i społeczeństwu, a także negatywnie odbić się na zyskach i reputacji firmy.

W tym artykule omówimy następujące tematy:

Przykłady zasad etycznej AI

Dobrostan rasy ludzkiej jest centralnym elementem każdej dyskusji na temat etyki AI. Chociaż można projektować systemy sztucznej inteligencji, nadając priorytet moralności i etyce, koniec końców to ludzie muszą zadbać o etyczny projekt i użytkowanie — oraz interweniować w razie potrzeby.

Nie ma jednego, powszechnie uzgodnionego zbioru zasad etycznej sztucznej inteligencji. Wiele organizacji i agencji rządowych konsultuje się z ekspertami w dziedzinie etyki, prawa i sztucznej inteligencji, aby opracować swoje zasady przewodnie. Zasady te odnoszą się powszechnie do następujących obszarów:

Terminy i definicje z zakresu etyki AI

W dyskusjach o etycznej sztucznej inteligencji, toczonych na styku etyki i zaawansowanych technologii, często pojawia się terminologia z obu tych dziedzin. Zrozumienie jej jest istotne dla możliwości kompleksowego omówienia zagadnienia etyki AI:

Etyka AI: zbiór wartości, zasad i technik, które opierają się na powszechnie akceptowanych standardach dotyczących dobra i zła, opracowany w celu kierowania się moralnością w rozwijaniu, wdrażaniu, użytkowaniu i sprzedaży technologii AI.

Model AI: struktury matematyczne opracowane przez ludzi i przeszkolone z wykorzystaniem danych, które pozwalają na wykonywanie przez systemy AI określonych zadań na zasadzie rozpoznawania wzorców, podejmowania decyzji i przewidywania wyników. Do powszechnych zastosowań zalicza się między innymi rozpoznawanie obrazów i tłumaczenia językowe.

System AI: złożona struktura algorytmów i modeli zaprojektowanych w celu naśladowania ludzkiego rozumowania i samodzielnego wykonywania zadań.

Sprawczość: zdolność jednostek do samodzielnego działania i dokonywania wolnych wyborów.

Stronniczość: skłonność lub uprzedzenie wobec osoby bądź grupy, zwłaszcza o niesprawiedliwym charakterze. Stronniczość danych szkoleniowych — na przykład niedostateczna lub nadmierna reprezentacja określonej grupy w zbiorze danych — może prowadzić do stronniczości sztucznej inteligencji.

Wyjaśnialność: umiejętność odpowiedzenia na pytanie: „w jaki sposób maszyna uzyskała taki wynik?” Wyjaśnialność odnosi się do kontekstu technologicznego systemu AI, takiego jak jego mechanika, reguły i algorytmy oraz dane szkoleniowe.

Uczciwość: bezstronne i sprawiedliwe traktowanie lub zachowanie bez niesłusznego faworyzowania oraz dyskryminacji.

Udział człowieka: zdolność ludzi do interwencji na każdym etapie cyklu decyzyjnego systemu AI.

Możliwość interpretacji: umiejętność zrozumienia rzeczywistego kontekstu i wpływu wyników wygenerowanych przez system AI, np. kiedy sztuczna inteligencja jest używana do pomocy w podjęciu decyzji o zatwierdzeniu lub odrzuceniu wniosku o pożyczkę.

Duży model językowy (LLM): typ uczenia maszynowego często używany przy rozpoznawaniu tekstu i w zadaniach polegających na generowaniu treści.

Uczenie maszynowe: podzbiór technologii z zakresu sztucznej inteligencji, który zapewnia systemom możliwość automatycznego uczenia się, doskonalenia w miarę zdobywania doświadczenia i dostosowywania się do nowych danych bez specjalnego zaprogramowania.

Normatywność: kluczowy kontekst praktycznej etyki dotyczący oczekiwanego zachowania ludzi i instytucji w określonych sytuacjach.

Przejrzystość: podobnie jak wyjaśnialność, przejrzystość stanowi umiejętność uzasadnienia, w jaki sposób i dlaczego system sztucznej inteligencji jest rozwijany, wdrażany i używany, a także przedstawienia tych informacji ludziom w zrozumiały sposób.

Jak wdrożyć zasady etyki AI

W przypadku organizacji etyczne korzystanie ze sztucznej inteligencji jest czymś więcej niż tylko przyjmowaniem zasad etycznych — zasady te muszą być zintegrowane ze wszystkimi technicznymi i operacyjnymi procesami AI. Chociaż integracja etyki może wydawać się kłopotliwa w przypadku organizacji szybko wdrażających sztuczną inteligencję, rzeczywiste przypadki szkód spowodowanych przez błędy w założeniach i użytkowaniu modeli AI pokazują, że zaniedbania w odniesieniu do kwestii etyki mogą być ryzykowne i kosztowne.

Kto jest odpowiedzialny za etykę AI?

Krótka odpowiedź: każdy podmiot, który jest zaangażowany w działania związane ze sztuczną inteligencją, w tym przedsiębiorstwa, rządy, konsumenci i obywatele.

Różne role różnych osób w etyce AI

Infografika: co interesariusze-ludzie muszą zrozumieć

Rola liderów biznesowych w etyce AI

Wiele firm powołuje komitety kierowane przez przedstawicieli kadry wyższego szczebla w celu kształtowania zasad zarządzania sztuczną inteligencją. Na przykład w SAP utworzyliśmy panel doradczy i komitet sterujący ds. etyki AI, składający się z ekspertów ds. etyki i technologii, aby zintegrować zasady etycznej sztucznej inteligencji z naszymi produktami i operacjami. Zasady nadają priorytet następującym wartościom:

Powoływanie komitetu sterującego ds. etyki AI

Powołanie komitetu sterującego ma kluczowe znaczenie dla zarządzania podejściem organizacji do etyki sztucznej inteligencji i zapewnia najwyższy poziom rozliczalności i nadzoru. Komitet pilnuje, aby względy etyczne były wplecione w projektowanie i wdrażanie sztucznej inteligencji.

Najlepsze praktyki w zakresie powoływania komitetu sterującego ds. etyki AI

Tworzenie polityki dotyczącej etyki AI

Opracowanie polityki dotyczącej etyki AI jest niezbędne do przeprowadzania inicjatyw z dziedziny AI w organizacji. Komitet sterujący odgrywa w tym procesie kluczową rolę: wykorzystuje swoją różnorodną wiedzę specjalistyczną przy pilnowaniu zgodności polityki z przepisami, standardami i szerszymi zasadami etycznymi.

Przykładowe podejście do tworzenia zasad etyki AI

Schemat blokowy: proces klasyfikacji i oceny ryzyka

Opracowanie procesu weryfikacji zgodności

Opracowanie skutecznych procesów oceny zgodności jest niezbędne dla zapewnienia zgodności wdrożeń AI z zasadami i regulacjami dotyczącymi etyki AI w organizacji. Procesy te pomagają budować zaufanie wśród użytkowników i organów regulacyjnych oraz służą ograniczaniu ryzyka i przestrzeganiu praktyk etycznych we wszystkich projektach z dziedziny AI.

Typowe procesy weryfikacji zgodności

Techniczne wdrożenie praktyk dotyczących etyki AI

Włączenie kwestii etycznych do rozwijania sztucznej inteligencji wymaga dostosowania obecnych praktyk technologicznych, aby systemy były budowane i wdrażane w sposób odpowiedzialny. Oprócz ustanawiania zasad etycznej sztucznej inteligencji organizacje czasami tworzą również zasady odpowiedzialnej AI, które mogą skupiać się bardziej na konkretnych branżowych i technicznych obszarach zastosowania.

Kluczowe wymogi techniczne dotyczące etycznych systemów AI

Wykrywanie i ograniczanie stronniczości. Używaj różnych zbiorów danych i metod statystycznych do wykrywania i korygowania stronniczości w modelach AI. Przeprowadzaj regularne audyty w celu monitorowania stronniczości.

Przejrzystość i zdolność do wyjaśnienia. Opracowuj systemy, które użytkownicy będą mogli łatwo zrozumieć i zweryfikować, stosując metody takie jak oceny istotności cech, drzewa decyzyjne i objaśnienia niezależne od modelu, aby zwiększyć przejrzystość.

Prywatność i bezpieczeństwo danych. Upewnij się, że dane w systemach AI są zarządzane bezpiecznie i zgodnie z przepisami dotyczącymi ochrony prywatności. Systemy muszą wykorzystywać szyfrowanie, anonimizację i bezpieczne protokoły w celu zabezpieczenia integralności danych.

Solidna i niezawodna konstrukcja. Systemy sztucznej inteligencji muszą być trwałe i niezawodne w różnych warunkach, co wymaga szeroko zakrojonych testów i walidacji pod kątem skutecznej obsługi nieoczekiwanych scenariuszy.

Ciągłe monitorowanie i aktualizacja. Stale monitoruj systemy w celu oceny wydajności AI i zgodności z zasadami etyki, a w razie potrzeby zaktualizowania w oparciu o nowe dane lub warunki.

Zaangażowanie interesariuszy i informacja zwrotna. Zaangażuj interesariuszy, takich jak użytkownicy końcowi, etycy i eksperci w danej dziedzinie, w procesy projektowania i rozwoju w celu pozyskania informacji zwrotnej i zapewnienia zgodności systemu z wymogami etycznymi i operacyjnymi.

Szkolenie organizacji w zakresie etyki AI

Kompleksowe szkolenia mają kluczowe znaczenie dla zyskania pewności, że pracownicy zrozumieją etykę sztucznej inteligencji i będą w odpowiedzialny sposób pracować z technologiami AI. Szkolenie ma również na celu zwiększenie integralności oraz efektywności narzędzi i rozwiązań AI w organizacji.

Kluczowe elementy efektywnego programu szkolenia w zakresie AI

Obszary zastosowania etyki AI w przypadku różnych ról w organizacji

Każda osoba w organizacji, która używa aplikacji wykorzystujących sztuczną inteligencję lub silników generowania odpowiedzi opartych na AI, powinna brać poprawkę na ryzyko stronniczości tych mechanizmów i wykazywać się odpowiedzialnością. Obszary zastosowania etyki AI w przypadku różnych ról lub działów w firmach:

Organy zajmujące się zagadnieniami etyki AI

Etyka sztucznej inteligencji to zagadnienie złożone, kształtowane przez zmieniające się przepisy, standardy prawne, praktyki branżowe i postęp technologiczny. Organizacje muszą być na bieżąco ze zmianami zasad, które mogą mieć na nie wpływ — i współpracować z odpowiednimi interesariuszami w celu rozpoznania tych zasad. Poniższa lista nie jest wyczerpująca, ale prezentuje pewien zakres zasobów dotyczących zasad, którymi organizacje z różnych branż i regionów powinny się zainteresować.

Przykłady organów i zasobów z zakresu etyki sztucznej inteligencji

Raport ACET Artificial Intelligence for Economic Policymaking. To badanie przeprowadzone przez Afrykańskie Centrum Przemian Gospodarczych ocenia ekonomiczne i etyczne aspekty sztucznej inteligencji w celu kształtowania inkluzywnych i zrównoważonych polityk gospodarczych, finansowych i przemysłowych w Afryce.

AlgorithmWatch. Organizacja zajmująca się prawami człowieka, propagująca i rozwijająca narzędzia do tworzenia oraz wykorzystywania systemów algorytmicznych, które chronią demokrację, rządy prawa, wolność, autonomię, sprawiedliwość i równość.

ASEAN Guide on AI Governance and Ethics. Praktyczny przewodnik dla państw członkowskich Stowarzyszenia Narodów Azji Południowo-Wschodniej dotyczący projektowania, rozwoju i wdrażania technologii AI w sposób etyczny i produktywny.

European Commission AI Watch. Wspólne centrum badawcze Komisji Europejskiej zapewnia wskazówki dotyczące tworzenia wiarygodnych systemów sztucznej inteligencji, w tym sprawozdań i pulpitów dla poszczególnych krajów, w celu ułatwienia monitorowania rozwoju, użycia i wpływu sztucznej inteligencji w Europie

NTIA AI Accountability Report. W tym raporcie National Telecommunications and Information Administration zaproponowano dobrowolne, regulacyjne i inne działania na rzecz legalnych i godnych zaufania systemów AI w Stanach Zjednoczonych.

OECD AI Principles. To forum krajów i grup interesariuszy działa na rzecz wiarygodnej sztucznej inteligencji. W 2019 r. pomogło wprowadzić zasady OECD dotyczące sztucznej inteligencji, wyznaczające pierwszy międzyrządowy standard w zakresie sztucznej inteligencji. Zasady te służyły również jako podstawa dla zasad G20 dotyczących sztucznej inteligencji (G20 AI Principles).

Rekomendacja UNESCO w sprawie etyki sztucznej inteligencji. Ramy zaleceń agencji Organizacji Narodów Zjednoczonych zostały przyjęte przez 193 państwa członkowskie po dwuletnim globalnym procesie konsultacji z ekspertami i zainteresowanymi stronami.

Podsumowanie

Podsumowując, rozwijanie i wdrażanie etycznej sztucznej inteligencji wymaga podejścia wieloaspektowego. Organizacja powinna ustanowić jasne zasady etyczne, uwzględnić je w procesach rozwoju sztucznej inteligencji oraz zadbać o stałą zgodność z przepisami dzięki solidnym programom nadzoru i szkoleń. Dzięki priorytetyzacji wartości wyznawanych przez ludzi, takich jak uczciwość, przejrzystość i rozliczalność, firmy mogą w odpowiedzialny sposób wykorzystywać potencjał sztucznej inteligencji, wprowadzając innowacje, ograniczając potencjalne ryzyko i dbając, aby technologie te przynosiły korzyść całemu społeczeństwu.

Czytaj więcej