flex-height
text-black

Kobieta patrząca na wiele ekranów komputerowych, monitorująca zaangażowanie użytkownika za pomocą sztucznej inteligencji

Czym jest odpowiedzialna sztuczna inteligencja?

Odpowiedzialna sztuczna inteligencja odnosi się do projektowania, wdrażania i korzystania z systemów sztucznej inteligencji (AI) w sposób etyczny, przejrzysty i odpowiedzialny. Zasady odpowiedzialnej AI mają na celu zapewnienie, że technologie sztucznej inteligencji są zgodne z wartościami wspólnymi dla ludzi, przestrzegają praw podstawowych i mają na celu promowanie sprawiedliwości, bezpieczeństwa i dobrobytu jednostek oraz społeczeństwa.

Definicja odpowiedzialnej AI

Odpowiedzialna AI to praktyka korzystania ze sztucznej inteligencji w sposób podkreślający rolę nadzoru ludzkiego i dobra społecznego. Chodzi o zapewnienie, aby modele sztucznej inteligencji, zbiory danych i aplikacje były opracowywane i wdrażane w sposób etyczny i zgodny z prawem oraz by nie powodowały zamierzonych szkód i nie utrwalały uprzedzeń. Jest to ważne, ponieważ niewłaściwe lub nieostrożne używanie sztucznej inteligencji może spowodować szkody dla użytkowników, osób postronnych, osób, których dotyczą dane, społeczeństwa i firm.

Czym jest odpowiedzialna AI, czym wiarygodna AI, a czym etyczna AI?

Terminy odpowiedzialna AI, wiarygodna AI i etyczna AI są ściśle powiązane, ale istnieją między nimi pewne kluczowe różnice:

Musimy pamiętać, że ponieważ sztuczna inteligencja nie jest człowiekiem, nie posiada ludzkich cech, takich jak odpowiedzialność, wiarygodność czy etyka. Dlatego ważne jest, aby przypisywać te terminy nie samej technologii, a osobom, które ją tworzą lub jej używają.

Jak działa odpowiedzialna AI

Odpowiedzialna AI to zbiór czynników ludzkich i technologicznych, które czynią ją możliwą:

Grupa osób pracujących razem w sali konferencyjnej

Ustanowienie sformalizowanych zasad odpowiedzialnej AI to dobry sposób na to, by wszystkie osoby w organizacji miały wspólną wizję odpowiedzialnej sztucznej inteligencji. Jednak to tylko początek — organizacja musi również wdrożyć efektywne procesy zarządzania sztuczną inteligencją, szkolenia i procesy techniczne, aby wprowadzić te zasady w życie.

Zasady odpowiedzialnej AI różnią się w zależności od organizacji. Na przykład firmy świadczące usługi finansowe mogą położyć większy nacisk na sprawiedliwość i niedyskryminację, podczas gdy firmy z sektora mediów społecznościowych mogą w większym stopniu koncentrować się na przejrzystości lub prywatności. Oto podsumowanie przykładowych zasad przedstawionych w wytycznych etycznych Komisji Europejskiej dotyczących tworzenia wiarygodnych systemów sztucznej inteligencji:

Przykład zasad odpowiedzialnej sztucznej inteligencji

Czynnik i nadzór ludzki: sztuczna inteligencja powinna usprawnić proces podejmowania decyzji przez człowieka, chronić prawa człowieka i posiadać mechanizmy pozwalające na sprawowanie nadzoru przez ludzi.

Niezawodność techniczna i bezpieczeństwo: systemy sztucznej inteligencji powinny być bezpieczne, odporne, dokładne i niezawodne oraz należy wdrożyć plan awaryjny, aby zapobiec niezamierzonym szkodom.

Prywatność i nadzór nad danymi: systemy powinny w pełni szanować prywatność i regulować jakość, prywatność i legalny dostęp do danych.

Przejrzystość: systemy muszą być możliwe do monitorowania i przejrzyste. Powinny być wyraźnie oznaczone jako sztuczna inteligencja, a ich możliwości i ograniczenia powinny być skutecznie przedstawione.

Różnorodność, niedyskryminacja i sprawiedliwość: sztuczna inteligencja powinna unikać utrwalania uprzedzeń, wspierać różnorodność, zapewniać równy dostęp i angażować zainteresowane strony w proces rozwoju.

Dobro społeczne i środowiskowe: systemy sztucznej inteligencji powinny przynosić korzyści wszystkim ludziom, w tym przyszłym pokoleniom. Muszą one być zrównoważone i przyjazne dla środowiska, a ich wpływ społeczny należy starannie analizować.

Odpowiedzialność: należy wprowadzić mechanizmy zapewniające odpowiedzialność za systemy sztucznej inteligencji i rezultaty ich stosowania. Należy zapewnić możliwość przeprowadzenia audytu i dostępność.

Praktyki z zakresu tworzenia odpowiedzialnej AI

Programiści i naukowcy, którzy tworzą lub wdrażają systemy sztucznej inteligencji, muszą przestrzegać najlepszych praktyk technicznych z zakresu wiarygodnej AI i nieustannie oceniać, czy tworzone przez nich systemy przestrzegają zasad odpowiedzialnej sztucznej inteligencji. Oto kilka typowych praktyk:

Ocena danych, na których uczy się model

Różnorodne zbiory danych zapewniają, że reprezentowane są różne grupy, co poprawia wydajność i inkluzywność systemu AI. Znajomość danych wykorzystywanych do uczenia modeli jest niezbędna do wykrywania lub łagodzenia problemów, takich jak stronniczość AI.

Analiza przyczynowa

Zrozumienie, w jaki sposób relacje przyczynowo-skutkowe działają w modelach AI, może pomóc w podejmowaniu etycznych decyzji dotyczących sposobu — a nawet zasadności — ich wdrożenia. Analiza ta zwiększa wiarygodność modeli predykcyjnych poprzez ujawnienie interakcji między różnymi zmiennymi.

Analiza alternatywna

Jest to proces poprawy stopnia uczciwości modelu i procesu podejmowania decyzji za pomocą zapytań symulacyjnych typu „what-if”, które pomagają ujawnić stronniczość i problemy logiczne AI. Chodzi o zadawanie modelowi pytań o to, jak zmieniłyby się jego decyzje, gdyby dane wejściowe, takie jak dane o osobie lub sytuacji, były inne.

Uczciwość w uczeniu maszynowym

Wyeliminowanie stronniczości AI ma kluczowe znaczenie dla zapewnienia sprawiedliwego traktowania różnych grup lub osób przez systemy. Odbywa się to poprzez identyfikację przypadków nierównej reprezentacji lub niesprawiedliwego traktowania w danych i algorytmach uczenia maszynowego. Zwykle obejmuje trzy fazy:

Ocena błędów modelu

Ocena i korygowanie błędów w prognozach modeli ma kluczowe znaczenie dla uniknięcia ryzykownych lub wstydliwych wyników. Popularne metody oceny błędów to między innymi tablica pomyłek, precision, recall, miara F1 i krzywa ROC.

Interpretowalność modelu

Aby promować zaufanie i przejrzystość wśród użytkowników i organów regulacyjnych, programiści muszą być w stanie zinterpretować i wyjaśniać, dlaczego ich modele podejmują konkretne decyzje i wykazują pewne zachowania. Niektóre powszechnie stosowane techniki interpretowalności obejmują:

lornetka

Podręcznik SAP dotyczący etyki AI

Ta dogłębna analiza pomaga zastosować politykę SAP Global AI Ethics w codziennej pracy w celu wypracowania modelu odpowiedzialnej AI.

Zapoznaj się z podręcznikiem

Dlaczego odpowiedzialna sztuczna inteligencja jest ważna?

Sztuczna inteligencja wywiera głęboki wpływ na społeczeństwo, w tym na sposób, w jaki pracujemy i wchodzimy w interakcje. Odpowiedzialna sztuczna inteligencja może być katalizatorem innowacji, ponieważ promuje skupione na ludziach innowacyjne podejście do rozwiązywania problemów i rozwoju produktów. Jednak nieodpowiedzialne wykorzystanie sztucznej inteligencji stwarza znaczące ryzyko, w tym między innymi zaostrzenie nierówności czy generowanie szkodliwych treści. Przestrzegając zasad i postępując zgodnie z praktykami związanymi z odpowiedzialną sztuczną inteligencją, organizacje mogą zapewnić, że ich systemy AI są opracowywane i wykorzystywane w sposób etyczny, odpowiedzialny i korzystny dla wszystkich interesariuszy.

Etyczne imperatywy dla przedsiębiorstw i instytucji państwowych

Wszystkie organizacje i osoby prywatne muszą przestrzegać wysokich standardów etycznych w zakresie korzystania ze sztucznej inteligencji. Oprócz spełnienia wymogów prawnych firmy i instytucje publiczne muszą również kierować się koniecznością zapewnienia prywatności, przejrzystości i uczciwości danych w swoich działaniach związanych ze sztuczną inteligencją.

Oczekiwania społeczne w zakresie etycznego wykorzystania technologii

Zapotrzebowanie na odpowiedzialność i przejrzystość działalności firm technologicznych rośnie wraz z coraz powszechniejszym wykorzystaniem sztucznej inteligencji. Społeczeństwo oczekuje, że systemy AI będą projektowane z poszanowaniem człowieka, różnorodności i dobra publicznego.

Inżynier pracujący nad robotem

Zalety odpowiedzialnej sztucznej inteligencji

Organizacje przyspieszają wdrażanie sztucznej inteligencji, więc jest rzeczą naturalną, że niektóre z nich postrzegają odpowiedzialną AI jako niepotrzebne spowolnienie — lub coś, czym można się zająć później. Ustanowienie zasad przewodnich przed rozpoczęciem dużych projektów AI ma jednak kluczowe znaczenie dla zapobiegania błędom technologicznym, szkodom dla ludzi i utracie reputacji.

Przewaga konkurencyjna

Organizacje mogą osiągnąć status liderów etycznych innowacji i przyciągać klientów, którzy w swoich decyzjach zakupowych nadają priorytet wartościom etycznym. Oprócz korzyści technologii AI płynących z wydajności i innowacji, odpowiedzialne korzystanie umożliwia firmom wdrożenie sztucznej inteligencji przy mniejszym ryzyku niż w przypadku konkurencji, która nie dba o ten aspekt.

Oszczędności i efektywność

Proaktywne rozwiązywanie problemów związanych ze stronniczością AI i zapewnianie dokładności danych modelowych może pomóc zapobiec szkodom dla ludzi i kosztownym błędom oraz zwiększyć wydajność. Ponadto przejrzyste i wyjaśnialne modele AI są zwykle dokładniejsze niż te, które nie mają tych cech.

Większe zaufanie do marki

Otwarta komunikacja na temat sposobu projektowania i wdrażania systemów AI oraz zarządzania nimi pokazuje zaangażowanie w wartości etyczne i dobre samopoczucie klientów. Może to poprawić wizerunek marki, zwiększyć lojalność klientów i pomóc w zdobywaniu zaufania klientów i partnerów.

Szybsze podejmowanie trafniejszych decyzji

Dzięki identyfikowaniu i eliminowaniu stronniczości w danych i algorytmach organizacje mają większą pewność, że analizy i rekomendacje oparte na sztucznej inteligencji są dokładne, sprawiedliwe i zgodne ze standardami etycznymi. To korzyść dla różnych funkcji biznesowych, w tym działów rozwoju produktów, obsługi klienta i planowania strategicznego.

Ograniczanie ryzyka

Przypadki stronniczości, naruszeń prywatności danych lub nieetycznego wdrożenia sztucznej inteligencji mogą zaszkodzić reputacji organizacji i prowadzić do kosztownych procesów sądowych. Przestrzeganie zasad odpowiedzialnej AI pomaga uniknąć tych zagrożeń.

Wyzwania związane z odpowiedzialną AI

Opracowanie zbioru zasad odpowiedzialnej AI to dopiero pierwszy krok do przyjęcia właściwego nastawienia i operacyjnego podejścia do tworzenia i wdrażania AI w sposób odpowiedzialny. Oto kilka wyzwań związanych z odpowiedzialną sztuczną inteligencją:

Stronniczość AI: rozpoznanie i eliminowanie

Systemy sztucznej inteligencji mogą odzwierciedlać lub utrwalać istniejące uprzedzenia obecne w danych szkoleniowych, potencjalnie prowadząc do niesprawiedliwych wyników w zastosowaniach takich, jak zatrudnianie pracowników lub zatwierdzanie pożyczek. Aby złagodzić tę stronniczość, organizacje muszą upewnić się, że ich zbiory danych są zróżnicowane, przeprowadzać regularne audyty i stosować algorytmy ograniczania uprzedzeń.

Nadzór nad sztuczną inteligencją: zapewnienie etycznej zgodności

Bez solidnej struktury nadzoru nad sztuczną inteligencją organizacje mogą borykać się z problemami z prywatnością, bezpieczeństwem i kontrolą. Ustanowienie jasnych zasad, promowanie przejrzystości i angażowanie interesariuszy to czynniki niezbędne do utrzymania zgodności i odpowiedzialności w systemach AI.

Zgodność z przepisami i standaryzacja

Błyskawiczna ewolucja technologii AI sprawiła, że dotychczasowe ramy regulacyjne stały się nieaktualne, tworząc lukę, która może prowadzić do naruszeń etycznych. Elastyczne ramy prawne i współpraca międzynarodowa są niezbędne do zapewnienia, by systemy sztucznej inteligencji były tworzone zgodnie ze zaktualizowanymi przepisami i standardami.

Skalowalność etycznych praktyk AI

Skalowanie etycznych praktyk AI stanowi wyzwanie, szczególnie w przypadku organizacji, które nie dysponują wystarczającymi zasobami lub specjalistyczną wiedzą. Szkolenie specjalistów ds. sztucznej inteligencji w zakresie etyki i wykorzystania technologii do automatyzacji mechanizmów monitorowania etycznych praktyk może pomóc w efektywnym skalowaniu odpowiedzialnej działalności.

Korzystanie z AI w złych zamiarach

Poważne obawy budzi rozpowszechnianie nieprawdziwych informacji, nieupoważnione sprawowanie nadzoru czy dyskryminacyjne profilowanie. Przeciwdziałanie tym zagrożeniom wymaga rygorystycznych środków regulacyjnych, ścisłych wytycznych etycznych i ciągłego monitorowania przez człowieka.

Przypadki odpowiedzialnego użycia AI

Opieka zdrowotna: zwiększenie dokładności diagnostyki

Sztuczna inteligencja może pomóc lekarzom w dokładniejszym diagnozowaniu chorób na podstawie obrazowania medycznego. Gdy modele AI są sprawiedliwe i przejrzyste, korzystanie ze sztucznej inteligencji może pomóc osiągać świadczyć opiekę medyczną na równych zasadach we wszystkich grupach demograficznych.

Finanse: sprawiedliwe decyzje pożyczkowe

Dzięki aktywnemu monitorowaniu i korygowaniu algorytmów obliczających zdolność kredytową pod kątem stronniczości AI banki i instytucje kredytowe mogą świadczyć bardziej sprawiedliwy dostęp do produktów finansowych, co sprzyja eliminowaniu praktyk dyskryminacyjnych.

Handel detaliczny: spersonalizowane doświadczenia klienta

Generatywna sztuczna inteligencja umożliwia sprzedawcom detalicznym tworzenie wysoce spersonalizowanych treści i rekomendacji produktów. Dzięki przejrzystemu sposobowi korzystania z tej technologii sprzedawcy detaliczni mogą liczyć na większe zaufanie klientów, co prowadzi do zwiększenia lojalności i wyników sprzedaży.

Motoryzacja: bezpieczniejsze pojazdy

Za pomocą rygorystycznych testów i standardów etycznej AI producenci dążą do zmniejszenia liczby wypadków i poprawy bezpieczeństwa na drogach.

Zasoby ludzkie: bezstronna rekrutacja

Dzięki zastosowaniu algorytmów, które są regularnie kontrolowane pod kątem równości, działy HR mogą podejmować bardziej bezstronne decyzje dotyczące zatrudnienia, promując różnorodność i inkluzywność w miejscu pracy.

Rodzaje odpowiedzialnej AI

Oprócz etycznej i wiarygodnej sztucznej inteligencji istnieje kilka innych rodzajów odpowiedzialnej AI:

Zrównoważona sztuczna inteligencja koncentruje się na rozwoju technologii AI w sposób przyjazny dla środowiska. Obejmuje to optymalizację zużycia energii przez systemy, wykorzystanie bardziej ekologicznej infrastruktury oraz rozważanie wpływu wdrażania technologii AI na środowisko i możliwość minimalizowania śladu węglowego.

Zgodna z przepisami sztuczna inteligencja ma na celu zapewnienie, że wszystkie operacje i technologie AI są zgodne z obowiązującymi przepisami i regulacjami. Ten rodzaj odpowiedzialnej sztucznej inteligencji ma kluczowe znaczenie w rygorystycznie regulowanych branżach, takich jak finanse i opieka zdrowotna, gdzie przestrzeganie przepisów jest równie ważne jak wydajność techniczna.

Sztuczna inteligencja zorientowana na człowieka stawia na pierwszym miejscu ludzkie wartości i dobrobyt, angażując zainteresowane strony w proces rozwoju i koncentrując się na technologiach, które rozszerzają możliwości człowieka, a nie dążą do jego zastąpienia.

Często zadawane pytania

Czym jest nadzór nad sztuczną inteligencją?
Nadzór nad sztuczną inteligencją to struktura określająca sposób, w jaki technologie AI są badane, rozwijane, wdrażane i monitorowane, aby zapewnić ich zgodność z normami etycznymi, przepisami i regulacjami.
Na czym polega stronniczość AI?
Pojęcie stronniczości sztucznej inteligencji odnosi się do niesprawiedliwych rozbieżności pojawiających w danych lub procesach algorytmicznych systemów AI, często prowadzących do negatywnych skutków dla określonych grup lub osób.
Dowiedz się więcej o odpowiedzialnej AI
Przeczytaj podręcznik SAP AI Ethics Handbook, aby dowiedzieć się więcej na temat odpowiedzialnej AI, w tym na temat przejrzystości, nadzoru ludzkiego i stronniczości modelu.
Jaka jest różnica między odpowiedzialną a wyjaśnialną sztuczną inteligencją?
Pojęcie wyjaśnialności sztucznej inteligencji koncentruje się na zrozumieniu, w jaki sposób systemy AI podejmują decyzje, podczas gdy pojęcie odpowiedzialności sztucznej inteligencji jest znacznie szersze. Odpowiedzialna sztuczna inteligencja zapewnia uczciwość, przejrzystość, odpowiedzialność, wiarygodność i ochronę prywatności. Wyjaśnialność sztucznej inteligencji jest ważnym aspektem pojęcia odpowiedzialnej AI, ponieważ zapewnia, że systemy AI są zrozumiałe i godne zaufania.
lornetka

Podręcznik SAP dotyczący etyki AI

Dowiedz się więcej na temat koncepcji odpowiedzialnej sztucznej inteligencji, w tym przejrzystości, nadzoru ludzkiego i stronniczości modelu.

Pobierz podręcznik