Mikä on tekoälyn etiikka?
Tekoälyetiikalla tarkoitetaan periaatteita, jotka ohjaavat tekoälyn käyttäytymistä inhimillisten arvojen suhteen. Tekoälyn etiikka auttaa varmistamaan, että tekoälyä kehitetään ja käytetään yhteiskunnallisesti hyödyllisillä tavoilla. Siihen sisältyy monenlaisia näkökohtia, kuten oikeudenmukaisuus, avoimuus, vastuuvelvollisuus, yksityisyyden suoja, turvallisuus ja mahdolliset yhteiskunnalliset vaikutukset.
default
{}
default
{}
primary
default
{}
secondary
Johdatus tekoälyn etiikkaan
Tekoälyetiikka on hyvä voima, joka auttaa lieventämään epäreiluja ennakkoluuloja, poistaa esteettömyyden esteitä ja lisää luovuutta monien muiden etujen ohella. Koska organisaatiot luottavat yhä enemmän tekoälyyn ihmiselämään vaikuttavissa päätöksissä, on ratkaisevan tärkeää, että ne ottavat huomioon monimutkaiset eettiset seuraukset, koska tekoälyn väärinkäyttö voi aiheuttaa haittaa yksilöille ja yhteiskunnalle – sekä yritysten perimmäisille linjoille ja maineelle.
Tässä artikkelissa tutkimme:
- Tekoälyn yhteiset eettiset periaatteet, termit ja määritelmät
- Eettisten tekoälyperiaatteiden luominen organisaatiolle
- Kuka vastaa tekoälyn etiikasta
- Tekoälyn etiikan koulutuksen, hallinnon ja teknisten prosessien toteuttaminen
- Eettisen tekoälyn käyttötapaukset ja toteutukset
- Joitakin tekoälyn etiikkaa käsitteleviä johtavia viranomaisia
Esimerkkejä eettisistä tekoälyperiaatteista
Ihmisten hyvinvointi on kaiken tekoälyn etiikkaa koskevan keskustelun keskiössä. Vaikka tekoälyjärjestelmät voidaan suunnitella priorisoimaan moraalia ja etiikkaa, ihmiset ovat viime kädessä vastuussa eettisen suunnittelun ja käytön varmistamisesta – ja puuttumisesta tarvittaessa.
Ei ole olemassa yhtenäisiä, yleisesti sovittuja eettisiä tekoälyperiaatteita. Monet organisaatiot ja valtion virastot konsultoivat etiikan, lain ja tekoälyn asiantuntijoita ohjaavien periaatteidensa luomiseksi. Nämä periaatteet koskevat yleisesti:
- Ihmisen hyvinvointi ja ihmisarvo: tekoälyjärjestelmien tulee aina priorisoida ja varmistaa yksilöiden hyvinvointi, turvallisuus ja ihmisarvo, ei korvata ihmisiä eikä vaarantaa ihmisten hyvinvointia
- Ihmisen valvonta: Tekoäly tarvitsee ihmisen seurantaa kaikissa kehitys- ja käyttövaiheissa – joita joskus kutsutaan ”ihmisiksi silmukassa” – varmistaakseen, että lopullinen eettinen vastuu on ihmisellä
- Puolueettomuuteen ja syrjintään puuttuminen: Suunnitteluprosesseissa olisi asetettava etusijalle oikeudenmukaisuus, tasa-arvo ja edustus, jotta voidaan lieventää puolueellisuutta ja syrjintää
- Avoimuus ja selitettävyys: Miten tekoälymallit tekevät tiettyjä päätöksiä ja tuottavat tiettyjä tuloksia, tulisi olla läpinäkyviä ja selitettävissä selkeällä kielellä
- Tietosuojan ylläpitäminen: tekoälyjärjestelmien on täytettävä tiukimmat tietosuoja- ja tietosuojastandardit ja käytettävä tehokkaita kyberturvallisuusmenetelmiä tietoturvaloukkausten ja luvattoman käytön välttämiseksi
- Osallisuuden ja monimuotoisuuden edistäminen: tekoälyteknologioiden on heijastettava ja kunnioitettava ihmisidentiteettien ja -kokemusten laajaa kirjoa
- Yhteiskunta ja talous: tekoälyn pitäisi edistää yhteiskunnallista kehitystä ja taloudellista vaurautta kaikille ihmisille edistämättä eriarvoisuutta tai epäoikeudenmukaisia käytäntöjä
- Digitaalisten taitojen ja lukutaidon parantaminen: tekoälyteknologioiden olisi pyrittävä olemaan kaikkien saatavilla ja ymmärrettävissä henkilön digitaalisesta taidosta riippumatta
- Yritysten terveys: tekoälyliiketoiminnan teknologioiden pitäisi nopeuttaa prosesseja, maksimoida tehokkuus ja edistää kasvua
Tekoälyn eettiset termit ja määritelmät
Eettistä tekoälyä käsittelevissä keskusteluissa käytetään usein molempien alojen sanastoa. Tämän sanaston ymmärtäminen on tärkeää, jotta voidaan keskustella tekoälyn etiikasta:
-
Tekoäly: Koneen kyky suorittaa kognitiivisia toimintoja, joita yhdistämme ihmisen mieliin, kuten hahmottaminen, päättely, oppiminen ja ongelmanratkaisu. Tekoälyjärjestelmiä on kahta päätyyppiä, ja jotkin järjestelmät ovat yhdistelmä molempia:
- Sääntöpohjainen tekoäly, jota kutsutaan myös asiantuntijatekoälyksi, käyttäytyy ihmisasiantuntijoiden luomien täysin määritettyjen sääntöjen mukaisesti – esimerkkinä monet verkkokauppa-alustat käyttävät sääntöpohjaista tekoälyä tuotesuositusten antamiseen
- Oppimispohjainen tekoäly ratkaisee ongelmat ja sovittaa toiminnallisuutensa itsenäisesti ihmisen suunnitteleman alkukonfiguraation ja koulutustietojoukon perusteella –generatiiviset tekoälytyökalut ovat esimerkkejä oppimispohjaisesta tekoälystä
Tekoälyn etiikka: Joukko arvoja, periaatteita ja tekniikoita, jotka käyttävät laajalti hyväksyttyjä oikean ja väärän standardeja ohjaamaan moraalista käyttäytymistä tekoälyteknologioiden kehittämisessä, käyttöönotossa, käytössä ja myynnissä.
Tekoälymalli: Ihmisten luoma ja opetettu matemaattinen kehys, jonka avulla tekoälyjärjestelmät voivat suorittaa tiettyjä tehtäviä tunnistamalla malleja, tekemällä päätöksiä ja ennustamalla tuloksia. Yleisiä käyttötarkoituksia ovat muun muassa kuvantunnistus ja kielikäännös.
Tekoälyjärjestelmä: Algoritmien ja mallien monimutkainen rakenne, joka on suunniteltu jäljittelemään ihmisen päättelyä ja suorittamaan tehtäviä itsenäisesti.
Virasto: Yksilöiden kyky toimia itsenäisesti ja tehdä vapaita valintoja.
Vääristymä: taipumus tai ennakkoluulo henkilön tai ryhmän puolesta tai sitä kohtaan, erityisesti epäoikeudenmukaisena pidetyllä tavalla. Harjoitusdatan vääristymät – kuten tiettyyn ryhmään liittyvien tietojen ali- tai yliesitys – voivat saada tekoälyn toimimaan puolueellisesti.
Selitettävyys: Kyky vastata kysymykseen: "Mitä kone teki saavuttaakseen sen tuotoksen?" Selitettävyys viittaa tekoälyjärjestelmän tekniseen kontekstiin, kuten sen mekaniikkaan, sääntöihin ja algoritmeihin sekä koulutustietoihin.
Oikeudenmukaisuus: Puolueeton ja oikeudenmukainen kohtelu tai käyttäytyminen ilman epäoikeudenmukaista suosimista tai syrjintää.
Ihmisen silmukka: Ihmisten kyky puuttua tekoälyjärjestelmän jokaiseen päätössykliin.
Tulkittavuus: Ihmisten kyky ymmärtää tekoälyjärjestelmän tuotoksen tosielämän kontekstia ja vaikutusta, kuten sitä, milloin tekoälyä käytetään lainahakemuksen hyväksymistä tai hylkäämistä koskevan päätöksen tekemiseen.
Suuri kielimalli (LLM): Koneoppimisen tyyppi, jota käytetään usein tekstintunnistus- ja generointitehtävissä.
Koneoppiminen: Tekoälyn osajoukko, joka tarjoaa järjestelmille mahdollisuuden automaattisesti oppia, parantaa kokemusta ja mukautua uusiin tietoihin ilman, että niitä on erikseen ohjelmoitu tekemään niin.
Normatiivinen: Käytännön etiikan keskeinen konteksti, joka koskee sitä, mitä ihmisten ja instituutioiden "pitäisi" tai "pitäisi" tehdä tietyissä tilanteissa.
Avoimuus: Selittämättömyyteen liittyen läpinäkyvyys on kyky perustella tekoälyjärjestelmän kehittämistä, toteuttamista ja käyttöä sekä tehdä tieto näkyväksi ja ymmärrettäväksi ihmisille.
Miten toteuttaa tekoälyn etiikan periaatteet
Organisaatioille tekoälyn eettinen käyttö on muutakin kuin eettisten periaatteiden omaksuminen; nämä periaatteet on integroitava kaikkiin teknisiin ja operatiivisiin tekoälyprosesseihin. Vaikka etiikan integrointi saattaa tuntua vaivalloiselta tekoälyn nopeasti omaksuville organisaatioille, tekoälymallien suunnitteluun ja käyttöön liittyvien ongelmien aiheuttamat todelliset haittatapaukset osoittavat, että asianmukaisen etiikan laiminlyönti voi olla riskialtista ja kallista.
Kuka vastaa tekoälyn etiikasta?
Lyhyt vastaus: kaikki, jotka osallistuvat tekoälyyn, mukaan lukien yritykset, hallitukset, kuluttajat ja kansalaiset.
Eri ihmisten erilaiset roolit tekoälyn etiikassa
- Kehittäjillä ja tutkijoilla on ratkaiseva rooli luotaessa tekoälyjärjestelmiä, jotka priorisoivat inhimillistä agentuuria ja valvontaa, käsittelevät puolueellisuutta ja syrjintää ja ovat avoimia ja selitettäviä.
- Poliittiset päättäjät ja sääntelyviranomaiset laativat lakeja ja määräyksiä, joilla säännellään tekoälyn eettistä käyttöä ja suojellaan yksilöiden oikeuksia.
- Liiketoiminta- ja toimialajohtajat varmistavat, että heidän organisaationsa omaksuvat eettiset tekoälyperiaatteet, jotta he käyttävät tekoälyä tavalla, joka vaikuttaa myönteisesti yhteiskuntaan.
- Kansalaisyhteiskunnan organisaatiot kannattavat tekoälyn eettistä käyttöä, osallistuvat sen valvontaan ja tukevat asianomaisia yhteisöjä.
- Akateemiset oppilaitokset osallistuvat koulutuksen, tutkimuksen ja eettisten ohjeiden kehittämiseen.
- Loppukäyttäjillä ja käyttäjillä, joita asia koskee, kuten kuluttajilla ja kansalaisilla, on merkitystä sen varmistamisessa, että tekoälyjärjestelmät ovat selitettävissä, tulkittavissa, oikeudenmukaisia, avoimia ja hyödyllisiä yhteiskunnalle.
Yritysjohtajien rooli tekoälyn etiikassa
Monet yritykset perustavat ylempien johtajiensa johtamia komiteoita muokkaamaan tekoälyn hallintakäytäntöjään. Perustimme esimerkiksi SAP:llä eettisistä ja teknisistä asiantuntijoista koostuvan neuvontapaneelin ja tekoälyn etiikan ohjauskomitean, jonka tehtävänä on integroida eettisen tekoälyn periaatteemme kaikkiin tuotteisiimme ja toimintaamme. Nämä periaatteet asettavat etusijalle seuraavat seikat:
- Suhteellisuus ja vahingottomuus
- Turvallisuus
- Oikeudenmukaisuus ja syrjimättömyys
- Kestävä kehitys
- Oikeus yksityisyyteen ja tietosuojaan
- Inhimillinen valvonta ja päättäväisyys
- Avoimuus ja selittämättömyys
- Vastuu ja vastuullisuus
- Tietoisuus ja tekninen lukutaito
- Sidosryhmien välinen ja mukautuva hallinto ja yhteistyö
Tekoälyn etiikan ohjauskomitean muodostaminen
Ohjauskomitean perustaminen on elintärkeää organisaation tekoälyn etiikan johtamisen kannalta ja se tarjoaa huipputason vastuuvelvollisuutta ja valvontaa. Tämä komitea varmistaa, että eettiset näkökohdat yhdistetään tekoälyn kehittämiseen ja käyttöönottoon.
Parhaat käytännöt tekoälyn eettisen ohjauskomitean muodostamiseksi
- Kokoonpano ja asiantuntemus: Mukana monipuolinen joukko sidosryhmiä, joilla on asiantuntemusta tekoälystä, lainsäädännöstä ja etiikasta. Ulkopuoliset neuvonantajat voivat tarjota puolueettomia näkökulmia.
- Tarkoituksen ja laajuuden määrittely: määrittele selkeästi komitean missio ja tavoitteet, keskittyen eettiseen tekoälyn suunnitteluun, toteutukseen ja toimintaan. Tämän pitäisi olla sopusoinnussa yrityksen arvojen, oikeudenmukaisuuden, läpinäkyvyyden ja yksityisyyden kanssa.
- Roolien ja vastuiden määrittely: Jäsenten roolien määrittely, kuten tekoälyn eettisten käytäntöjen kehittäminen, eettisten kysymysten neuvonta tekoälyprojekteissa ja määräysten noudattamisen varmistaminen.
- Tavoitteiden asettaminen: Aseta selkeät ja mitattavat tavoitteet, kuten tekoälyprojektien vuosittainen eettinen tarkastus ja neljännesvuosittain tarjottava eettinen tekoälykoulutus.
- Menettelyjen luominen: Luodaan toimintamenettelyt, mukaan lukien kokousaikataulut, dokumentointistandardit ja viestintäprotokollat avoimuuden säilyttämiseksi.
- Jatkuva koulutus ja sopeutuminen: Pysy ajan tasalla tekoälyteknologian, eettisten normien ja määräysten kehityksestä säännöllisillä koulutuksilla ja konferensseilla.
Tekoälyn eettisen käytännön luominen
Tekoälyn eettisen politiikan kehittäminen on olennaisen tärkeää organisaation tekoälyaloitteiden ohjaamiseksi. Ohjauskomitea on kriittinen tässä prosessissa ja käyttää monipuolista asiantuntemustaan varmistaakseen, että politiikka noudattaa lakeja, standardeja ja laajempia eettisiä periaatteita.
Esimerkki tekoälyn eettisen politiikan luomisesta
-
Alustavan politiikan laatiminen: Aloita laatimalla toimintalinja, joka heijastaa organisaation ydinarvoja, oikeudellisia vaatimuksia ja parhaita käytäntöjä. Tätä alkuperäistä luonnosta käytetään pohjana jatkojalostukselle.
-
Konsultointi ja panos: Sitoudu sisäisiin ja ulkoisiin sidosryhmiin, kuten tekoälyn kehittäjiin, yritysjohtajiin ja eettisiin asiantuntijoihin, jotta politiikka olisi kattavaa ja edustavaa useista näkökulmista.
-
Monitieteisten oivallusten integrointi: Hyödynnä komitean jäsenten erilaisia taustoja sisällyttääksesi oivalluksia teknologiasta, etiikasta, laista ja liiketoiminnasta tekoälyn etiikan monimutkaisten näkökohtien käsittelemiseksi.
-
Suuren riskin ja punaisen linjan käyttötapausten määrittely: Selkeyden varmistamiseksi komitean olisi hahmoteltava, mitkä tekoälysovellukset aiheuttavat merkittäviä riskejä tai joita pidetään epäeettisinä ja näin ollen kiellettyinä. SAP:n ohjauskomitea esimerkiksi luokittelee ne seuraavasti:
- Suuri riski: Tähän luokkaan kuuluvat sovellukset, jotka voivat olla haitallisia millä tahansa tavalla ja joihin kuuluvat lainvalvontaan, muuttoliikkeeseen ja demokraattisiin prosesseihin liittyvät sovellukset – sekä sovellukset, joihin liittyy henkilötietoja, automatisoitua päätöksentekoa tai jotka vaikuttavat sosiaaliseen hyvinvointiin. Komitean on arvioitava ne perusteellisesti ennen niiden kehittämistä, käyttöönottoa tai myyntiä.
- Punainen linja: Sovellukset, joilla mahdollistetaan ihmisten valvonta, syrjintä, henkilökohtaiseen tai ryhmätunnistukseen johtavien tietojen deanonymisointi tai yleisen mielipiteen manipulointi tai demokraattisten keskustelujen heikentäminen, kielletään. SAP pitää niitä erittäin epäeettisinä ja kieltää niiden kehittämisen, käyttöönoton ja myynnin.
-
Tarkastelu ja tarkistukset: Arvioidaan ja tarkistetaan jatkuvasti politiikkaa palautteen perusteella ja varmistetaan, että se on edelleen merkityksellinen ja käytännöllinen todelliselle maailmalle.
-
Viimeistely ja hyväksyminen: Lähetä täytetty käytäntö päätöksentekijöiden, kuten hallituksen, lopulliseen hyväksymiseen valiokunnan vahvan suosituksen mukaisesti.
-
Täytäntöönpano ja jatkuva valvonta: Komitean olisi seurattava politiikan täytäntöönpanoa ja saatettava se säännöllisesti ajan tasalle uuden teknologisen ja eettisen kehityksen huomioon ottamiseksi.
Vaatimustenmukaisuuden tarkistusprosessin perustaminen
Tehokkaiden vaatimustenmukaisuuden tarkistusprosessien kehittäminen on olennaisen tärkeää, jotta varmistetaan, että tekoälyn käyttöönotot noudattavat organisaation tekoälyn eettisiä käytäntöjä ja määräyksiä. Nämä prosessit auttavat lisäämään luottamusta käyttäjiin ja sääntelijöihin, ja ne auttavat vähentämään riskejä ja ylläpitämään eettisiä käytäntöjä tekoälyprojekteissa.
Tyypilliset vaatimustenmukaisuuden tarkistusprosessit
- Kehitä standardoitu arviointikehys: Muodosta kattava kehys, joka määrittelee menettelyt tekoälyprojektien arvioimiseksi eettisten ohjeiden, oikeudellisten standardien ja operatiivisten vaatimusten perusteella.
- Riskiluokitus: Luokittele tekoälyprojektit niiden eettisten ja lakisääteisten riskien mukaan. Suuririskiset hankkeet, kuten arkaluonteisia henkilötietoja käsittelevät hankkeet tai joilla on merkittäviä vaikutuksia päätöksentekoon, vaativat perusteellista tarkastelua.
- Säännölliset tarkastukset ja arvioinnit: Suorita säännöllisiä tarkastuksia, joilla varmistetaan jatkuva vaatimustenmukaisuus, mukaan lukien sekä automatisoidut tarkastukset että monitieteisten ryhmien suorittamat manuaaliset arvioinnit.
- Sidosryhmien osallistuminen: Sidosryhmien, kuten eettisten asiantuntijoiden, oikeusasiantuntijoiden, datatutkijoiden ja loppukäyttäjien, osallistuminen arviointiprosessiin mahdollisten riskien ja eettisten ongelmien havaitsemiseksi.
- Dokumentaatio ja läpinäkyvyys: Säilytä yksityiskohtaiset tiedot kaikista vaatimustenmukaisuustoimista ja varmista, että ne ovat saatavilla ja selkeitä sekä sisäisissä että ulkoisissa tarkastuksissa
- Palaute- ja eskalointimekanismit: Selkeiden raportointimenettelyjen käyttöönotto ja eettisten huolenaiheiden ja vaatimustenmukaisuuteen liittyvien kysymysten käsittely
Tekoälyn eettisten käytäntöjen tekninen toteutus
Eettisten näkökohtien sisällyttäminen tekoälyn kehitykseen edellyttää nykyisten teknologiakäytäntöjen mukauttamista, jotta järjestelmät voidaan rakentaa ja ottaa käyttöön vastuullisesti. Eettisen tekoälyn periaatteiden luomisen lisäksi organisaatiot luovat joskus myös vastuullisia tekoälyperiaatteita, jotka voivat olla keskittyneempiä omaan toimialaansa ja teknisiin käyttötapauksiinsa.
Eettisten tekoälyjärjestelmien keskeiset tekniset vaatimukset
Vääristymien havaitseminen ja lieventäminen: Käytä erilaisia tietojoukkoja ja tilastollisia menetelmiä havaitaksesi ja korjataksesi vääristymiä tekoälymalleissa. Tehdään säännöllisiä auditointeja puolueellisuuden seuraamiseksi.
Läpinäkyvyys ja selitettävyys: Kehitä järjestelmiä, jotka käyttäjät voivat helposti ymmärtää ja tarkistaa, käyttämällä menetelmiä, kuten ominaisuuksien tärkeyspisteet, päätöspuut ja malli-agnostiset selitykset läpinäkyvyyden parantamiseksi.
Tietosuoja: Varmista, että tekoälyjärjestelmien tietoja hallitaan turvallisesti ja että ne ovat tietosuojalainsäädännön mukaisia. Järjestelmien on käytettävä salausta, anonymisointia ja suojattuja protokollia tietojen eheyden turvaamiseksi.
Kestävä ja luotettava suunnittelu: AI-järjestelmien on oltava kestäviä ja luotettavia erilaisissa olosuhteissa, ja niiden on sisällettävä laaja testaus ja validointi, jotta odottamattomat skenaariot voidaan käsitellä tehokkaasti.
Jatkuva seuranta ja päivitys: Ylläpitää jatkuvaa valvontaa tekoälyn suorituskyvyn ja eettisen vaatimustenmukaisuuden arvioimiseksi ja päivittää järjestelmiä tarpeen mukaan uusien tietojen tai olosuhteiden muutosten perusteella.
Sidosryhmien sitoutuminen ja palaute: Otetaan sidosryhmät, kuten loppukäyttäjät, eettiset asiantuntijat ja toimialan asiantuntijat mukaan suunnittelu- ja kehitysprosesseihin palautteen keräämiseksi ja sen varmistamiseksi, että järjestelmä vastaa eettisiä ja toiminnallisia vaatimuksia.
Organisaation kouluttaminen tekoälyn etiikassa
Kattavalla koulutuksella on ratkaiseva merkitys sen varmistamisessa, että työntekijät ymmärtävät tekoälyn etiikkaa ja pystyvät toimimaan vastuullisesti tekoälyteknologioiden kanssa. Koulutuksella parannetaan myös organisaation tekoälytyökalujen ja -ratkaisujen eheyttä ja tehokkuutta.
Tehokkaan tekoälykoulutuskokonaisuuden keskeiset osat
- Kattava opetussuunnitelman kehittäminen: Käytä koulutuskokonaisuutta, jossa käsitellään tekoälyn perusteita, eettisiä näkökohtia, vaatimustenmukaisuuteen liittyviä kysymyksiä ja käytännön sovelluksia, jotka on räätälöity erilaisiin organisaatiorooleihin teknisestä henkilöstöstä johtoon.
- Roolikohtaiset koulutusmoduulit: Tarjoa koulutusmoduuleja, jotka on räätälöity eri osastojen yksilöllisiin tarpeisiin ja vastuisiin. Kehittäjät voivat esimerkiksi keskittyä eettisiin koodauskäytäntöihin, kun taas myynti- ja markkinointitiimit saavat tietoa tekoälyn vaikutuksista asiakaskontakteihin.
- Jatkuva oppiminen ja päivitykset: Tekoäly kehittyy nopeasti, joten on tärkeää pitää koulutusohjelmat ajan tasalla uusimmasta kehityksestä ja parhaista käytännöistä.
- Vuorovaikutteiset ja käytännölliset oppimiskokemukset: Käytä tapaustutkimuksia, simulaatioita ja työpajoja havainnollistaaksesi reaalimaailman sovelluksia ja eettisiä haasteita teoreettisen tiedon tueksi käytännön kokemuksella.
- Arviointi ja sertifiointi: Arvioi työntekijöiden ymmärrystä ja pätevyyttä tekoälyn etiikassa ja harkitse sertifioinnin tarjoamista jatkuvan kehityksen tunnistamiseksi ja motivoimiseksi.
- Palautemekanismit: Luo työntekijöille palautekanavia, joiden avulla he voivat osallistua koulutusohjelmien jatkuvaan kehittämiseen ja varmistaa, että he vastaavat organisaation muuttuviin tarpeisiin.
Tekoälyn etiikan käyttötapaukset eri rooleja varten organisaatiossa
Jokaisen organisaation, joka toimii tekoälypohjaisten sovellusten tai tekoälyn vastausmoottoreiden kanssa, on oltava varovainen ennakkoluulottomuuden riskin suhteen ja toimittava vastuullisesti. Esimerkkejä tekoälyn etiikan käyttötapauksista eri rooleissa tai osastoissa yritysyrityksissä ovat:
- Datatutkijat tai koneoppimisen insinöörit: Näissä rooleissa on suositeltavaa sisällyttää menetelmiä vääristymien havaitsemiseksi ja lieventämiseksi, mallin selitettävyyden varmistamiseksi ja mallin parantamiseksi. Tässä on kyse tekniikoista, kuten oikeudenmukaisuusmittareista ja vaihtoehtoisista analyyseista.
- Tuotepäälliköt tai liiketoiminta-analyytikot: Tekoälyn etiikkaan liittyvät vastuut voivat vaihdella eettisistä riskinarvioinneista, käyttäjäkeskeisen suunnittelun priorisoinnista ja selkeiden viestintästrategioiden kehittämisestä tekoälyjärjestelmien selittämiseksi käyttäjille ja sidosryhmille. Tähän kuuluu mahdollisten yhteiskunnallisten vaikutusten, käyttäjien tarpeiden ja luottamuksen rakentaminen läpinäkyvyyden avulla.
- Laki- ja vaatimustenmukaisuusosasto: Kriittiset käyttötapaukset ovat asiaankuuluvien määräysten (esim. tietosuojalakien) noudattamista, tekoälyyn liittyvien oikeudellisten ja maineriskien hallintaa ja strategioiden kehittämistä algoritmisista vääristymistä tai tahattomista seurauksista johtuvien vastuiden lieventämiseksi
- HR-ammattilaiset: HR-osaston tulisi työskennellä tekoälypohjaisilla rekrytointityökaluilla, jotka ovat puolueettomia ja noudattavat syrjinnän vastaisia lakeja. Tehtäviin kuuluvat auditointialgoritmit, ihmisen sisäisten järjestelmien käyttöönotto ja eettisten tekoälyrekrytointikäytäntöjen koulutus.
Viranomaiset tekoälyn etiikassa
Tekoälyn etiikka on monimutkaista, ja sitä muovaavat muuttuvat säädökset, oikeudelliset standardit, alan käytännöt ja teknologiset edistysaskeleet. Organisaatioiden on pysyttävä ajan tasalla käytäntömuutoksista, jotka voivat vaikuttaa niihin – ja niiden on tehtävä yhteistyötä asiaankuuluvien sidosryhmien kanssa määrittääkseen, mitä käytäntöjä niihin sovelletaan. Alla oleva luettelo ei ole tyhjentävä, mutta tarjoaa käsityksen siitä, mitä erilaisia politiikan resursseja organisaatioiden tulisi etsiä toimialansa ja alueensa perusteella.
Esimerkkejä tekoälyn etiikan viranomaisista ja resursseista
ACET-tekoäly talouspolitiikassa: Tässä Afrikan taloudellisen muutoksen keskuksen tutkimuksessa arvioidaan tekoälyn taloudellisia ja eettisiä näkökohtia osallistavan ja kestävän talous-, rahoitus- ja teollisuuspolitiikan edistämiseksi eri puolilla Afrikkaa.
AlgoritmWatch: Ihmisoikeusjärjestö, joka tukee ja kehittää työkaluja sellaisten algoritmisten järjestelmien luomiseen ja käyttöön, jotka suojelevat demokratiaa, oikeusvaltioperiaatetta, vapautta, autonomiaa, oikeudenmukaisuutta ja tasa-arvoa.
ASEAN Guide on AI Governance and Ethics: Käytännön opas Kaakkois-Aasian maiden liiton jäsenmaille suunnitella, kehittää ja ottaa käyttöön tekoälyteknologioita eettisesti ja tuotannollisesti.
Euroopan komission tekoälytarkkailu: Euroopan komission Yhteinen tutkimuskeskus tarjoaa ohjeita luotettavien tekoälyjärjestelmien, mukaan lukien maakohtaisten raporttien ja kojetaulujen, luomiseen, jotta tekoälyn kehitystä, käyttöönottoa ja vaikutusta Eurooppaan voidaan seurata
NTIA AI:n vastuullisuusraportti: Tässä kansallisessa televiestintä- ja tietohallintoraportissa ehdotetaan vapaaehtoisia, sääntelyllisiä ja muita toimenpiteitä, jotka auttavat varmistamaan lailliset ja luotettavat tekoälyjärjestelmät Yhdysvalloissa.
OECD:n tekoälyperiaatteet: Tämä maiden ja sidosryhmien foorumi muokkaa luotettavaa tekoälyä. Vuonna 2019 se helpotti OECD:n tekoälyperiaatteita, ensimmäistä hallitustenvälistä tekoälyä koskevaa standardia. Nämä periaatteet toimivat myös G20-tekoälyperiaatteiden perustana.
Unescon suositus tekoälyn etiikasta: Yhdistyneiden Kansakuntien viraston suosituskehyksen hyväksyi 193 jäsenvaltiota asiantuntijoiden ja sidosryhmien kanssa järjestetyn kahden vuoden maailmanlaajuisen kuulemisprosessin jälkeen.
Päätelmät
Yhteenvetona voidaan todeta, että eettisen tekoälyn kehittäminen ja käyttöönotto edellyttävät monitahoista lähestymistapaa. Organisaationa on suositeltavaa luoda selkeät eettiset periaatteet, integroida ne tekoälyn kehitysprosesseihin ja varmistaa jatkuva vaatimustenmukaisuus vankan hallinnon ja koulutusohjelmien avulla. Priorisoimalla ihmislähtöisiä arvoja, kuten oikeudenmukaisuutta, läpinäkyvyyttä ja vastuullisuutta, yritykset voivat hyödyntää tekoälyn voimaa vastuullisesti, edistää innovointia ja samalla lieventää mahdollisia riskejä ja varmistaa, että nämä teknologiat hyödyttävät koko yhteiskuntaa.
SAP-tuote
Lisää tekoälyetiikan käyttötapauksia ja ohjausta
Saat yksityiskohtaisia ohjeita eettisten tekoälykäytäntöjen käyttöönotosta SAP AI Ethics Handbook -oppaasta.