什麼是 AI 倫理?
AI 倫理學是指管理 AI 在人類價值方面的行為準則。AI 倫理學有助於確保 AI 的開發和運用方式對社會有利。其中包含廣泛的考量,包含公平性、透明度、責任、隱私、安全性和潛在的社會影響。
default
{}
default
{}
primary
default
{}
secondary
AI 倫理簡介
AI 倫理是一種良好力量,有助於減少不公平的偏見、消除可存取性障礙、強化創造力,並帶來許多其他效益。隨著組織越來越依賴 AI 來制定影響人類生活的決策,他們需要考慮複雜的倫理影響,因為誤用 AI 可能會對個人和社會以及企業的利潤和聲譽造成傷害。
在本文中,我們將探索:
- 常見的 AI 倫理原則、術語和定義
- 為組織建立 AI 倫理原則
- 誰該負責 AI 倫理
- 建置 AI 倫理訓練、管理和技術流程
- AI 倫理使用案例和建置
- 一些 AI 倫理的領導權威
AI 倫理原則範例
在任何關於 AI 倫理的討論中,人類的福祉都是核心問題。雖然 AI 系統的設計可以優先考慮道德和倫理,但人類最終有責任確保設計和使用符合倫理,並在必要時進行干預。
目前尚無普遍同意的的一套 AI 倫理原則。許多組織和政府機構諮詢道德、法律和 AI 方面的專家,建立他們的指導原則。這些原則通常涉及:
- 人類福祉和尊嚴:AI 系統應始終優先考慮並確保個人的福祉、安全和尊嚴,既不能取代人類,也不損害人類福利
- 人類監督:AI 在每個開發和使用的階段需要人類監控(有時稱為「人員參與流程」),確保人類負有最終的道德責任
- 解決偏見和歧視:設計流程應優先考慮公平、平等和代表性,以降低偏見和歧視
- 透明度和可解釋性:AI 模型如何制定特定決策並產生特定結果,應以透明的方式進行並能清晰的語言解釋
- 維護資料隱私和保護:AI 系統必須符合最嚴格的資料隱私和保護標準,使用強大的網路安全方法以避免資料外洩和未經授權的存取
- 促進包容性和多樣性:AI 技術需要反映和尊重人類身分多樣性和經驗
- 社會和經濟:AI 應協助推動社會進步和全民經濟繁榮,而不是加劇不平等或不公平的做法
- 強化數位技能和素養:無論人員的數位技能掌握程度如何,AI 技術應致力於讓每個人都能存取並理解
- 企業健康:AI 企業技術應加速流程、將效率最大化,並促進成長
AI 倫理術語和定義
作為倫理和高科技的交叉點,關於 AI 倫理的對話經常使用這兩個領域的詞彙。了解此詞彙對於能夠討論 AI 倫理非常重要:
-
AI:機器執行與人類思維相關的認知功能的能力,例如感知、推理、學習和解決問題。AI 系統有兩種主要類型,而部份系統為兩種類型的結合:
- 以規則為基礎的 AI,也稱為專家 AI,根據人類專家建立的一套完整定義規則運作,例如,許多電子商務平台都使用以規則為基礎的 AI 來提供產品推薦
- 學習型 AI 更夠根據其初始的人類設計設定和訓練資料集,自行解決問題並調整其功能,生成式 AI 工具就是學習型 AI 的一個範例
AI 倫理:一套價值觀、原則和技術,採用廣泛接受的是非標準,引導 AI 技術開發、部署、使用和銷售中的道德行為。
AI 模型:由人類建立並根據資料進行訓練的數學架構,可讓 AI 系統透過識別模式、制定決策和預測結果來執行特定任務。常見用途包括圖片辨識和語言翻譯等。
AI 系統:演算法和模型的複雜結構,旨在模仿人類推理並自動執行任務。
自主性:個人獨立行動和自由選擇的能力。
偏見:對某人或某個群體的傾向或偏見,特別是被認為不公平的傾向或偏見。訓練資料的偏見(例如與特定群體相關資料的不足或過多)可能會使 AI 以偏頗的方式運作。
可解釋性:能夠回答「機器做了什麼才能達到其產出?」的問題。說明性係指 AI 系統的技術情境,例如 AI 系統的機制、規則和演算法,以及訓練資料。
公平:公平公正和的待遇或行為,沒有不公正的偏袒或歧視。
人員參與流程:人類介入人 AI 系統每個決策週期的能力。
解讀能力:讓人們理解 AI 系統輸出結果的實際情境和影響,例如使用 AI 協助決定核准或拒絕貸款申請。
大型語言模型(LLM):通常用於文字辨識和產生任務的機器學習類型。
機器學習:AI 的子集提供系統自動學習、從經驗中改善和適應新資料的能力,而無須明確進行程式設計。
規範:道德實踐的一個關鍵情境,涉及人們和機構在特定情況下「應該」或「應當」做什麼。
透明度:與可解釋性相關,透明度是證明 AI 系統如何以及為何被開發、建置和使用的能力,並使人們能夠看見和理解這些資訊的能力。
如何建置 AI 倫理原則
對組織而言,合乎道德地使用 AI 不僅僅是遵循倫理原則;這些原則必須整合至所有技術和營運 AI 流程中。對於快速採用 AI 的組織而言,整合倫理原則可能變得相當困難,因 AI 設計和使用問題而造成的實際危害案例表明,忽視適當的倫理規範可能會帶來風險和代價高昂的傷害。
誰該負責 AI 倫理?
簡短的答案:每個與 AI 有關的人,包括企業、政府、消費者和民眾。
不同人員在 AI 倫理中的不同角色
- 開發人員和研究人員在建立 AI 系統時扮演重要的角色,這些系統會優先考慮人類機構和監督、解決偏見和歧視,並具有透明度且可解釋性。
- 政策制定者和監管機構會建立法律和法規,以管理 AI 的倫理使用並保護個人的權利。
- 企業和產業領導者確保組織採用 AI 倫理原則,以便他們使用 AI 對社會做出正面貢獻。
- 民間社會組織倡導 AI 的使用倫理,發揮監督作用,為受影響的社區提供支援。
- 學術機構透過教育、研究、制定道德準則作出貢獻。
- 一般使用者和受影響的使用者,例如消費者和民眾,都有責任確保 AI 系統可解釋、可解讀、公平、透明並有益於社會。
企業領導人在 AI 倫理中的角色
許多企業會成立由其資深領導人領導的委員會,以制定其 AI 管理政策。例如,我們在 SAP 組成諮詢小組,以及由倫理和技術專家組成 AI 倫理指導委員會,將 AI 倫理原則整合至產品和營運中。這些原則優先考慮:
- 比例原則和不傷害原則
- 安全與防護
- 公平性和反歧視
- 永續發展
- 隱私權和資料保護
- 人的監督權和決定權
- 透明度和可解釋性
- 責任和責任歸屬
- 認知和技術素養
- 多利益相關方和彈性管理和協作
成立 AI 倫理指導委員會
建立指導委員會對於管理組織的 AI 倫理方法非常重要,並提供最高層級責任歸屬和監督。此委員會確保將倫理考量成為 AI 開發和部署的一環。
成立 AI 倫理指導委員會的最佳實務
- 組成和專業知識:包括具有 AI、法律和倫理方面專業知識的不同利益相關人士。外部顧問可提供無偏見的觀點。
- 定義目的和範圍:明確定義委員會的任務和目標,專注於AI 倫理設計、建置和營運。這應與公司價值、公平、透明度和隱私權保持一致。
- 定義角色和責任:概述成員的特定角色,例如制定 AI 倫理政策、為 AI 專案中的倫理問題提供建議,以及確保遵循法規。
- 設定目標:設定清楚、可衡量的目標,例如執行 AI 專案的年度道德稽核,並提供季度 AI 倫理訓練。
- 建立程序:建立營運程序,包括會議排程、文件標準和通訊協定,以維持透明度。
- 持續教育和調整:透過定期訓練和會議,即時了解 AI 技術、道德標準和法規的新發展。
建立 AI 倫理政策
制定 AI 倫理政策對於引導組織內 AI 行動方案至關重要。指導委員會在此過程中非常關鍵,它運用其多樣化的專業知識確保政策遵循法律、標準和更廣泛的道德原則。
制定 AI 倫理政策的範例方法
-
起草初始政策:首先草擬反映組織核心價值、法律要求和最佳實務的政策。此初步草案將作為進一步完善的基礎。
-
諮詢與投入:與內部和外部利益相關人士互動,包括 AI 開發人員、企業領導人和倫理學家,使政策具有全面性,並代表多個觀點。
-
跨領域洞察的整合:運用委員會成員的不同背景,整合技術、倫理、法律和企業領域的洞察,以解決 AI 倫理的複雜層面。
-
定義高風險和紅線使用案例:為確保保持清晰明瞭,委員會應概述哪些 AI 應用程式具有重大風險或被視為不道德,因此予以禁止。例如,SAP 指導委員會將其分類為:
- 高風險:此類別包括可能以任何方式造成危害的應用程序,包括與執法、移民和與民主進程相關的應用程式,以及涉及個人資料、自動決策或影響社會福祉的應用程式。這些應用程式必須在開發、部署或銷售之前經過委員會的徹底評估。
- 紅線:禁止使用能夠進行人類監控、歧視、對資料進行去匿名化處理,以識別個人或團體、操縱輿論或破壞民主辯論的應用程式。SAP 認為這些用途極度不道德,並禁止此類應用程式開發、部署和銷售。
-
審查和修訂:根據反饋持續審查和修改政策,確保政策與現實世界仍相關且實用。
-
完成和核准:在委員會強烈建議的支持下,將完成的政策提交給董事會等決策者進行最終核准。
-
實施和持續監督:該委員會應監督政策的實施情況,並定期更新以反映新的技術和道德發展。
建立法規遵循審查流程
開發有效的法規遵循審查流程,對於確保 AI 部署遵循組織的 AI 倫理政策及法規至關重要。這些流程有助於與使用者和監管機構建立信任,並可協助降低風險並維護 AI 專案的倫理實務。
基本法規遵循審查程序
- 建立標準化審查架構:制定完整的架構,根據倫理指導原則、法律標準和營運需求定義評估 AI 專案的程序。
- 風險分類:按其道德和法規風險分類 AI 專案。高風險專案(例如處理敏感個人資料或產生重大決策影響)需要高度審查。
- 定期稽核和評估:執行定期稽核以驗證進行中的法規遵循,包括跨領域團隊的自動化檢查和人工審查。
- 利益相關人士參與:讓不同的利益相關人士群體參與審查流程,包括倫理學家、法律專家、資料科學家和一般使用者,以發現潛在的風險和道德困境。
- 文件和透明度:保留所有法規遵循作業的詳細記錄,確保在內部和外部稽核時都能存取且清晰
- 意見回饋和升級機制:建置清楚的報表製作程序,並解決倫理方面的考量和法規遵循問題
AI 倫理實務的技術建置
將倫理考量整合至 AI 開發,包含調整目前技術實務,確保以負責任的方式建立和部署系統。除了建立 AI 倫理原則外,組織有時也會建立負責的 AI 原則,這些原則更著重於特定產業和技術使用案例。
AI 倫理系統的關鍵技術需求
偏見偵測和降低偏見:使用各種資料集和統計方法,偵測並修正 AI 模型中的偏見。進行定期稽核以監控偏見。
透明度和可解釋性:開發使用者可輕鬆理解和驗證的系統,運用功能重要性分數、決策樹和不受模型限制的解釋等方法來提高透明度。
資料隱私權和安全性:確保 AI 系統中的資料得到安全管理,並遵循隱私法規。系統必須使用加密功能、匿名化和安全性通訊協定來保護資料完整性。
強大可靠的設計:AI 系統在不同條件下必須持久、可靠,並集合豐富的測試和驗證,才能有效處理意外情境。
持續監控和更新:維持持續監控以評估 AI 績效和道德法規遵循,並根據新資料或條件變化,按需求更新系統。
利益相關人士參與和反饋:讓利益相關人士(例如一般使用者、魯尼學家和領域專家)參與設計和開發流程,以便收集意見回饋並確保系統符合倫理和營運需求。
對組織進行 AI 倫理方面的培訓
全方位訓練對於確保員工了解 AI 倫理,並負責地使用 AI 技術至關重要。訓練也可用於增強組織 AI 工具和解決方案的完整性和有效性。
有效 AI 培訓課程的關鍵要素
- 全方位課程開發:使用針對不同組織角色(從技術人員到管理階層)量身打造的訓練課程,因應 AI 基礎、倫理考量、法規遵循問題和實際應用等問題。
- 角色特定訓練模組:針對不同部門的獨特需求和責任,提供自訂的訓練模組。例如,開發人員可能會專注於倫理編碼實務,而銷售和行銷團隊會了解 AI 對客戶互動的影響。
- 持續學習和更新:AI 正在快速發展,使培訓計劃與最新發展和最佳實務保持同步。
- 互動式和實際學習體驗:使用案例研究、模擬和研討會,說明實際應用和倫理挑戰,以實際經驗支援理論知識。
- 評估和認證:進行評估以衡量員工對 AI 倫理的理解和精通程度,並考慮提供認證以表揚和激勵持續改進。
- 意見回饋機制:為員工設定意見回饋管道,為持續改善培訓計劃有所貢獻,確保能滿足組織不斷變化的需求。
組織中不同角色的 AI 倫理應用案例
每個使用 AI 應用程式或 AI 回答引擎的組織,都應小謹慎對待 AI 偏見的風險,並負責地工作。企業業務中不同角色或部門的 AI 倫理使用案例範例如下:
- 資料科學家或機器學習工程師:在這些崗位上,建議採用偏見偵測和減緩方法,確保模型的可解釋型,並強化模型。這涉及公平指標和反事實分析等技術。
- 產品經理或業務分析師:AI 倫理相關責任多種多樣,包括倫理風險評估、優先考慮以使用者為中心的設計,以及制定清晰的通訊策略,向使用者和利益相關人士及說明 AI 系統。這包含考慮潛在的社會影響、使用者需求和透過透明度建立信任。
- 法律和法規遵循部門:關鍵使用案例包括符合相關法規(例如資料隱私權法律)、管理與 AI 相關的法律和聲譽風險,以及制定策略以降低因演算法偏見或非預期後果產生的責任。
- 人力資源專業人員:人力資源部門應使用 AI 招募工具,這些工具沒有偏見且遵循反歧視法律。任務涉及稽核演算法、建置人員參與流程系統,並提供符合倫理的 AI 招募實務訓練。
AI 倫理權威
AI 倫理十分複雜,由不斷發展的法規、法律標準、產業實務和技術進展塑造。公司必須隨時掌握可能影響其發展的政策變化,且應與相關的利益關係人合作,決定哪些政策適用。以下清單並非詳盡無遺,但提供了組織根據其產業和地區,應尋找的政策資源的範圍。
AI 倫理主管機關和資源範例
ACRT 人工智慧經濟決策報告:非洲經濟轉型中心的這項研究評估了 AI 的經濟和倫理考量,旨在為整個非洲制定包容且永續的經濟、金融和產業政策。
AlgorithmWatch:一個人權組織,倡導並開發用於建立和使用演算法的系統,以保護民主、法治、自由、自主、正義和平等。
東協 AI 管理與倫理指南:為東南亞國家協會成員國提供實用指南,以符合倫理和更有效率的方式設計、開發和部署 AI 技術。
歐盟執委會 AI Watch:歐盟執委會的聯合研究中心提供建立值得信賴的 AI 系統的指引,包含國家特定報告和儀表板,協助監控歐洲 AI 的開發、應用和影響
NTIA AI 責任歸屬報表:這份國家電信與資訊管理局的報告提出自願、監管及其他措施,協助確保美國 AI 系統的合法性和可信度。
OECD AI 原則:這個由國家和利益相關人士群體組成的論壇,致力於打造值得信賴的 AI。在 2019 年,此論壇促進了 OECD AI 原則的制定,這是第一個關於 AI 的政府間標準。這些原則也作為 G20 AI 原則的基礎。
UNESCO 關於人工智慧倫理的建議:與專家和利益相關人士進行為期兩年的全球諮詢後,193 個成員國採納了此一聯合國機構的建議架構。
結論
總之,AI 倫理開發和部署需要多面向的方法。作為組織,建議您建立清楚的道德原則,將其整合至 AI 開發流程,並透過強大的管理和訓練計劃,確保持續遵循法規。透過將公平性、透明度和責任歸屬等以人為中心的價值放在首位,企業可以負責地善用 AI 的力量,推動創新,同時降低潛在風險,並確保這些技術對整個社會有益。