flex-height
text-black

工程師和科學家正在研發仿生外骨骼原型

什麼是 AI 倫理?

AI 倫理學是指管理 AI 在人類價值方面的行為準則。AI 倫理學有助於確保 AI 的開發和運用方式對社會有利。其中包含廣泛的考量,包含公平性、透明度、責任、隱私、安全性和潛在的社會影響。

default

{}

default

{}

primary

default

{}

secondary

AI 倫理簡介

試想一下,AI 系統可預測未來犯罪行為的可能性,並由法官決定量刑期限。如果這個系統不成比例地針對某些人口群體,會發生什麼事?

AI 倫理是一種良好力量,有助於減少不公平的偏見、消除可存取性障礙、強化創造力,並帶來許多其他效益。隨著組織越來越依賴 AI 來制定影響人類生活的決策,他們需要考慮複雜的倫理影響,因為誤用 AI 可能會對個人和社會以及企業的利潤和聲譽造成傷害。

在本文中,我們將探索:

AI 倫理原則範例

在任何關於 AI 倫理的討論中,人類的福祉都是核心問題。雖然 AI 系統的設計可以優先考慮道德和倫理,但人類最終有責任確保設計和使用符合倫理,並在必要時進行干預。

目前尚無普遍同意的的一套 AI 倫理原則。許多組織和政府機構諮詢道德、法律和 AI 方面的專家,建立他們的指導原則。這些原則通常涉及:

AI 倫理術語和定義

作為倫理和高科技的交叉點,關於 AI 倫理的對話經常使用這兩個領域的詞彙。了解此詞彙對於能夠討論 AI 倫理非常重要:

AI 倫理:一套價值觀、原則和技術,採用廣泛接受的是非標準,引導 AI 技術開發、部署、使用和銷售中的道德行為。

AI 模型:由人類建立並根據資料進行訓練的數學架構,可讓 AI 系統透過識別模式、制定決策和預測結果來執行特定任務。常見用途包括圖片辨識和語言翻譯等。

AI 系統:演算法和模型的複雜結構,旨在模仿人類推理並自動執行任務。

自主性:個人獨立行動和自由選擇的能力。

偏見對某人或某個群體的傾向或偏見,特別是被認為不公平的傾向或偏見。訓練資料的偏見(例如與特定群體相關資料的不足或過多)可能會使 AI 以偏頗的方式運作。

可解釋性:能夠回答「機器做了什麼才能達到其產出?」的問題。說明性係指 AI 系統的技術情境,例如 AI 系統的機制、規則和演算法,以及訓練資料。

公平:公平公正和的待遇或行為,沒有不公正的偏袒或歧視。

人員參與流程:人類介入人 AI 系統每個決策週期的能力。

解讀能力:讓人們理解 AI 系統輸出結果的實際情境和影響,例如使用 AI 協助決定核准或拒絕貸款申請。

大型語言模型(LLM)通常用於文字辨識和產生任務的機器學習類型。

機器學習AI 的子集提供系統自動學習、從經驗中改善和適應新資料的能力,而無須明確進行程式設計。

規範:道德實踐的一個關鍵情境,涉及人們和機構在特定情況下「應該」或「應當」做什麼。

透明度:與可解釋性相關,透明度是證明 AI 系統如何以及為何被開發、建置和使用的能力,並使人們能夠看見和理解這些資訊的能力。

如何建置 AI 倫理原則

對組織而言,合乎道德地使用 AI 不僅僅是遵循倫理原則;這些原則必須整合至所有技術和營運 AI 流程中。對於快速採用 AI 的組織而言,整合倫理原則可能變得相當困難,因 AI 設計和使用問題而造成的實際危害案例表明,忽視適當的倫理規範可能會帶來風險和代價高昂的傷害。

誰該負責 AI 倫理?

簡短的答案:每個與 AI 有關的人,包括企業、政府、消費者和民眾。

不同人員在 AI 倫理中的不同角色

人力資源利益相關人士需要了解的資訊圖表

企業領導人在 AI 倫理中的角色

許多企業會成立由其資深領導人領導的委員會,以制定其 AI 管理政策。例如,我們在 SAP 組成諮詢小組,以及由倫理和技術專家組成 AI 倫理指導委員會,將 AI 倫理原則整合至產品和營運中。這些原則優先考慮:

成立 AI 倫理指導委員會

建立指導委員會對於管理組織的 AI 倫理方法非常重要,並提供最高層級責任歸屬和監督。此委員會確保將倫理考量成為 AI 開發和部署的一環。

成立 AI 倫理指導委員會的最佳實務

建立 AI 倫理政策

制定 AI 倫理政策對於引導組織內 AI 行動方案至關重要。指導委員會在此過程中非常關鍵,它運用其多樣化的專業知識確保政策遵循法律、標準和更廣泛的道德原則。

制定 AI 倫理政策的範例方法

風險分類和評估處理流程圖

建立法規遵循審查流程

開發有效的法規遵循審查流程,對於確保 AI 部署遵循組織的 AI 倫理政策及法規至關重要。這些流程有助於與使用者和監管機構建立信任,並可協助降低風險並維護 AI 專案的倫理實務。

基本法規遵循審查程序

AI 倫理實務的技術建置

將倫理考量整合至 AI 開發,包含調整目前技術實務,確保以負責任的方式建立和部署系統。除了建立 AI 倫理原則外,組織有時也會建立負責的 AI 原則,這些原則更著重於特定產業和技術使用案例。

AI 倫理系統的關鍵技術需求

偏見偵測和降低偏見:使用各種資料集和統計方法,偵測並修正 AI 模型中的偏見。進行定期稽核以監控偏見。

透明度和可解釋性:開發使用者可輕鬆理解和驗證的系統,運用功能重要性分數、決策樹和不受模型限制的解釋等方法來提高透明度。

資料隱私權和安全性:確保 AI 系統中的資料得到安全管理,並遵循隱私法規。系統必須使用加密功能、匿名化和安全性通訊協定來保護資料完整性。

強大可靠的設計:AI 系統在不同條件下必須持久、可靠,並集合豐富的測試和驗證,才能有效處理意外情境。

持續監控和更新:維持持續監控以評估 AI 績效和道德法規遵循,並根據新資料或條件變化,按需求更新系統。

利益相關人士參與和反饋:讓利益相關人士(例如一般使用者、魯尼學家和領域專家)參與設計和開發流程,以便收集意見回饋並確保系統符合倫理和營運需求。

對組織進行 AI 倫理方面的培訓

全方位訓練對於確保員工了解 AI 倫理,並負責地使用 AI 技術至關重要。訓練也可用於增強組織 AI 工具和解決方案的完整性和有效性。

有效 AI 培訓課程的關鍵要素

組織中不同角色的 AI 倫理應用案例

每個使用 AI 應用程式或 AI 回答引擎的組織,都應小謹慎對待 AI 偏見的風險,並負責地工作。企業業務中不同角色或部門的 AI 倫理使用案例範例如下:

AI 倫理權威

AI 倫理十分複雜,由不斷發展的法規、法律標準、產業實務和技術進展塑造。公司必須隨時掌握可能影響其發展的政策變化,且應與相關的利益關係人合作,決定哪些政策適用。以下清單並非詳盡無遺,但提供了組織根據其產業和地區,應尋找的政策資源的範圍。

AI 倫理主管機關和資源範例

ACRT 人工智慧經濟決策報告:非洲經濟轉型中心的這項研究評估了 AI 的經濟和倫理考量,旨在為整個非洲制定包容且永續的經濟、金融和產業政策。

AlgorithmWatch:一個人權組織,倡導並開發用於建立和使用演算法的系統,以保護民主、法治、自由、自主、正義和平等。

東協 AI 管理與倫理指南:為東南亞國家協會成員國提供實用指南,以符合倫理和更有效率的方式設計、開發和部署 AI 技術。

歐盟執委會 AI Watch:歐盟執委會的聯合研究中心提供建立值得信賴的 AI 系統的指引,包含國家特定報告和儀表板,協助監控歐洲 AI 的開發、應用和影響

NTIA AI 責任歸屬報表:這份國家電信與資訊管理局的報告提出自願、監管及其他措施,協助確保美國 AI 系統的合法性和可信度。

OECD AI 原則:這個由國家和利益相關人士群體組成的論壇,致力於打造值得信賴的 AI。在 2019 年,此論壇促進了 OECD AI 原則的制定,這是第一個關於 AI 的政府間標準。這些原則也作為 G20 AI 原則的基礎。

UNESCO 關於人工智慧倫理的建議:與專家和利益相關人士進行為期兩年的全球諮詢後,193 個成員國採納了此一聯合國機構的建議架構。

結論

總之,AI 倫理開發和部署需要多面向的方法。作為組織,建議您建立清楚的道德原則,將其整合至 AI 開發流程,並透過強大的管理和訓練計劃,確保持續遵循法規。透過將公平性、透明度和責任歸屬等以人為中心的價值放在首位,企業可以負責地善用 AI 的力量,推動創新,同時降低潛在風險,並確保這些技術對整個社會有益。

SAP 商標

SAP 資源

更多 AI 倫理使用案例和指南

在 SAP AI 倫理操作手冊中取得建置 AI 倫理實務的深入指引。

前往手冊

深入了解