隨著數位轉型的加速以及對人工智慧 (AI) 的廣泛應用,道德與偏見等相關議題引起了許多關於未來科技的討論。人們對於圍繞著 AI 的未知性有著與生俱來的恐懼,而一般大眾對於演算法理解能力的提升-例如演算法是如何根據個人客製化資訊做出決策-則有助於讓消費者對於這些決策過程的來龍去脈,提出更具有實質內涵的問題。

企業必須仔細思考將如何計劃AI的使用、如何測試 AI,以及如何識別且糾正錯誤和意外產出的結果,這非常關鍵且重要。以下為企業在深化、擴展可信賴的人工智慧AI (Responsible AI, RAI) 採用和規模時,需要考慮的三個重點領域:

1. 資料 (Data):創建可信任的資料

企業如何能百分百確定用來訓練及測試模型的資料集本身沒有偏誤?當為了特定模型的需要而去定義相關資料時,企業必須謹記-就算是只有單一變數也會產生偏誤,即使從商務角度而言,該變數會產出更優化的結果。對於偏誤問題的識別、進而解決-例如哪一個特定族群會有面臨不公正結果的風險-必須是創建 AI 模型過程中的首要原則。而資料便為這個創建過程的源頭。

在可信賴的 AI 模型中,資料須要是完整準確的,資料收集和輸入的頻率具有一致性,同時也符合商業需求,並有適當流程解決異常狀況,且能夠標註出可能影響模型產出結果的不規則情形。重要的是,企業使用者都能受過良好的教育訓練,對於代表性資料具有足夠知識,並得到加強技能的機會,以了解造成資料偏誤的來源和資料飄移 (Data Drift) 的潛在影響,使他們能夠更完善地識別不規則的資料。再者,資料必須獲得適當的使用者同意、許可和持續性治理,以確保其被適當使用。

2. 模型 (Model):維持一個健康的模型

計畫中的模型設計與 AI 解決方案,是否符合企業核心業務、公司價值與對消費者的責任?預先定義的 KPI、目標和管理目的,有助於評估模型是否達成預期的任務。這些業務 KPI 必須考量其對消費者的影響,舉例來說,如果模型的目標設定為將利潤率提高 x%,則可能需要附加一個警告聲明「前提為不會對消費者造成任何負面影響」。

企業使用者必須接受教育訓練以獲得以下能力:辨認哪些資料與 AI 試圖解決的企業問題無關,以及哪些資料會對模型產出結果造成影響。對於那些造成偏離公司價值與企業責任的資料,必須授權企業使用者去標註這些情況。

3. 人 (People):解釋 How & Why

當消費者要求得知更多驅動 AI 模型做出決策的資訊細節,企業該如何確保對於 AI 的可解釋性?企業使用者必須能夠存取相關資訊,包含能夠解釋模型使用資料和變數的資訊,以及能夠描述模型導出不同行動和決策的資訊。能夠存取這些模型導出決策的過程,可提供進一步的消費者的洞察。例如,為什麼不同消費者在購買相同產品時會有不同的促銷活動,或是為什麼不同消費者在觀看相同的節目時會看到不同的廣告。

AI 位處於商業價值與社會變革的交會路口,企業有責任擔任決策科技設計的守門員,並且將消費者的福祉視為整體策略的一環。

 

本文章整理自:Consumers should be at the forefront of AI design. Here’s how, Martin Sokalski , KPMG US

Wayne Lai

數位長, 顧問服務部執行副總經理

KPMG in Taiwan

Email