人工智慧(Artificial Intelligence)已成當今數位時代最引人注目的技術之一。電子商務站在運用網際網路、大數據、物聯網、線上線下整合的技術前沿,運用人工智慧也成為電子商務的兵家必爭之地。許多過往僅存於科幻小說或電影中的場景,例如機器人導購、人工智慧客服、量身訂作廣告推播(您也或曾經歷過方才和家人聊天想買什麼,馬上就收到平台分毫不差的推銷內容)等等,很多都在人工智慧不斷演進下成為現實。
儘管人工智慧的進步真的是「一暝大一吋」,成長速度令人驚訝,但就筆者對人工智慧有限的了解中,恐怕目前所謂的「人工智慧」還僅僅是電腦程式在一定規則、函數下的「運算結果」。鑑於一般對「智慧」的認知常包括所謂的「創造性思考」,人工智慧美其名為智慧,在所謂的通用人工智慧(Artificial General Intelligence)出現之前,或許頂多是有待訓練的「類智慧」或「人工智能」。與此相關,討論AI的「訓練者責任」及其相關的「使用者責任」也至關重要。
法律責任當中最嚴厲的責任之一當屬刑事責任。刑事責任當中有所謂的「間接正犯」責任,例如利用不知情的人拿有毒的水給被害人喝導致其死亡,雖然「毒殺」的動作是別人作的,還是會構成殺人罪的「間接正犯」,因為這個「別人」其實就只是個「工具」,就像持刀殺人一樣並不會說有罪的是刀子而不是持刀的人。人工智慧現狀下如果只是電腦程式的運算結果,若其操作衍生法律責任,要追究的應該是「持刀人責任」亦即「使用者責任」。但人工智慧與刀子的不同在於前者的威力及惡用可能衍生的危害或許需求較高度管制,除了持刀作惡的要負責外,如果這把刀是「人工智慧之刀」,就像原能會曾考慮處罰在自家搞核融合的大學生一樣,「鍛刀人責任」或許也應考慮追究的門檻和機制,也就是人工智慧的「訓練者責任」。
當然說設計、訓練出人工智慧系統的人要為系統所導致的一切損害負責,就好像認為製刀廠要為所有持刀傷人的死傷負責一樣,恐怕會導致天下「無刀可用」,自非的論;持刀傷人如果是因為製刀廠刀鞘沒設計好導致誤傷,亦不應全歸咎予用刀者。法律歸責應用到商務活動時,最理想是建立起「安全港」(Safe Harbor),商人們在明示的安全範圍內活動就可免於法律風險。然而,理想很豐滿,現實很骨感,「安全港」在大多數的法律制度下常不可得,因為現代社會風險多樣,條規式免責的安全港常難以期待,此時回歸到一般比較常見的標準可能就是「是否可預見」、「是否符合一般科技水平」、「是否盡到應盡的注意」、「是否負保護義務」等標準。上述標準其實已存在於現行法規當中,也是追究人工智慧「訓練者責任」及「使用者責任」的可能基礎。
回到電子商務這個主題,如果電子商務經營者應用人工智慧而衍生事故或損失,人工智慧服務提供者可能負的「訓練者責任」及使用人工智慧服務的電商公司所可能衍生的「使用者責任」分別為何就值得探究。
舉例而言,某電商E公司使用某T公司人工智慧自駕系統送貨給線上訂貨的消費者C,因自駕系統失靈導致C取貨時被撞傷,此時E公司及T公司可能都被追究責任。就E公司的「使用者責任」而言,可能標準或在於選用T公司服務時是否有故意或過失(例如明知T公司自駕系統有瑕疪仍選用)、利用T公司自駕系統的實際操作有無失當(例如所託運貨物違反託運規則屬易傾倒大型貨物,導致超出自駕系統控制致車輛傾倒而傷及路人);而就T公司的訓練者責任,可能判斷標準或在於其經營者是否失職致系統有瑕疪、系統是否符合當前科技水準以及是否因法令要求而被認為有保護相關人員的義務等等。
人工智慧的「訓練者責任」及「使用者責任」關係未來人工智慧發展甚鉅,本文不揣謭陋謹嘗試初探其堂奧,以期未來相關法制實務運作能兼顧人工智慧發展及必要的風險控管。
(本文由KPMG安侯建業聯合會計師事務所網路暨電子商務服務團隊主持會計師陳宜君、協同主持律師紀天昌/提供)