AI在保險業的應用、風險與監理機制:以IAIS應用文件為中心|龔柏龍,財團法人資訊工業策進會 科技法律研究所 跨域整合中心 副分析師

2025-08-15

國際保險監理官協會(International Association of Insurance Supervisors, IAIS)於202572日發布人工智慧監理應用文件[1]Application Paper on the supervision of artificial intelligence),旨在提供保險監理機關、保險公司與中介機構實踐指引,以確保AI的使用不會對客戶權益及審慎標準(Prudential Standard)產生不利影響。該文件歸納保險業運用AI的益處與潛在風險,並針對五大核心面向提出監理建議。

一、AI 對保險業的效益與風險

文件指出AI有助於提升保險公司風險評估的精準度與效率,其可透過分析結構化與非結構化資料(如衛星影像與穿戴裝置資訊),改善風險定價與理賠流程,並提供個人化保險產品與建議,同時降低成本、加快作業流程與提升顧客體驗,且亦可能有助於普惠金融[2]。然而,AI也引發許多風險疑慮,包含資料隱私與資訊安全、訓練資料偏誤導致歧視、模型複雜性降低可解釋性、過度精細風險評估排擠高風險被保險人族群[3]、非風險因素訂價減損顧客忠誠度[4]、智慧財產權,以及集中風險(Concentration Risk)等問題[5]。據此,該文件提出保險業運用AI系統時須特別關注的五大核心監理議題,包括:風險導向監理與比例原則、治理與問責、穩健性與安全性、透明度與可解釋性,以及公平、倫理與救濟。

 

二、五大核心監理議題

(一)      風險導向監理與比例原則

文件指出保險業導入AI系統時,監理資源應根據其對保戶、產業及整體金融體系的風險程度進行合理配置,並進一步辨識各類AI應用上的風險差異,例如,用於高效文件檢索(efficient document retrieval)的AI系統風險小於用於審定投保人理賠金額的AI系統[6]。又保險公司所採取的風險管理措施須與其風險程度相符,以符合比例原則,高風險的AI應用應採取更嚴格的控制手段。此外,AI治理應由多項機制整合而成,而非仰賴單一做法,例如,某些用於處理圖像、文字的AI系統可能本質上可解釋性較低,但可透過人為監督、資料治理等方式進行補強[7]。換言之,監理機關與保險公司應評估各項風險管理措施的綜合效果,以有效落實風險導向的監理架構。

(二)      治理與問責

面對AI技術迅速發展帶來的各類風險,保險公司應強化內部治理與問責機制,並可參考保險核心原則(Insurance core principles)相關規範。例如公司應將與AI相關之重大風險納入既有的管理政策與制度中,在AI全生命週期中,各階段的責任應明確分工,並建立相應的問責機制。又保險公司應對第三方AI供應商進行適當監督,如在其契約中約定揭示透明度、稽核權利與倫理承諾等條款,並另設計退出計畫以降低集中度風險[8]AI系統的可追溯性與記錄保存亦為關鍵,例如可使用資料溯源機制與模型卡(Model Cards)等工具追蹤資料來源、訓練過程與模型變更,並應保存完整活動紀錄[9]

(三)      穩健性與安全性

為確保AI模型抵禦干擾和攻擊的能力,保險公司須持續驗證其穩健性。文件建議可採用敏感度分析、壓力測試等方式評估AI系統的表現,並依風險程度調整測試的頻率與深度[10];又即使採用第三方AI系統,亦應要求其回報任何重大發現以便及時採取補救措施。同時,安全性議題亦不可忽視,保險公司應針對網路攻擊等潛在威脅建立防護措施,如部署入侵偵測系統、威脅情資平台,以及端點偵測與應變機制(Endpoint Detection and Response)等機制,及時偵測並應對威脅[11],並迅速解決漏洞。此外,保險公司應建立有效的備份和復原計畫,以維護其業務之連續性。

(四)      透明度與可解釋性

AI模型通常因其高度複雜而缺乏透明度,容易形成「黑箱」,使決策過程難以解釋,進而可能導致消費者信任下降。甚者,從審慎監理角度,若對 AI 系統的運作缺乏理解,亦可能造成風險定價錯誤[12],因此保險公司應建立有效的風險管理與內部控制機制,並將監督範圍擴及第三方 AI 系統。保險公司應對AI 系統的使用結果進行合理解釋,特別是在影響消費者、清償能力(solvency)或符合法規要求的應用上[13],例如理賠決策的透明度和可解釋性尤為重要。另外,保險公司應根據不同利害關係人的角色調整解釋內容,例如消費者需要簡單明確的資訊,保險公司可透過視覺輔助並以白話進行解釋;對於稽核人員與監理機關則須更技術性的資訊,如資料蒐集、處理方法及治理措施等[14]

(五)      公平、倫理與救濟

保險業運用AI系統時須留意公平性、倫理與救濟機制議題。關於公平性,保險公司須使用準確、完整且具有代表性的資料進行AI訓練,避免資料偏誤導致不公平或歧視決策。例如,相同風險的消費者不應因來自不同銷售通路而受差別待遇[15]。在倫理方面,例如保險公司須確保 AI 系統不會利用消費者的行為偏誤(如續保習慣)來牟取利益,並且應強化模型的可解釋性,確保決策具透明性且合乎倫理[16]。在救濟制度上,保險公司應提供有效、透明且公平的申訴機制,包含提供消費者可更新、更正其資料,並有請求人為介入的權利,以確保資料來源及AI生成資訊的正確性[17]。整體而言,保險公司和監理機關須共同關注這些潛在的社會影響並採取因應措施,以維護整體保險市場的公平與包容性。

 

三、結論

中華民國人壽保險商業同業公會與中華民國產物保險商業同業公會於114 4 10 日發布 「保險業運用人工智慧系統自律規範」旨在強化保險業運用AI系統辦理保險業務的客戶資料保護及保險業風險控管。本次IAIS發布之AI監理應用文件為保險業在數位轉型過程中提供明確且具前瞻性的指引,透過提出五大核心監理面向,協助保險業者在掌握AI技術帶來效益的同時,一併留意潛在的風險控管,以顧及客戶權益與市場秩序不受侵害,可供我國金融業主管機關及保險業作為後續政策方向之參考。隨著AI應用在金融業日益深化,保險公司與監理機關須持續強化協作,積極回應AI新興議題,並將永續經營理念融入AI治理中,同時也應重視社會包容性與公平性,使AI技術成為推動金融永續與實現社會福祉的關鍵助力。



[1] International Association of Insurance Supervisors, Application Paper on the supervision of artificial intelligence (2025), available at https://www.iais.org/uploads/2025/07/Application-Paper-on-the-supervision-of-artificial-intelligence.pdf (last visited Aug. 1, 2025 ).

[2] 例如AI系統對車險和醫療險中遠端資訊處理和穿戴式裝置的資料進行分析,讓年輕駕駛、慢性病患等族群有機會獲得較合理的保費。

[3] AI可能以非常細緻的方式評估風險,從而減少被保單人間的交叉補貼(cross-subsidisation),導致社會中某些風險較高的族群無法以可承受的保費獲得保險。

[4] 某些AI系統可能利用消費者的認知偏誤,例如保險公司根據消費者行為如支付意願而非實際風險,以賺取額外利潤。

[5] See supra note 1, at 8-9.

[6] See id, at 15.

[7] See id, at 18.

[8] See id, at 23.

[9] See id, at 24.

[10] See id, at 24-25.

[11] See id.

[12] See id, at 28.

[13] See id.

[14] See id, at 30.

[15] See id, at 32.

[16] See id, at 30.

[17] See id, at 33-34.