金融業董事會在AI浪潮中的角色–如何建立負責任的治理框架

金融業董事會在AI浪潮中的角色–如何建立負責任的治理框架

1217理事長

中華獨立董事協會 駱秉寬理事長

前言
隨著人工智能(AI)技術的迅速發展,金融業正面臨着前所未有的挑戰與機遇。金融科技(FinTech)及AI的快速崛起蓬勃發展,當應用到金融業信用評分、風險管理及客戶服務等領域時,已經徹底改變了傳統的金融業運作模式。

2019年,蘋果公司和高盛集團聯手推出的「蘋果卡」事件,揭露了在使用不透明的AI演算法時,可能產生歧視與不公平的風險。案例中,一名持卡人因其妻子的信用額度不足,控訴該信用卡機構涉及性別歧視,且先生的信用額度竟高於其妻子20倍,儘管他們的信用評分和報稅狀況並無明顯差異。這一事件引發了金融監管機構的調查,也促使整個行業重新思考AI在金融領域的監管和董事會治理問題。

AI系統在金融業的應用
在金融行業中,AI技術的應用範圍非常廣泛,包括:

1. 客戶服務:利用聊天機器人提供24/7的客戶服務或理財諮詢,來提升客戶的滿意度。
2. 信用評分:通過演算法分析大數據,為客戶提供精準的個人信用評估。
3. 風險管理:利用AI預測和識別潛在的金融風險,促進金融業能夠快速地因應措施。
4. 詐騙檢測:AI能夠分析交易模式、匯款方式,及時識別並阻止可疑的交易。

監管挑戰
然而,AI的應用也隨之帶來了一系列監管挑戰:
1. 黑箱問題:許多AI演算法的運作機制對用戶來說並不透明,這可能會導致不公平的結果。
2. 數據偏見:AI系統的表現依賴於數據的訓練與學習,若蒐集、彙整及編輯的數據本身存在偏見,則AI結果也會反映這些偏見。
3. 法律合規:隨著AI的普及,各國的法律和監管機構對於AI的使用規範尚未成熟,金融機構需面對新的合規風險。

在蘋果卡的案件中,持卡人提出的指控突顯了AI治理中的關鍵問題:第一、信貸決策的透明度:持卡人質疑為何在合併報稅的情況下,他的信用額度卻是妻子的20倍,這引
發了對於AI演算法決策過程的質疑。第二、性別歧視的潛在可能:即使兩位持卡人的信用評分差異不大,AI系統是否因為某些數據的偏差而制定了性別歧視的信用政策?金融機構的董事會如何對使用AI技術與系統的做出合規的治理原則,值得深思。

董事會在 AI 治理中的重要性
1. 確保演算法透明度金融機構的董事會必須承擔起確保演算法透明度的監督責任。包括確保所使用的AI系統具備可解釋性,讓消費者能夠理解其信貸決策的依據。為此,董事會可以推動內部審計機制,定期檢討和評估AI運作的合理性與透明度。
2. 監督數據治理數據是AI成功的基礎,董事會應確保數據的準確與完整,並推動建立良好的數據治理框架。此外,董事會需關注數據的來源及處理過程,確保在收集和使用數據時遵循相應的法律和道德標準。
3. 風險管理與合規性董事會有責任審視AI技術所帶來的風險,特別是法律和合規方面的風險。對於像「蘋果卡」事件這類情況,董事會應確保有處理爭議的備案計畫,包括與法律顧問及監管機構的合作,妥善處理客戶的申訴和糾紛。
4. 注重多元性與包容性,金融機構的董事會要意識到金融消費者多元性與包容性的必要性。在AI系統的設計與實施過程中,必須考慮不同的社會群體,以避免數據偏見和演算法歧視。這不僅能保護消費者的權益,也是提升企業形象和市場競爭力的關鍵因素。
5. 加強與利益相關者的溝通董事會還要促請業務主管部門定期與利害關係人(包括投資者、消費者、供應商、金融監管單位等)進行充分的溝
通,向他們通報AI系統的運行狀況和潛在風險。對於大眾關心的透明度和公平性問題、倫理議題及有責性等議題,董事會應主動發布報告,提升公眾對金融機構的信任。

其實,在許多與AI治理有關的成功案例中,我們可以看到董事會發揮的重要作用。例如,某些銀行在推行AI信貸評估系統時,董事會指導下的內部審查小組定期評估演算法
績效,確保其決策不受潛在偏見的影響。這些銀行還透明化了AI的運作原則,定期向外界報告相關數據與結果,贏得了客戶的信任。所以,而隨著AI數位化的進程加速進行,金融行業的合規性,將是全球監管機構密切關注的焦點,監管的挑戰也愈加複雜。

澳洲西太銀行反洗錢措施違規
2019年底,澳大利亞交易報告與分析中心(Austrac)對歷史最久的西太銀行(Westpac)指控,揭示了該銀行在反洗錢(AML)合規方面的重大失誤。在長達五年的時間內,西太銀行未能向監管機構報告對於國際資金轉帳的1950多萬筆指令,這些匯款涉及已被定罪的兒童性侵犯者,這不僅涉及法律合規的問題,更關乎社會的基本安全,尤其是對兒童的保護。

西太銀行未能履行在反洗錢法下的責任,導致高達13億澳幣的罰款,這是澳大利亞歷史上最大的違規罰款之一。事件不僅使該銀行的聲譽受到重創,還可能影響到其客戶的信任度及未來的業務發展。這一監管失誤的根本原因在於風險管理體系的缺失與內部控制的不足。西太銀行沒有有效的機制來識別和報告可疑的交易行為,這凸顯了該行在企業文化和合規性治理方面的重大缺口。

英國保險業報價系統有歧視問題
另一個案例出現在英國,金融行為監管局(FCA)發現,某些保險公司長期以來使用自動報價系統來實施所謂的「價格歧視」(price walking),專門針對那些在經濟上較為脆弱的人群,例如那些因生活壓力而無法主動比價的長期客戶,使這些客戶在續保時面臨逐年增加的保費,而新客戶卻能享受到更優惠的保費價格。

這種「貧窮溢價」(poverty premium)的現象對於弱勢客戶來說,無疑是一種加重經濟負擔的體現。尤其是生活在少數族裔比例較高地區的客戶,某些保險公司利用自動化系統,將忠誠的老客戶(如只續保的老客戶)視為「弱勢客戶」,並對他們收取更高的保費,保戶往往需要支付的保費遠高於市場的平均水平。

後FCA發布了針對弱勢客戶的指引,自2022年起禁止了這種以續保為由漲價的做法,強制要求公司以「Fair Value (公平價值) 框架」進行定價,以確保所有客戶(新、舊客戶)都能獲得公平的價格,禁止不公平的定價策略。

本案反映出英國保險行業面臨的合規挑戰。雖然各大保險公司可能具備合規性原則,然而在實際執行過程中卻容易因為追求本身利益的最大化,而違背基本的公平性原則。這不僅在法律上存在風險,也在道德上與企業的社會責任自相矛盾。

這三個案例中,董事會在AI治理方面承擔著至關重要的監督角色。有效的AI治理需要全方位考量法律合規、道德責任、風險管理與透明度等多個方面。以下是董事會可以採取的幾個關鍵措施,以確保高效能的AI治理:
1. 建立透明的治理結構董事會應當設立專門的AI治理委員會,負責監督與管理AI系統的開發與實施。這包括確保所有AI模型的決策過程具備可解釋性,讓各方利益害關係人能夠理解和審查AI的運作原則。透明的治理結構有助於及早發現可能的合規性問題與道德風險。
2. 強化合規與法律監督,在面對監管機構的要求時,董事會應主動進行自我評估,確保所用的AI技術符合當前的法律及合規規範。例如,西太銀行的事件就凸顯了在反洗錢法下的合規缺失。董事會可以定期邀請內部和外部專家進行審計監督,以確保風險管理框架符合行業標準和監管要求。
3. 完善數據治理有效的AI系統需要高質量的數據支持。董事會應確保機構具備健全的數據治理策略,特別是在數據收集、存儲和使用方面遵循最佳實踐。關於英國保險市場的案例,保險公
司需要確保數據的透明性,避免利用不公平的數據模型進行價格歧視。
4. 人工與機器的結合在AI決策過程中,董事會應促進人機協作,強調人類專業與AI演算法技術的結合。雖然AI能夠提供數據分析與風險評估,但人類的倫理判斷和情感理解至關重要。董事會可
推動設計反映倫理標準的AI系統,確保最終決策仍由具備人類價值觀的專業人士來把關。
5. 提升企業文化和道德意識,董事會要加強整個組織的道德文化的建設,發揚合規與誠信的價值觀。要定期與不定期推動培訓計畫,提升員工對AI使用和數據處理的意識,確保員工認識到AI運用背後的社會責任。如在英國保險案例中,強調重視每位客戶的公平對待,以建構更為健康的消費環境。
6. 建立監督機制與反饋系統,董事會應建立有效的監督機制,定期檢討AI系統的效能及其對業務和社會的影響。定期收集來自客戶和利益相關者的反饋意見,及時調整AI策略和技術,防止出現因技術帶來的負面影響。

7. 促進跨界合作,在AI技術迅速演進的背景下,金融機構的董事會可以考慮與科技企業、學術機構及監管部門建立更為緊密的合作關係,以獲取更多的專業知識和技術協助。跨界合作有助於加強AI治理的整體性和有效性,且能更好地預測未來的技術上的挑戰。

結論
AI 的浪潮已不可逆轉,金融業受影響程度更甚其他產業。能否有效治理AI,將成為決定未來金融機構競爭力與永續性的關鍵因素。

董事會是金融業邁向負責任 AI 的關鍵力量在各種治理原則中,倫理Ethics、公平Fairness、透明Trasparency與有責性Accoutability已構成了負責任AI的四項核心要素。所以,負責任的AI治理不是技術問題,而是公司治理問題。在這個變動快速的時代,能適當掌握AI的董事會,將引領金融機構在創新與信任之間取得最佳平衡,並確保企業在新的監管環境中持續穩健成長。

董事會在AI治理中透過強化透明度、數據治理及倫理意識,可以有效應對日益複雜的金融環境中所帶來的挑戰,確保AI技術的合理運用,最終為機構的持續發展和社會信任打下堅實基礎。面對像蘋果卡涉及的性別歧視問題、西太銀行的反洗錢措施以及英國保險業的貧窮歧視收取保險費等,董事會必須加強對AI系統的監督,確保透明性、數據治理、風險管理以及包容性等方面的有效實施。這些措施不僅能降低潛在的風險,也將為金融機構贏得長期的信任與支持。金融業只有在獲得公眾信任的基礎上,才能實現可持續的發展與創新。

評論已關閉