สิ่งที่นักวิเคราะห์ทางการเงินควรจับตามองเมื่อกรอบการควบคุมแบบเดิมๆ มาถึงขีดจำกัดแล้ว
ในทศวรรษที่ผ่านมา ธนาคารต่างๆ ได้เร่งการนำ AI มาใช้ โดยก้าวไปไกลกว่าโครงการนำร่องไปสู่การใช้งานทั่วทั้งองค์กร ปัจจุบันสถาบันการเงินขนาดใหญ่เกือบ 80% ใช้ AI บางรูปแบบในกระบวนการตัดสินใจหลัก ตามข้อมูลของธนาคารเพื่อการชำระหนี้ระหว่างประเทศ แม้ว่าการขยายตัวนี้รับประกันประสิทธิภาพและความสามารถในการปรับขยายได้ แต่การนำ AI ไปใช้ในปริมาณมากโดยใช้เฟรมเวิร์กการควบคุมที่ออกแบบมาสำหรับโลกยุคก่อน AI จะทำให้เกิดช่องโหว่เชิงโครงสร้าง
ซึ่งอาจส่งผลให้เกิดความผันผวนของรายได้ การเปิดเผยตามกฎระเบียบ และความเสียหายต่อชื่อเสียง ในบางครั้งภายในรอบธุรกิจเดียว พลวัตเหล่านี้ร่วมกันก่อให้เกิดความเสี่ยงที่สำคัญสามประการที่เผยให้เห็นจุดอ่อนที่ซ่อนอยู่และชี้ไปที่การควบคุมที่จำเป็นในการแก้ไขปัญหาเหล่านั้น
สำหรับนักวิเคราะห์ทางการเงิน ความสมบูรณ์ของสภาพแวดล้อมการควบคุม AI ของธนาคาร ซึ่งเปิดเผยผ่านการเปิดเผย การโต้ตอบด้านกฎระเบียบ และผลการดำเนินงาน กำลังกลายเป็นสิ่งที่บ่งบอกว่าเป็นวินัยด้านเงินทุนหรือวัฒนธรรมความเสี่ยง การวิเคราะห์นี้กลั่นกรองวิธีที่ AI ปรับโฉมความเสี่ยงหลักๆ ของธนาคาร และเสนอมุมมองที่เป็นประโยชน์สำหรับการประเมินว่าสถาบันต่างๆ ควบคุมความเสี่ยงเหล่านั้นอย่างมีประสิทธิภาพหรือไม่
AI กำลังปรับเปลี่ยนภูมิทัศน์ความเสี่ยงด้านการธนาคารอย่างไร
AI นำเสนอความซับซ้อนที่ไม่เหมือนใครในประเภทความเสี่ยงด้านการธนาคารแบบดั้งเดิม รวมถึงความเสี่ยงด้านเครดิต การตลาด การดำเนินงาน และการปฏิบัติตามกฎระเบียบ
ปัจจัยสามประการที่กำหนดภูมิทัศน์ความเสี่ยงที่เปลี่ยนแปลง:
1. ความเสี่ยงของแบบจำลองเชิงระบบ: เมื่อความแม่นยำปิดบังความเปราะบาง
ต่างจากรุ่นทั่วไป ระบบ AI มักจะอาศัยสถาปัตยกรรมที่ไม่เป็นเชิงเส้นที่ซับซ้อนสูงและไม่เป็นเชิงเส้น แม้ว่าพวกเขาจะสามารถสร้างการคาดการณ์ที่แม่นยำสูงได้ แต่ตรรกะภายในของพวกเขามักจะคลุมเครือ ทำให้เกิดความเสี่ยง “กล่องดำ” ซึ่งการตัดสินใจไม่สามารถอธิบายหรือตรวจสอบได้อย่างง่ายดาย แบบจำลองอาจทำงานได้ดีทางสถิติแต่ก็ล้มเหลวในสถานการณ์เฉพาะ เช่น สภาพเศรษฐกิจที่ไม่ปกติ ความผันผวนของตลาดที่รุนแรง หรือเหตุการณ์ด้านเครดิตที่เกิดขึ้นไม่บ่อยนัก
ตัวอย่างเช่น โมเดลการให้คะแนนเครดิตที่ใช้ AI อาจอนุมัติสินเชื่อจำนวนมากในช่วงที่สภาวะตลาดมีเสถียรภาพ แต่ไม่สามารถตรวจจับตัวบ่งชี้การผิดนัดชำระหนี้อย่างละเอียดในช่วงที่เศรษฐกิจตกต่ำ การขาดความโปร่งใสนี้อาจบ่อนทำลายการปฏิบัติตามกฎระเบียบ กัดกร่อนความไว้วางใจของลูกค้า และทำให้สถาบันต่างๆ สูญเสียทางการเงิน เป็นผลให้หน่วยงานกำกับดูแลคาดหวังมากขึ้นว่าธนาคารจะรักษาความรับผิดชอบที่ชัดเจนสำหรับการตัดสินใจที่ขับเคลื่อนด้วย AI รวมถึงความสามารถในการอธิบายผลลัพธ์ต่อผู้ตรวจสอบและหน่วยงานกำกับดูแล
2. ความเสี่ยงของข้อมูลในระดับ: อคติ การเบี่ยงเบน และการเปิดเผยการปฏิบัติตามข้อกำหนด
ประสิทธิภาพของ AI นั้นเชื่อมโยงโดยเนื้อแท้กับคุณภาพของข้อมูลที่ใช้ ชุดข้อมูลที่ลำเอียง ไม่สมบูรณ์ หรือล้าสมัยอาจส่งผลให้เกิดการเลือกปฏิบัติในการปล่อยสินเชื่อ การตรวจจับการฉ้อโกงที่ไม่ถูกต้อง หรือการประเมินความเสี่ยงที่ทำให้เข้าใจผิด ปัญหาด้านคุณภาพของข้อมูลเหล่านี้มีความร้ายแรงโดยเฉพาะอย่างยิ่งในด้านต่างๆ เช่น การตรวจสอบการป้องกันการฟอกเงิน (AML) ซึ่งผลบวกลวงหรือผลลบลวงสามารถส่งผลกระทบทางกฎหมาย ชื่อเสียง และทางการเงินอย่างมีนัยสำคัญ
พิจารณาเครื่องมือ AI การตรวจจับการฉ้อโกงที่ทำเครื่องหมายธุรกรรมเพื่อตรวจสอบ หากแบบจำลองได้รับการฝึกฝนเกี่ยวกับชุดข้อมูลในอดีตที่มีอคติฝังตัว โมเดลนั้นอาจกำหนดเป้าหมายไปที่กลุ่มประชากรหรือภูมิภาคทางภูมิศาสตร์บางแห่งอย่างไม่เป็นสัดส่วน ทำให้เกิดความเสี่ยงในการปฏิบัติตามกฎหมายการให้กู้ยืมที่เป็นธรรม ในทำนองเดียวกัน โมเดลการให้คะแนนเครดิตที่ได้รับการฝึกอบรมเกี่ยวกับข้อมูลที่ไม่สมบูรณ์หรือล้าสมัยสามารถจัดประเภทผู้กู้ยืมที่มีความเสี่ยงสูงผิดประเภทเป็นความเสี่ยงต่ำ ส่งผลให้เกิดการสูญเสียสินเชื่อที่เรียงซ้อนในงบดุล การกำกับดูแลข้อมูลที่แข็งแกร่ง รวมถึงการตรวจสอบอย่างเข้มงวด การตรวจสอบอย่างต่อเนื่อง และการเป็นเจ้าของแหล่งข้อมูลที่ชัดเจน จึงเป็นสิ่งสำคัญ
3. ความเสี่ยงด้านระบบอัตโนมัติ: เมื่อข้อผิดพลาดเล็กๆ น้อยๆ ขยายขนาดอย่างเป็นระบบ
เมื่อ AI ฝังลึกลงไปในการดำเนินงานมากขึ้น ข้อผิดพลาดเล็กๆ น้อยๆ ก็สามารถปรับขนาดธุรกรรมนับล้านได้อย่างรวดเร็ว ในระบบดั้งเดิม ข้อผิดพลาดเฉพาะที่อาจส่งผลกระทบต่อกรณีจำนวนหนึ่ง ในการดำเนินงานที่ขับเคลื่อนด้วย AI ข้อบกพร่องเล็กๆ น้อยๆ สามารถแพร่กระจายได้อย่างเป็นระบบ ข้อผิดพลาดในการเขียนโค้ด การกำหนดค่าไม่ถูกต้อง หรือการเบี่ยงเบนของโมเดลที่ไม่คาดคิดอาจบานปลายไปสู่การตรวจสอบตามกฎระเบียบ การสูญเสียทางการเงิน หรือความเสียหายต่อชื่อเสียง
ตัวอย่างเช่น AI การซื้อขายแบบอัลกอริทึมอาจเข้ารับตำแหน่งที่มากเกินไปในตลาดโดยไม่ได้ตั้งใจ หากไม่มีการป้องกัน ผลที่ตามมาอาจรวมถึงการสูญเสียที่สำคัญ ความเครียดด้านสภาพคล่อง หรือผลกระทบต่อระบบ ระบบอัตโนมัติจะขยายความเร็วและระดับความเสี่ยง ทำให้การตรวจสอบแบบเรียลไทม์และการทดสอบความเครียดตามสถานการณ์เป็นองค์ประกอบสำคัญของการกำกับดูแล

เหตุใดกรอบการควบคุมแบบเดิมจึงพังในสภาพแวดล้อม AI
ธนาคารส่วนใหญ่ยังคงพึ่งพากรอบการควบคุมที่กำหนดขึ้นซึ่งออกแบบมาสำหรับระบบที่อิงกฎเกณฑ์ ในทางตรงกันข้าม AI มีความน่าจะเป็น ปรับตัวได้ และมักจะเรียนรู้ด้วยตนเอง สิ่งนี้ทำให้เกิดช่องว่างการกำกับดูแลที่สำคัญสามประการ:
1. ช่องว่างในการอธิบาย: ผู้บริหารระดับสูงและหน่วยงานกำกับดูแลต้องสามารถอธิบายได้ว่าทำไมจึงตัดสินใจ ไม่ใช่แค่ว่าผลลัพธ์ที่ปรากฏถูกต้องหรือไม่
2. ช่องว่างความรับผิดชอบ: ระบบอัตโนมัติอาจทำให้ความรับผิดชอบระหว่างเจ้าของธุรกิจ นักวิทยาศาสตร์ข้อมูล ทีมเทคโนโลยี และหน่วยงานด้านการปฏิบัติตามกฎระเบียบไม่ชัดเจน
3. ช่องว่างวงจรชีวิต: ความเสี่ยงด้าน AI ไม่ได้สิ้นสุดอยู่ที่การนำโมเดลไปใช้ แต่จะพัฒนาไปตามข้อมูลใหม่ การเปลี่ยนแปลงสภาพแวดล้อม และการเปลี่ยนแปลงพฤติกรรมของลูกค้า
การแก้ปัญหาช่องว่างเหล่านี้ต้องใช้แนวทางพื้นฐานในการกำกับดูแล AI ที่แตกต่างกัน โดยผสมผสานความซับซ้อนทางเทคนิคเข้ากับการควบคุมดูแลที่ปฏิบัติได้จริงและมีมนุษย์เป็นศูนย์กลาง
การกำกับดูแล AI ที่มีประสิทธิภาพมีลักษณะอย่างไรในทางปฏิบัติ
เพื่อแก้ไขช่องว่างเหล่านี้ ธนาคารชั้นนำจึงนำความเสี่ยงและแนวทางการควบคุม AI แบบองค์รวมมาใช้ ซึ่งถือว่า AI เป็นความเสี่ยงทั่วทั้งองค์กร มากกว่าที่จะเป็นเครื่องมือทางเทคนิค เฟรมเวิร์กที่มีประสิทธิภาพฝังความรับผิดชอบ ความโปร่งใส และความยืดหยุ่นตลอดวงจรชีวิตของ AI และโดยทั่วไปจะสร้างขึ้นจากเสาหลักห้าประการ
1. การกำกับดูแลความเสี่ยงด้าน AI ระดับคณะกรรมการ
การกำกับดูแล AI เริ่มต้นที่ด้านบน คณะกรรมการและคณะกรรมการบริหารต้องมีความชัดเจนว่า AI ถูกนำมาใช้ในการตัดสินใจที่สำคัญใดบ้าง ความเสี่ยงทางการเงิน กฎระเบียบ และจริยธรรมที่เกี่ยวข้อง และการยอมรับของสถาบันต่อข้อผิดพลาดหรืออคติของแบบจำลอง ธนาคารบางแห่งได้จัดตั้งคณะกรรมการด้าน AI หรือจริยธรรมด้านดิจิทัลขึ้น เพื่อให้มั่นใจว่ามีความสอดคล้องกันระหว่างเจตนาเชิงกลยุทธ์ ความเสี่ยงที่ยอมรับได้ และความคาดหวังของสังคม การมีส่วนร่วมระดับคณะกรรมการทำให้มั่นใจในความรับผิดชอบ ลดความคลุมเครือในสิทธิในการตัดสินใจ และส่งสัญญาณไปยังหน่วยงานกำกับดูแลว่าการกำกับดูแล AI ถือเป็นวินัยความเสี่ยงหลัก
2. ความโปร่งใสของแบบจำลองและการตรวจสอบความถูกต้อง
ความสามารถในการอธิบายจะต้องฝังอยู่ในการออกแบบระบบ AI แทนที่จะติดตั้งเพิ่มเติมหลังการใช้งาน ธนาคารชั้นนำชอบแบบจำลองที่สามารถตีความได้สำหรับการตัดสินใจที่มีผลกระทบสูง เช่น วงเงินสินเชื่อหรือวงเงินกู้ยืม และดำเนินการตรวจสอบอิสระ การทดสอบภาวะวิกฤต และการตรวจจับอคติ พวกเขาดูแลรักษาเอกสารแบบจำลองที่ “มนุษย์สามารถอ่านได้” เพื่อสนับสนุนการตรวจสอบ การทบทวนตามกฎระเบียบ และการกำกับดูแลภายใน
ขณะนี้ทีมตรวจสอบแบบจำลองต้องการความเชี่ยวชาญข้ามสาขาวิชาในด้านวิทยาศาสตร์ข้อมูล สถิติพฤติกรรม จริยธรรม และการเงิน เพื่อให้มั่นใจว่าการตัดสินใจมีความถูกต้อง ยุติธรรม และป้องกันได้ ตัวอย่างเช่น ในระหว่างการใช้ระบบการให้คะแนนเครดิตที่ขับเคลื่อนด้วย AI ธนาคารอาจจัดตั้งทีมตรวจสอบซึ่งประกอบด้วยนักวิทยาศาสตร์ข้อมูล ผู้จัดการความเสี่ยง และที่ปรึกษากฎหมาย ทีมงานทดสอบแบบจำลองอย่างต่อเนื่องเพื่อหาอคติต่อกลุ่มที่ได้รับการป้องกัน ตรวจสอบความแม่นยำของเอาต์พุต และรับประกันว่ากฎการตัดสินใจสามารถอธิบายให้หน่วยงานกำกับดูแลทราบได้
3. การกำกับดูแลข้อมูลเป็นการควบคุมเชิงกลยุทธ์
ข้อมูลเป็นส่วนสำคัญของ AI และการกำกับดูแลที่เข้มงวดถือเป็นสิ่งสำคัญ ธนาคารจะต้องจัดตั้ง:
- เป็นเจ้าของแหล่งข้อมูล คุณสมบัติ และการเปลี่ยนแปลงที่ชัดเจน
- การตรวจสอบอย่างต่อเนื่องสำหรับการเบี่ยงเบนของข้อมูล อคติ หรือการลดคุณภาพ
- ความเป็นส่วนตัว ความยินยอม และการป้องกันความปลอดภัยทางไซเบอร์ที่แข็งแกร่ง
หากไม่มีการกำกับดูแลข้อมูลที่มีระเบียบวินัย แม้แต่โมเดล AI ที่ซับซ้อนที่สุดก็จะล้มเหลวในที่สุด ซึ่งบ่อนทำลายความยืดหยุ่นในการปฏิบัติงานและการปฏิบัติตามกฎระเบียบ พิจารณาตัวอย่างการตรวจสอบธุรกรรม AI สำหรับการปฏิบัติตาม AML หากข้อมูลที่ป้อนมีข้อผิดพลาด รายการซ้ำ หรือช่องว่าง ระบบอาจล้มเหลวในการตรวจจับพฤติกรรมที่น่าสงสัย ในทางกลับกัน การประมวลผลข้อมูลที่ละเอียดอ่อนมากเกินไปอาจทำให้เกิดผลบวกลวงมากมาย ทีมปฏิบัติตามกฎระเบียบอย่างท่วมท้น และสร้างความไม่มีประสิทธิภาพ
4. การตัดสินใจของมนุษย์ในวงจร
ระบบอัตโนมัติไม่ควรหมายถึงการสละราชบัลลังก์ การตัดสินใจที่มีความเสี่ยงสูง เช่น การอนุมัติสินเชื่อจำนวนมาก การฉ้อโกงที่เพิ่มขึ้น ขีดจำกัดการซื้อขาย หรือการร้องเรียนจากลูกค้า จำเป็นต้องมีการควบคุมดูแลจากมนุษย์ โดยเฉพาะอย่างยิ่งในกรณี Edge Case หรือความผิดปกติ อินสแตนซ์เหล่านี้ช่วยฝึกอบรมพนักงานให้เข้าใจจุดแข็งและข้อจำกัดของระบบ AI และช่วยให้พนักงานสามารถแทนที่ผลลัพธ์ของ AI ด้วยความรับผิดชอบที่ชัดเจน
การสำรวจล่าสุดของธนาคารทั่วโลกพบว่าบริษัทที่มีกระบวนการแบบ Human-in-The-loop ที่มีโครงสร้างช่วยลดเหตุการณ์ที่เกี่ยวข้องกับโมเดลได้เกือบ 40% เมื่อเทียบกับระบบอัตโนมัติเต็มรูปแบบ โมเดลไฮบริดนี้รับประกันประสิทธิภาพโดยไม่ต้องเสียสละการควบคุม ความโปร่งใส หรือการตัดสินใจอย่างมีจริยธรรม
5. การตรวจสอบอย่างต่อเนื่อง การทดสอบสถานการณ์ และการจำลองความเครียด
ความเสี่ยงด้าน AI เป็นแบบไดนามิก ซึ่งจำเป็นต้องมีการตรวจสอบเชิงรุกเพื่อระบุช่องโหว่ที่เกิดขึ้นก่อนที่จะลุกลามไปสู่ภาวะวิกฤต ธนาคารชั้นนำใช้แดชบอร์ดแบบเรียลไทม์เพื่อติดตามประสิทธิภาพของ AI และตัวบ่งชี้การเตือนล่วงหน้า ดำเนินการวิเคราะห์สถานการณ์สำหรับเหตุการณ์ที่รุนแรงแต่เป็นไปได้ รวมถึงการโจมตีของฝ่ายตรงข้ามหรือการเปลี่ยนแปลงของตลาดอย่างกะทันหัน และอัปเดตการควบคุม นโยบาย และโปรโตคอลการยกระดับอย่างต่อเนื่องตามแบบจำลองและข้อมูลที่มีการพัฒนา
ตัวอย่างเช่น การทดสอบสถานการณ์ของธนาคารที่ดำเนินอยู่อาจจำลองการลดลงอย่างกะทันหันของตัวบ่งชี้เศรษฐกิจมหภาค โดยสังเกตว่าพอร์ตโฟลิโอสินเชื่อที่ขับเคลื่อนด้วย AI ตอบสนองอย่างไร สัญญาณของการจำแนกประเภทอย่างเป็นระบบสามารถแก้ไขได้ก่อนที่จะส่งผลกระทบต่อลูกค้าหรือหน่วยงานกำกับดูแล
เหตุใดการกำกับดูแลโดย AI จะกำหนดธนาคารที่ประสบความสำเร็จ
ช่องว่างระหว่างสถาบันที่มีกรอบงาน AI ที่สมบูรณ์และสถาบันที่ยังคงต้องอาศัยการควบคุมแบบเดิมนั้นกำลังกว้างขึ้น เมื่อเวลาผ่านไป สถาบันที่ประสบความสำเร็จจะไม่ใช่สถาบันที่มีอัลกอริธึมที่ทันสมัยที่สุด แต่เป็นสถาบันที่ควบคุม AI อย่างมีประสิทธิภาพ คาดการณ์ความเสี่ยงที่เกิดขึ้น และฝังความรับผิดชอบไว้ในการตัดสินใจ ในแง่นี้ อนาคตของ AI ในระบบธนาคารนั้นเกี่ยวกับระบบที่ชาญฉลาดน้อยกว่าสถาบันที่ชาญฉลาดกว่า เมื่อเวลาผ่านไป นักวิเคราะห์ที่รวมความสามารถในการควบคุม AI ไว้ในการประเมินจะมีสถานะที่ดีกว่าในการคาดการณ์ความเสี่ยงก่อนที่จะสะท้อนให้เห็นในอัตราส่วนเงินทุนหรือผลลัพธ์พาดหัว
