ถึงเวลาคิดใหม่เกี่ยวกับการเปิดเผย การปรับใช้ และกลยุทธ์ของ AI
ในสัปดาห์นี้ Yann LeCun หัวหน้านักวิทยาศาสตร์ AI ของ Meta ที่เพิ่งลาออกจากตำแหน่งและเป็นหนึ่งในบิดาแห่ง AI ยุคใหม่ ได้กำหนดมุมมองที่มีพื้นฐานทางเทคนิคเกี่ยวกับภูมิทัศน์ความเสี่ยงและโอกาสของ AI ที่เปลี่ยนแปลงไปในเซสชั่นหลักฐานปัญญาประดิษฐ์ APPG ของรัฐสภาสหราชอาณาจักร แอพจี เอไอ คือกลุ่มรัฐสภาทุกพรรคด้านปัญญาประดิษฐ์ โพสต์นี้สร้างขึ้นจากคำให้การของ Yann LeCun ต่อกลุ่ม โดยมีการอ้างอิงคำพูดโดยตรงจากคำพูดของเขา
คำพูดของเขาเกี่ยวข้องกับผู้จัดการการลงทุน เนื่องจากได้แยกออกเป็น 3 โดเมนที่ตลาดทุนมักพิจารณาแยกกัน แต่ไม่ควรพิจารณา ได้แก่ ความสามารถด้าน AI การควบคุมของ AI และเศรษฐศาสตร์ของ AI
ความเสี่ยงด้าน AI ที่สำคัญไม่ได้มุ่งเน้นไปที่ผู้ที่ฝึกโมเดลที่ใหญ่ที่สุดหรือดูแลเครื่องเร่งความเร็วที่ทันสมัยที่สุดอีกต่อไป พวกเขากำลังสนใจมากขึ้นเรื่อยๆ ว่าใครเป็นผู้ควบคุมอินเทอร์เฟซกับระบบ AI ซึ่งมีข้อมูลไหลอยู่ และรายจ่ายฝ่ายทุนที่เน้น LLM เป็นหลักในปัจจุบันจะสร้างผลตอบแทนที่ยอมรับได้หรือไม่
ความเสี่ยง AI อธิปไตย
“นี่คือความเสี่ยงที่ใหญ่ที่สุดที่ฉันเห็นในอนาคตของ AI: การรวบรวมข้อมูลโดยบริษัทจำนวนไม่มากผ่านระบบที่เป็นกรรมสิทธิ์”
สำหรับรัฐต่างๆ นี่เป็นข้อกังวลด้านความมั่นคงของชาติ สำหรับผู้จัดการการลงทุนและองค์กร มันเป็นความเสี่ยงในการพึ่งพา หากขั้นตอนการวิจัยและสนับสนุนการตัดสินใจถูกสื่อกลางโดยแพลตฟอร์มที่เป็นกรรมสิทธิ์ชุดแคบๆ ความไว้วางใจ ความสามารถในการฟื้นตัว การรักษาความลับของข้อมูล และอำนาจการต่อรองจะอ่อนลงเมื่อเวลาผ่านไป
LeCun ระบุว่า “การเรียนรู้แบบสหพันธรัฐ” เป็นการบรรเทาผลกระทบบางส่วน ในระบบดังกล่าว โมเดลแบบรวมศูนย์ไม่จำเป็นต้องดูข้อมูลพื้นฐานสำหรับการฝึกอบรม โดยอาศัยพารามิเตอร์โมเดลที่แลกเปลี่ยนแทน
โดยหลักการแล้ว สิ่งนี้จะทำให้โมเดลผลลัพธ์ดำเนินการ “…ราวกับว่าได้รับการฝึกอบรมกับชุดข้อมูลทั้งหมด…โดยที่ข้อมูลไม่ออกไป (โดเมนของคุณ)”
อย่างไรก็ตาม นี่ไม่ใช่โซลูชันที่มีน้ำหนักเบา การเรียนรู้แบบสมาพันธ์จำเป็นต้องมีการตั้งค่ารูปแบบใหม่ที่มีการประสานงานที่เชื่อถือได้ระหว่างฝ่ายต่างๆ และโมเดลส่วนกลาง รวมถึงโครงสร้างพื้นฐานระบบคลาวด์ที่ปลอดภัยในระดับประเทศหรือระดับภูมิภาค ช่วยลดความเสี่ยงด้านอธิปไตยของข้อมูล แต่ไม่ได้ขจัดความต้องการความจุระบบคลาวด์อธิปไตย การจัดหาพลังงานที่เชื่อถือได้ หรือการลงทุนที่ยั่งยืน
ผู้ช่วย AI เป็นช่องโหว่เชิงกลยุทธ์
“เราไม่สามารถมีผู้ช่วย AI เหล่านั้นอยู่ภายใต้การควบคุมที่เป็นกรรมสิทธิ์ของบริษัทเพียงไม่กี่แห่งในสหรัฐฯ หรือที่มาจากประเทศจีน”
ผู้ช่วย AI ไม่น่าจะยังคงเป็นเครื่องมือเพิ่มประสิทธิภาพการทำงานง่ายๆ พวกเขาจะเป็นตัวกลางในการรับส่งข้อมูลในชีวิตประจำวันมากขึ้น โดยกำหนดสิ่งที่ผู้ใช้เห็น ถาม และตัดสินใจ LeCun แย้งว่าความเสี่ยงจากการกระจุกตัวในชั้นนี้เป็นโครงสร้าง:
“เราต้องการผู้ช่วย AI ที่มีความหลากหลายสูง ด้วยเหตุผลเดียวกับที่เราต้องการสื่อข่าวที่มีความหลากหลายสูง”
ความเสี่ยงส่วนใหญ่เป็นระดับรัฐ แต่ก็สำคัญสำหรับผู้เชี่ยวชาญด้านการลงทุนด้วย นอกเหนือจากสถานการณ์การใช้งานในทางที่ผิดที่ชัดเจนแล้ว การลดมุมมองด้านข้อมูลให้แคบลงผ่านผู้ช่วยจำนวนไม่มากยังเสี่ยงต่อการเสริมอคติทางพฤติกรรมและการวิเคราะห์ที่เป็นเนื้อเดียวกัน

Edge Compute ไม่ได้ลบการพึ่งพาระบบคลาวด์
“บางส่วนจะทำงานบนอุปกรณ์ท้องถิ่นของคุณ แต่ส่วนใหญ่จะต้องทำงานที่ไหนสักแห่งในระบบคลาวด์”
จากมุมมองของอธิปไตย การใช้งาน Edge อาจลดภาระงานบางอย่างลงได้ แต่ไม่ได้ขจัดปัญหาด้านเขตอำนาจศาลหรือการควบคุม:
“มีคำถามที่แท้จริงเกี่ยวกับเขตอำนาจศาล ความเป็นส่วนตัว และความปลอดภัย”
ความสามารถของ LLM กำลังเกินจริง
“เราถูกหลอกให้คิดว่าระบบเหล่านี้ฉลาดเพราะว่าเก่งภาษา”
ปัญหาไม่ใช่ว่าโมเดลภาษาขนาดใหญ่ไม่มีประโยชน์ ความคล่องมักถูกเข้าใจผิดว่าเป็นการให้เหตุผลหรือความเข้าใจโลก ซึ่งเป็นความแตกต่างที่สำคัญสำหรับระบบเอเจนต์ที่ต้องอาศัย LLM ในการวางแผนและดำเนินการ
“ภาษามันง่าย โลกความจริงวุ่นวาย เอะอะโวยวาย มีมิติสูง ต่อเนื่อง”
สำหรับนักลงทุน สิ่งนี้ทำให้เกิดคำถามที่คุ้นเคย: รายจ่ายด้านทุนของ AI ในปัจจุบันจำนวนเท่าใดในการสร้างความฉลาดที่ยั่งยืน และการปรับปรุงประสบการณ์ผู้ใช้เกี่ยวกับการจับคู่รูปแบบทางสถิติจะมากน้อยเพียงใด
โมเดลโลกและ Put up-LLM Horizon
“แม้ว่าระบบภาษาในปัจจุบันจะประสบความสำเร็จ แต่เราก็ยังห่างไกลจากความฉลาดที่เราเห็นในสัตว์หรือมนุษย์”
แนวคิดเกี่ยวกับแบบจำลองโลกของ LeCun มุ่งเน้นไปที่การเรียนรู้ว่าโลกมีพฤติกรรมอย่างไร ไม่ใช่แค่ความสัมพันธ์ของภาษาเท่านั้น ในกรณีที่ LLM ปรับให้เหมาะสมสำหรับการทำนายโทเค็นถัดไป แบบจำลองของโลกมีเป้าหมายที่จะทำนายผลที่ตามมา ความแตกต่างนี้จะแยกการจำลองรูปแบบระดับพื้นผิวออกจากแบบจำลองที่มีเหตุมีผลมากกว่า
ความหมายไม่ใช่ว่าสถาปัตยกรรมในปัจจุบันจะหายไป แต่อาจไม่ใช่สถาปัตยกรรมที่ให้ผลผลิตที่ยั่งยืนหรือความได้เปรียบในการลงทุนในที่สุด
Meta ความเสี่ยงของแพลตฟอร์มแบบเปิด
LeCun ยอมรับว่าตำแหน่งของ Meta มีการเปลี่ยนแปลง:
“Meta เคยเป็นผู้นำในการให้บริการระบบโอเพ่นซอร์ส”
“ในปีที่ผ่านมา เราสูญเสียพื้นที่”
สิ่งนี้สะท้อนให้เห็นถึงพลวัตของอุตสาหกรรมในวงกว้างมากกว่าการพลิกกลับเชิงกลยุทธ์ธรรมดาๆ ในขณะที่ Meta ยังคงเผยแพร่โมเดลภายใต้ลิขสิทธิ์แบบ open-weight ความกดดันด้านการแข่งขัน และการแพร่กระจายอย่างรวดเร็วของสถาปัตยกรรมโมเดล ซึ่งเน้นโดยการเกิดขึ้นของกลุ่มวิจัยของจีน เช่น DeepSeek ได้ลดความทนทานของความได้เปรียบทางสถาปัตยกรรมล้วนๆ
ความกังวลของ LeCun ไม่ได้ถูกมองว่าเป็นเพียงคำวิจารณ์ของบริษัทเดียว แต่เป็นความเสี่ยงเชิงระบบ:
“ทั้งสหรัฐฯ และจีนไม่ควรครองพื้นที่นี้”
เมื่อมูลค่าย้ายจากน้ำหนักโมเดลไปสู่การกระจาย แพลตฟอร์มต่างๆ ก็ชื่นชอบระบบที่เป็นกรรมสิทธิ์มากขึ้น จากมุมมองของอธิปไตยและการพึ่งพา แนวโน้มนี้รับประกันความสนใจจากนักลงทุนและผู้กำหนดนโยบายเหมือนกัน
Agentic AI: นำหน้าการกำกับดูแลที่ครบกำหนด
“ระบบตัวแทนในปัจจุบันไม่มีทางทำนายผลที่ตามมาของการกระทำก่อนที่จะลงมือทำ”
“นั่นเป็นวิธีการออกแบบระบบที่แย่มาก”
สำหรับผู้จัดการการลงทุนที่ทดลองกับตัวแทน นี่เป็นคำเตือนที่ชัดเจน การใช้งานก่อนกำหนดอาจเสี่ยงต่อภาพหลอนที่แพร่กระจายผ่านห่วงโซ่การตัดสินใจและการดำเนินการวนซ้ำที่ได้รับการควบคุมไม่ดี แม้ว่าความก้าวหน้าทางเทคนิคจะดำเนินไปอย่างรวดเร็ว แต่กรอบการกำกับดูแลสำหรับ Agentic AI ยังคงด้อยพัฒนาเมื่อเทียบกับมาตรฐานวิชาชีพในสภาพแวดล้อมการลงทุนที่มีการควบคุม
กฎระเบียบ: การใช้งาน ไม่ใช่การวิจัย
“อย่าควบคุมการวิจัยและพัฒนา”
“คุณสร้างการยึดตามกฎระเบียบด้วยเทคโนโลยีขนาดใหญ่”
LeCun แย้งว่ากฎระเบียบที่มีการกำหนดเป้าหมายไม่ดีจะยึดถือผู้ครอบครองตลาดและเพิ่มอุปสรรคในการเข้ามา การมุ่งเน้นด้านกฎระเบียบควรมุ่งเน้นไปที่ผลลัพธ์การใช้งานแทน:
“เมื่อใดก็ตามที่มีการใช้ AI และอาจมีผลกระทบอย่างมากต่อสิทธิของประชาชน จำเป็นต้องมีกฎระเบียบ”
บทสรุป: รักษาอธิปไตย หลีกเลี่ยงการจับกุม
ความเสี่ยงจาก AI ที่เกิดขึ้นทันทีนั้นไม่ใช่การหลบหนีจากความฉลาดทั่วไป เป็นการรวบรวมข้อมูลและมูลค่าทางเศรษฐกิจภายในระบบข้ามพรมแดนที่เป็นกรรมสิทธิ์ อำนาจอธิปไตยทั้งในระดับรัฐและบริษัท เป็นศูนย์กลาง และนั่นหมายถึงแนวทางที่ปลอดภัยเป็นอันดับแรกในการปรับใช้ LLM ในองค์กรของคุณ แนวทางที่มีความน่าเชื่อถือต่ำ
คำให้การของ LeCun เปลี่ยนความสนใจไปจากการเปิดเผยโมเดลพาดหัวและหันไปสนใจว่าใครเป็นผู้ควบคุมข้อมูล อินเทอร์เฟซ และการคำนวณ ในเวลาเดียวกัน รายจ่ายด้านทุนของ AI ในปัจจุบันจำนวนมากยังคงยึดติดกับกระบวนทัศน์ที่เน้น LLM เป็นหลัก แม้ว่าในระยะต่อไปของ AI มีแนวโน้มที่จะดูแตกต่างออกไปอย่างมากก็ตาม การรวมกันดังกล่าวสร้างสภาพแวดล้อมที่คุ้นเคยสำหรับนักลงทุน: ความเสี่ยงที่เพิ่มขึ้นจากการจัดสรรเงินทุนไม่ถูกต้อง
ในช่วงที่เทคโนโลยีเปลี่ยนแปลงอย่างรวดเร็ว อันตรายที่ยิ่งใหญ่ที่สุดไม่ใช่สิ่งที่เทคโนโลยีสามารถทำได้ แต่อยู่ที่การพึ่งพาและค่าเช่าที่เกิดขึ้นในที่สุด
