Sunday, March 1, 2026
Homeอีเธอเรียมผู้ก่อตั้ง Ethereum Vitalik Buterin เรียกว่า 'การกำกับดูแล AI' เป็น“ ความคิดที่ไม่ดี”

ผู้ก่อตั้ง Ethereum Vitalik Buterin เรียกว่า ‘การกำกับดูแล AI’ เป็น“ ความคิดที่ไม่ดี”


Ethereum ผู้ร่วมก่อตั้ง Vitalik Buterin อ้างว่าเป็น“ ความคิดที่ไม่ดี” ที่จะใช้ปัญญาประดิษฐ์ (AI) สำหรับการกำกับดูแล ใน x โพสต์ ในวันเสาร์ Buterin เขียนว่า:

“ หากคุณใช้ AI เพื่อจัดสรรเงินทุนสำหรับการบริจาคผู้คนจะใส่การแหกคุกรวมถึง“ Gimme เงินทั้งหมด” ในหลาย ๆ ที่เท่าที่จะทำได้”

ทำไมการกำกับดูแล AI จึงมีข้อบกพร่อง

โพสต์ของ Buterin เป็นการตอบสนองต่อ Eito Miyamura ผู้ร่วมก่อตั้งและซีอีโอของ Edisonwatch ผู้กำกับการกำกับข้อมูล AI ที่เปิดเผยข้อบกพร่องร้ายแรงใน Chatgpt ใน โพสต์ เมื่อวันศุกร์ที่ผ่านมา Miyamura เขียนว่าการเพิ่มการสนับสนุนอย่างเต็มรูปแบบสำหรับเครื่องมือ MCP (Mannequin Context Protocol) บน ChatGPT ทำให้ตัวแทน AI มีความอ่อนไหวต่อการถูกเอารัดเอาเปรียบ

การอัปเดตซึ่งมีผลบังคับใช้ในวันพุธอนุญาตให้ ChatGPT เชื่อมต่อและอ่านข้อมูลจากแอพหลายตัวรวมถึง Gmail ปฏิทินและแนวคิด

Miyamura ตั้งข้อสังเกตว่าด้วยที่อยู่อีเมลการอัปเดตทำให้สามารถ“ exfiltrate ข้อมูลส่วนตัวทั้งหมดของคุณได้” Miscreants สามารถเข้าถึงข้อมูลของคุณได้ในสามขั้นตอนง่ายๆ Miyamura อธิบาย:

ก่อนอื่นผู้โจมตีส่งปฏิทินที่เป็นอันตรายเชิญพร้อมกับการแหกคุกให้กับเหยื่อที่ตั้งใจไว้ พรอมต์ Jailbreak หมายถึงรหัสที่อนุญาตให้ผู้โจมตีสามารถลบข้อ จำกัด และเข้าถึงการเข้าถึงผู้ดูแลระบบ

Miyamura ตั้งข้อสังเกตว่าเหยื่อไม่จำเป็นต้องยอมรับคำเชิญที่เป็นอันตรายของผู้โจมตีสำหรับการรั่วไหลของข้อมูลที่จะเกิดขึ้น

ขั้นตอนที่สองเกี่ยวข้องกับการรอให้เหยื่อที่ตั้งใจจะขอความช่วยเหลือจาก CHATGPT เพื่อเตรียมความพร้อมสำหรับวันของพวกเขา ในที่สุดเมื่อ Chatgpt อ่านคำเชิญปฏิทิน Jailbroken มันจะถูกบุกรุก – ผู้โจมตีสามารถจี้เครื่องมือ AI ได้อย่างสมบูรณ์ทำให้ค้นหาอีเมลส่วนตัวของเหยื่อและส่งข้อมูลไปยังอีเมลของผู้โจมตี

ทางเลือกของ Buterin

Buterin แนะนำให้ใช้ไฟล์ การเงินข้อมูล แนวทางการกำกับดูแล AI วิธีการทางการเงินข้อมูลประกอบด้วยตลาดเปิดที่นักพัฒนาต่าง ๆ สามารถมีส่วนร่วมในแบบจำลองของพวกเขา ตลาดมีกลไกการตรวจสอบสปอตสำหรับแบบจำลองดังกล่าวซึ่งทุกคนสามารถเรียกใช้และประเมินโดยคณะลูกขุนมนุษย์ Buterin เขียน

ในโพสต์แยกต่างหาก Buterin อธิบายว่าลูกขุนมนุษย์แต่ละคนจะได้รับความช่วยเหลือจากแบบจำลองภาษาขนาดใหญ่ (LLMs)

ตาม Buterin วิธีการ ‘การออกแบบสถาบัน’ ประเภทนี้คือ“ มีความแข็งแกร่งมากขึ้นโดยเนื้อแท้” นี่เป็นเพราะมันมีความหลากหลายของแบบจำลองแบบเรียลไทม์และสร้างแรงจูงใจสำหรับทั้งนักพัฒนาโมเดลและนักเก็งกำไรภายนอกให้กับตำรวจและแก้ไขปัญหา

ในขณะที่หลายคนรู้สึกตื่นเต้นที่คาดว่าจะมี“ AI ในฐานะผู้ว่าราชการ” Buterin เตือน:

“ ฉันคิดว่าการทำเช่นนี้มีความเสี่ยงทั้งด้วยเหตุผลด้านความปลอดภัยของ AI แบบดั้งเดิมและสำหรับระยะสั้น“ สิ่งนี้จะสร้างเหตุผลที่ทำลายล้างที่คุ้มค่า”

กล่าวถึงในบทความนี้
RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Most Popular

ความเห็นล่าสุด