ผู้นำสามคนของ OpenAI ร่วมกันเขียนบทความเรียกร้องให้มีองค์กรระหว่างประเทศเพื่อกำกับดูแลการข่าวกรอง

ที่มา: นสพ

นักข่าวฝางเซียว

"เราอาจต้องการบางอย่างเช่น IAEA (International Atomic Energy Agency) สำหรับความพยายามในการกำกับดูแลข่าวกรอง ความพยายามใด ๆ ที่เกินขีด จำกัด ของความสามารถ (หรือทรัพยากรเช่นการคำนวณ) จะต้องได้รับการตรวจสอบโดยหน่วยงานระหว่างประเทศ ต้องมีการตรวจสอบ ทดสอบการปฏิบัติตาม มาตรฐานความปลอดภัย ข้อจำกัดในระดับการใช้งานและระดับความปลอดภัย และอื่นๆ"

ผู้นำ OpenAI เผยแพร่ "Governance of Superintelligence" ในบล็อกอย่างเป็นทางการ

ความก้าวหน้าด้านปัญญาประดิษฐ์นั้นรวดเร็วเพียงพอ และอันตรายที่อาจเกิดขึ้นก็ชัดเจนพอที่ผู้นำของ OpenAI ซึ่งเป็นผู้พัฒนา ChatGPT ได้อาสาว่าโลกต้องการองค์กรระดับนานาชาติสำหรับการควบคุมดูแลด้านข่าวกรองที่คล้ายกับองค์กรที่ควบคุมพลังงานนิวเคลียร์

เมื่อวันที่ 22 พฤษภาคมตามเวลาท้องถิ่น Sam Altman ผู้ก่อตั้ง OpenAI (Sam Altman) ประธาน Greg Brockman (Greg Brockman) และหัวหน้านักวิทยาศาสตร์ Ilya Sutskever (Ilya Sutskever) ผนึกกำลังกันที่บริษัทเขียนในบล็อก โดยกล่าวว่า ความก้าวหน้าของนวัตกรรมปัญญาประดิษฐ์ รวดเร็วมากจนเราไม่สามารถคาดหวังให้สถาบันที่มีอยู่ควบคุมเทคโนโลยีได้อย่างเพียงพอ

บทความที่ชื่อว่า "Governance of Superintelligence" ยอมรับว่า AI จะไม่จัดการตัวเอง "ในที่สุด เราอาจต้องการบางสิ่งที่คล้ายกับ IAEA (International Atomic Energy Agency) สำหรับความพยายามในการกำกับดูแล ทรัพยากรใดๆ เช่น การประมวลผล) จำเป็นต้องมีความพยายามตามเกณฑ์ ตรวจสอบโดยหน่วยงานระหว่างประเทศ ต้องมีการตรวจสอบ ทดสอบว่าตรงตามมาตรฐานความปลอดภัยหรือไม่ จำกัดระดับการใช้งานและระดับความปลอดภัย และอื่นๆ”

Timnit Gebru นักวิจัยด้าน AI ชั้นนำและนักวิจารณ์กล่าวบางสิ่งที่คล้ายกันในการให้สัมภาษณ์กับ The Guardian ในวันนั้น: “เว้นแต่จะมีแรงกดดันจากภายนอกให้ทำสิ่งที่แตกต่างออกไป บริษัทต่างๆ จะไม่สามารถควบคุมตนเองได้ เราต้องการกฎ ระเบียบ เราต้องการสิ่งที่ดีกว่าแรงจูงใจในการทำกำไรอย่างแท้จริง Gebru ถูกไล่ออกจาก Google เนื่องจากพูดถึงอันตรายของปัญญาประดิษฐ์

ข้อเสนอของ OpenAI อาจเป็นจุดเริ่มต้นการสนทนาในอุตสาหกรรม โดยแสดงให้เห็นว่าแบรนด์และผู้จำหน่าย AI ที่ใหญ่ที่สุดในโลกสนับสนุนกฎระเบียบและต้องการการกำกับดูแลจากสาธารณะอย่างเร่งด่วน แต่ "ยังไม่รู้ว่าจะออกแบบกลไกดังกล่าวอย่างไร"

เมื่อสัปดาห์ที่แล้ว Altman ให้การต่อหน้ารัฐสภาสหรัฐฯ ว่า OpenAI "กังวลมาก" เกี่ยวกับการเลือกตั้งที่ได้รับอิทธิพลจากเนื้อหาที่สร้างโดย AI เขากังวลว่าอุตสาหกรรม AI อาจ "ทำอันตรายอย่างมากต่อโลก" "ฉันคิดว่าถ้าเทคโนโลยีนี้ผิดพลาด มันอาจจะผิดพลาดอย่างมหันต์ และเราต้องการที่จะพูดตรงไปตรงมาเกี่ยวกับเรื่องนั้น" "เราต้องการทำงานร่วมกับรัฐบาลเพื่อป้องกันไม่ให้สิ่งนั้นเกิดขึ้น" Altman แนะนำให้สภาคองเกรสสร้างหน่วยงานใหม่ที่มีปัญหา ใบอนุญาตสำหรับเทคโนโลยี AI "เกินกว่าความสามารถระดับหนึ่ง" ควรอยู่ภายใต้การตรวจสอบโดยอิสระโดยผู้เชี่ยวชาญ ซึ่งสามารถตัดสินได้ว่าโมเดลนั้นสอดคล้องกับข้อบังคับเหล่านั้นหรือไม่ก่อนที่จะเผยแพร่ระบบ AI สู่สาธารณะ

ต่อไปนี้เป็นข้อความฉบับเต็มของ "การกำกับดูแลการข่าวกรอง":

จากภาพที่เราเห็นในขณะนี้ เป็นไปได้ว่าภายในทศวรรษหน้า ระบบ AI จะเกินระดับทักษะของผู้เชี่ยวชาญในโดเมนส่วนใหญ่ และทำกิจกรรมที่มีประสิทธิผลได้มากเท่ากับหนึ่งในองค์กรที่ใหญ่ที่สุดในปัจจุบัน

ในแง่ของข้อดีและข้อเสียที่อาจเกิดขึ้น ความฉลาดหลักแหลมจะมีพลังมากกว่าเทคโนโลยีอื่น ๆ ที่มนุษย์ต้องรับมือในอดีต เราสามารถมีอนาคตที่มั่งคั่งกว่านี้ได้ แต่เราต้องจัดการความเสี่ยงเพื่อไปถึงจุดนั้น เมื่อพิจารณาถึงความเสี่ยง เราจึงไม่สามารถตอบโต้ได้ พลังงานนิวเคลียร์เป็นตัวอย่างทางประวัติศาสตร์ทั่วไปของเทคโนโลยีในลักษณะนี้ ชีววิทยาสังเคราะห์เป็นอีกตัวอย่างหนึ่ง

เราต้องลดความเสี่ยงของเทคโนโลยี AI ในปัจจุบันด้วย แต่ความฉลาดหลักแหลมต้องการการจัดการและการประสานงานพิเศษ

##จุดเริ่มต้น

มีแนวคิดมากมายที่มีความสำคัญต่อโอกาสที่ดีของเราในการนำทางการพัฒนานี้ให้ประสบความสำเร็จ ในที่นี้ เราจะเสนอความคิดเริ่มต้นของเราเกี่ยวกับแนวคิดสามประการ

ประการแรก เราต้องการการประสานงานระดับหนึ่งระหว่างความพยายามในการพัฒนาระดับแนวหน้าเพื่อให้แน่ใจว่าการพัฒนาระบบข่าวกรองอัจฉริยะดำเนินไปในลักษณะที่ทั้งช่วยให้เราปลอดภัยและช่วยให้ระบบเหล่านี้รวมเข้ากับสังคมได้อย่างราบรื่น มีหลายวิธีที่สามารถทำให้สำเร็จได้ รัฐบาลชั้นนำของโลกอาจจัดตั้งโครงการที่ความพยายามในปัจจุบันเป็นส่วนหนึ่งของ หรือเราอาจตกลงร่วมกัน (ด้วยการสนับสนุนขององค์กรใหม่ที่เสนอด้านล่าง) ว่าความสามารถด้าน AI ที่ทันสมัย อัตราการเติบโตของบริษัทควรจำกัดให้อยู่ในอัตราที่แน่นอนทุกปี

แน่นอน บริษัทแต่ละแห่งได้รับการคาดหวังให้ดำเนินการด้วยความรับผิดชอบและมีมาตรฐานที่สูงมาก

ประการที่สอง เราอาจต้องการบางสิ่งที่คล้ายกับ IAEA (International Atomic Energy Agency) สำหรับความพยายามด้านการข่าวกรอง ความพยายามใด ๆ ที่เกินขีด จำกัด ของความสามารถ (หรือทรัพยากรการคำนวณ ฯลฯ ) จะต้องได้รับการตรวจสอบโดยหน่วยงานระหว่างประเทศ โดยต้องมี การตรวจสอบ การทดสอบการปฏิบัติตามมาตรฐานความปลอดภัย การจำกัดการปรับใช้และระดับความปลอดภัย และอื่นๆ การติดตามการคำนวณและการใช้พลังงานจะช่วยได้มาก และทำให้เรามีความหวังว่าแนวคิดนี้จะเป็นไปได้จริง ในขั้นแรก บริษัทต่างๆ สามารถตกลงโดยสมัครใจที่จะเริ่มใช้องค์ประกอบต่างๆ ที่หน่วยงานอาจต้องการในสักวันหนึ่ง ขณะที่ในขั้นที่สอง แต่ละประเทศสามารถดำเนินการได้ เป็นสิ่งสำคัญที่หน่วยงานดังกล่าวจะมุ่งเน้นไปที่การลดความเสี่ยงที่มีอยู่ มากกว่าประเด็นที่ควรปล่อยให้เป็นรายประเทศ เช่น การกำหนดว่า AI ควรได้รับอนุญาตให้พูดอะไร

ประการที่สาม เราต้องการความสามารถทางเทคโนโลยีเพื่อรักษาความฉลาดหลักแหลม นี่เป็นปัญหาการวิจัยแบบเปิด และเราและคนอื่นๆ กำลังทำงานหลายอย่าง

อะไรที่ไม่อยู่ในขอบเขต

เราเชื่อว่าสิ่งสำคัญคือต้องอนุญาตให้บริษัทและโครงการโอเพ่นซอร์สพัฒนาโมเดลที่ต่ำกว่าขีดจำกัดความสามารถที่สำคัญ โดยไม่ต้องมีกฎระเบียบที่เราอธิบายไว้ในที่นี้ (รวมถึงกลไกที่ยุ่งยาก เช่น ใบอนุญาตหรือการตรวจสอบ)

ระบบในปัจจุบันจะสร้างมูลค่ามหาศาลให้กับโลก และแม้ว่าระบบจะมีความเสี่ยง ระดับความเสี่ยงเหล่านั้นก็ดูจะเหมาะสมกับเทคโนโลยีอินเทอร์เน็ตอื่นๆ และสิ่งที่สังคมอาจทำก็ดูเหมาะสม

ในทางตรงกันข้าม ระบบที่เรามุ่งเน้นจะมีโมเมนตัมที่จะมีประสิทธิภาพเหนือกว่าเทคโนโลยีใดๆ ที่ยังไม่ได้สร้างขึ้น และเราควรระมัดระวังที่จะไม่มองข้ามการให้ความสำคัญกับเทคโนโลยีที่ต่ำกว่านั้นมากโดยใช้มาตรฐานที่คล้ายคลึงกันกับพวกเขา

ข้อมูลและศักยภาพของประชาชน

แต่การกำกับดูแลระบบที่แข็งแกร่งที่สุดและการตัดสินใจเกี่ยวกับการปรับใช้จะต้องมีการกำกับดูแลจากสาธารณะอย่างเข้มงวด เราเชื่อว่าผู้คนทั่วโลกควรกำหนดขอบเขตและค่าเริ่มต้นของระบบ AI อย่างเป็นประชาธิปไตย เรายังไม่รู้ว่าจะออกแบบกลไกดังกล่าวอย่างไร แต่เราวางแผนที่จะทดลองกับการพัฒนาของมัน เรายังเชื่อว่าในวงกว้างเหล่านี้ ผู้ใช้แต่ละรายควรมีอำนาจควบคุมพฤติกรรมของ AI ที่พวกเขาใช้เป็นอย่างมาก

เมื่อพิจารณาถึงความเสี่ยงและความยากลำบาก จึงควรพิจารณาว่าเหตุใดเราจึงสร้างเทคโนโลยีนี้ขึ้นมา

ที่ OpenAI เรามีเหตุผลพื้นฐานสองประการ ประการแรก เราเชื่อว่าสิ่งนี้จะนำไปสู่โลกที่ดีกว่าที่เราจินตนาการไว้ในปัจจุบัน (เราได้เห็นตัวอย่างในช่วงแรกๆ ของสิ่งนี้ในด้านต่างๆ เช่น การศึกษา งานสร้างสรรค์ และผลงานส่วนบุคคล) โลกกำลังเผชิญกับปัญหามากมาย และเราต้องการความช่วยเหลือเพิ่มเติมเพื่อแก้ปัญหาเหล่านี้ เทคโนโลยีนี้สามารถปรับปรุงสังคมของเราได้ และความสามารถในการสร้างสรรค์ของทุกคนที่ใช้เครื่องมือใหม่เหล่านี้จะทำให้เราประหลาดใจอย่างแน่นอน การเติบโตทางเศรษฐกิจและการพัฒนาคุณภาพชีวิตจะเป็นปรากฎการณ์

ประการที่สอง เราเชื่อว่าการป้องกันการข่าวกรองจะมีความเสี่ยงและความยากลำบากโดยไม่ได้ตั้งใจ เนื่องจากประโยชน์ที่ได้รับนั้นยอดเยี่ยมมาก ค่าใช้จ่ายในการสร้างมันจึงลดลงทุกปี จำนวนผู้เล่นที่สร้างมันเพิ่มขึ้นอย่างรวดเร็ว และมันเป็นส่วนหนึ่งของเส้นทางเทคโนโลยีที่เราดำเนินอยู่ การหยุดมันต้องใช้บางอย่างที่คล้ายกับระบบเฝ้าระวังทั่วโลก แม้จะไม่รับประกันว่าจะใช้งานได้ ดังนั้นเราต้องทำให้ถูกต้อง

ดูต้นฉบับ
  • รางวัล
  • แสดงความคิดเห็น
  • แชร์
แสดงความคิดเห็น
ไม่มีความคิดเห็น