Vitalik กลัว AGI และ ASI: มนุษย์ควรให้ความสำคัญกับเครื่องมือเพิ่มประสิทธิภาพทางปัญญาก่อน ไม่ใช่ให้ AI ดันออกมนุษย์

ผู้ร่วมก่อตั้ง Ethereum, Vitalik Buterin, แชร์มุมมองที่ไม่เหมือนใครใน Twitter เกี่ยวกับ AGI (General Artificial Intelligence) และ ASI (Artificial Superintelligence) โดยเน้นว่าควรให้ความสนใจกับเครื่องมือ AI แทนที่จะตามหาการพัฒนาสิ่งมีชีวิตแอบแฝงและแทนที่มนุษย์ เขากลัว AGI และ ASI จะพัฒนาเกินไป

AGI เป็นปัญญาประดิษฐ์ที่เกิดขึ้นอิสระเพื่อรักษาความเจริญของมนุษยชาติ

Vitalik นิยาม AGI ว่าเป็น AI ที่ทรงพลังพอสมควร เขากล่าวว่าหากมนุษย์ทุกคนหายไปอย่างกะทันหันและ AI นี้ถูกติดตั้งลงในหุ่นยนต์มันสามารถทํางานได้อย่างอิสระและรักษาการพัฒนาอารยธรรมทั้งหมด เขาเสริมว่าแนวคิดนี้จะได้รับการอัพเกรดเพิ่มเติมจาก "เครื่องมือ" ของ AI แบบดั้งเดิมเป็น "รูปแบบชีวิตที่ยั่งยืนด้วยตนเอง"

Vitalik ชี้ให้เห็นว่าเทคโนโลยีปัจจุบันไม่สามารถจําลองสถานการณ์ดังกล่าวได้เราไม่สามารถทดสอบได้ว่า AI สามารถรักษาอารยธรรมได้หรือไม่หากไม่มีผู้คนและมันยากยิ่งกว่าที่จะกําหนดเกณฑ์สําหรับ "การพัฒนาอารยธรรม" ซึ่งเงื่อนไขแสดงถึงอารยธรรมที่ยังคงดําเนินการอยู่และปัญหาเหล่านี้มีความซับซ้อนในตัวเอง แต่นี่อาจเป็นแหล่งที่มาหลักของการระบุตัวตนที่ผู้คนสามารถแยกแยะ AGI จาก AI ทั่วไปได้โดยตรง

(หมายเหตุ: รูปแบบชีวิตที่สามารถดูแลตนเอง หมายถึง สามารถเก็บรักษาและใช้ประโยชน์จากทรัพยากรเพื่อรักษาชีวิต ปรับตัวเข้ากับการเปลี่ยนแปลงของสภาพแวดล้อม และสามารถทำให้ระบบชีวิตหรืออวัยวะอยู่รอดในเงื่อนไขที่แน่นอน)

เน้นความสำคัญของเครื่องมือช่วยเหลือด้วยความฉลาดไม่ใช่การแทนที่มนุษย์ด้วย AI

Vitalik นิยาม AI (ASI) ที่เป็น AI ที่มีความคืบหน้าเกินความสามารถที่มนุษย์สามารถให้ได้และเข้าสู่ขั้นตอนที่เป็นอิสระและมีประสิทธิภาพมากขึ้น ตัวอย่างที่เขายกมาคือการเล่นหมากรุกที่เพิ่งเข้าสู่ขั้นตอนนี้ในช่วงสิบปีที่ผ่านมา ระดับ AI ได้เกินมนุษย์ในการทำงานร่วมกับ AI และเขายอมรับว่า ASI ทำให้เขากลัวเพราะมันหมายความว่ามนุษย์อาจสูญเสียการควบคุม AI ได้จริง

Vitalik กล่าวว่า การพัฒนาสิ่งมีชีวิตอัจฉริยะเทียบกับการพัฒนาเครื่องมือที่สามารถเสริมสร้างความฉลาดและความสามารถของมนุษย์จะดีกว่า นายเชื่อว่า AI ควรเป็นเครื่องมือช่วยของมนุษย์ ไม่ใช่การดันดันที่จะแทนมนุษย์ นายเชื่อว่าแนวทางการพัฒนาเช่นนี้จะลดความเสี่ยงของ AI ที่ไม่สามารถควบคุมได้ พร้อมทั้งเสริมสร้างประสิทธิภาพและความมั่นคงของสังคมโดยรวม

(การที่ AI ที่สร้างขึ้นมา สร้างความเสียหายต่อการจ้างงาน: แรงงานของ Amazon จะถูกแทนที่โดยกองทัพเครื่องจักรทั้งหมดหรือไม่?)

บทความนี้ Vitalik กลัว AGI และ ASI: มนุษย์ควรเน้นอุปกรณ์เพิ่มสมองกว่าที่จะให้ AI แทนมนุษย์ ต้นแรกปรากฏบนเว็บไซต์ข่าวสารลิงค์ ABMedia

ดูต้นฉบับ
  • รางวัล
  • แสดงความคิดเห็น
  • แชร์
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น