ai เป็นหนึ่งในหมวดหมู่ที่ฮอตเท่าที่สุดและมีความมั่นใจสูงที่สุดในตลาดคริปโตเมื่อเร็วๆ นี้
💡การฝึกอบรม AI แบบกระจาย
💡gpu depins
💡โมเดล AI ที่ไม่ได้รับการเเก้
เป็นการฝึกฝนหรือแค่คำพูดเพื่อสร้างชื่อเสียงเท่านั้นหรือเปล่า? 🤔
ที่ hack vc เรากำลังตัดเสียงรบกวนเพื่อแยกความสัญญาจากความเป็นจริง
โพสต์นี้วิเคราะห์แยกส่วนไอเดียคริปโต x ai ที่ดีที่สุด มาพูดคุยเรื่องความท้าทายและโอกาสที่แท้จริง
ไอเดียที่มีความสัญจร แต่พบกับความท้าทายในความเป็นจริง
ก่อนอื่นเลย ให้เริ่มต้นด้วย “คำสัญญาของ web3 ai”— ความคิดที่มีความฮือฮามากมาย แต่ความเป็นจริงอาจจะไม่ได้งดงามเท่านั้น
ปัญหาของการฝึก AI บนโซ่บล็อกคือการฝึกต้องการการสื่อสารและการประสานงานที่ความเร็วสูงระหว่าง GPUs เนื่องจากเครือข่ายประสาทที่ต้องการการส่งคืนเมื่อถูกฝึก. NVIDIA มีนวัตกรรมสองรายการสำหรับสิ่งนี้NVLinkและอินฟินิแบนด์). เทคโนโลยีเหล่านี้ทำให้การสื่อสารของ GPU เป็นอย่างมาก แต่เป็นเทคโนโลยีในเครือข่ายภายในที่สามารถใช้ได้ภายในคลัสเตอร์ GPU เท่านั้นที่ตั้งอยู่ในศูนย์ข้อมูลเดียวกัน (ความเร็ว 50+ กิกะบิต)
หากคุณนำเครือข่ายที่ไม่มีตัวกลางเข้ามาในภาพ คุณจะเห็นว่าความเร็วลดลงจำนวนมากเนื่องจากความล่าช้าของเครือข่ายและแบนด์วิดท์ที่เพิ่มขึ้น ซึ่งไม่เหมาะสำหรับการใช้งานการฝึกอย่างปัจจุบันเมื่อเทียบกับประสิทธิภาพที่คุณได้รับจากเทคโนโลยีการเชื่อมต่อความเร็วสูงของ Nvidia ภายในศูนย์ข้อมูล
โปรดทราบว่ามีการนวัตกรรมบางอย่างที่อาจให้ความหวังในอนาคต:
องค์ประกอบข้อมูลของการฝึกอบรมก็ท้าทายเช่นกัน กระบวนการฝึกอบรม AI ใด ๆ เกี่ยวข้องกับการทํางานกับข้อมูลจํานวนมหาศาล โดยทั่วไปโมเดลจะได้รับการฝึกอบรมเกี่ยวกับระบบจัดเก็บข้อมูลแบบรวมศูนย์และปลอดภัยพร้อมความสามารถในการปรับขนาดและประสิทธิภาพสูง สิ่งนี้ต้องการการถ่ายโอนและประมวลผลข้อมูลหลายเทราไบต์และนี่ไม่ใช่รอบครั้งเดียว ข้อมูลมักจะมีเสียงดังและมีข้อผิดพลาดดังนั้นจึงต้องทําความสะอาดและแปลงเป็นรูปแบบที่ใช้งานได้ก่อนที่จะฝึกอบรมโมเดล ขั้นตอนนี้เกี่ยวข้องกับงานซ้ํา ๆ ของการทําให้เป็นมาตรฐานการกรองและการจัดการค่าที่ขาดหายไป ทั้งหมดนี้ก่อให้เกิดความท้าทายที่ร้ายแรงในสภาพแวดล้อมแบบกระจายอํานาจ
องค์ประกอบข้อมูลของการฝึกอบรมยังเป็นการทําซ้ําซึ่งไม่เหมาะกับตัวเองได้ดีกับ Web3 มันใช้เวลา openai หลายพันซ้ําเพื่อให้บรรลุผล สถานการณ์งานพื้นฐานที่สุดสําหรับผู้เชี่ยวชาญด้านวิทยาศาสตร์ข้อมูลในทีม AI รวมถึงการกําหนดวัตถุประสงค์การเตรียมข้อมูลและการวิเคราะห์และจัดโครงสร้างข้อมูลเพื่อดึงข้อมูลเชิงลึกที่สําคัญและทําให้เหมาะสําหรับการสร้างแบบจําลอง จากนั้นโมเดลแมชชีนเลิร์นนิงได้รับการพัฒนาเพื่อแก้ปัญหาที่กําหนดไว้และประสิทธิภาพจะถูกตรวจสอบโดยใช้ชุดข้อมูลทดสอบ กระบวนการนี้ทําซ้ํา: หากโมเดลปัจจุบันไม่ทํางานตามที่คาดไว้ผู้เชี่ยวชาญจะกลับไปที่ขั้นตอนการรวบรวมข้อมูลหรือการฝึกอบรมแบบจําลองเพื่อปรับปรุงผลลัพธ์ ตอนนี้ลองนึกภาพกระบวนการนี้ในการตั้งค่าแบบกระจายอํานาจซึ่งเฟรมเวิร์กและเครื่องมือที่มีอยู่ดีที่สุดนั้นไม่สามารถใช้งานได้ง่ายใน Web3
ความกังวลอื่น ๆ เกี่ยวกับการฝึกโมเดล AI บนเชนคือมันเป็นตลาดที่น้อยน้อยน้อยเมื่อเปรียบเทียบกับการอ่านค่า ในปัจจุบันมีปริมาณการคำนวณ GPU ที่ใช้ในการฝึก AI llm อย่างมาก แต่ในอนาคต การอ่านค่าจะเป็น (อย่างมาก) กรณีการใช้ GPU ที่มากขึ้น พิจารณาว่า: มีกี่ AI llms ที่ต้องฝึกเพื่อให้โลกมีความสุข ถึงจะเทียบกับจำนวนลูกค้าที่จะใช้โมเดลเหล่านั้น
หนึ่งในสิ่งที่ก้าวหน้าไปยังทุกด้านคือ 0g.ai (ที่ได้รับการสนับสนุนจาก hack vc) ซึ่งให้บริการการจัดเก็บข้อมูลและโครงสร้างพื้นฐานสำหรับการใช้ข้อมูลบนเชื่อมต่อ. โครงสร้างพื้นฐานที่ใช้งานได้อย่างรวดเร็วและความสามารถในการเก็บข้อมูลจำนวนมากบนเชื่อมต่อช่วยให้สามารถฝึกอบรมโมเดล AI บนเชื่อมต่อได้อย่างรวดเร็วและแบบก้าวกระโดดของแบบจำลองได้ง่าย
หนึ่งในความท้าทายของคริปโต X AI คือการยืนยันความแม่นยำของการอินเฟอเรนซ์ AI โดยเนื่องจากคุณไม่สามารถเชื่อถือฝ่ายที่เป็นจุดศูนย์กลางเดียวในการดำเนินการอินเฟอเรนซ์นั้นได้เนื่องจากโอกาสในการมีโหนดที่พึ่งพาที่ผิดปกติ แต่ความท้าทายนี้ไม่มีในเว็บ 2 AI เพราะไม่มีระบบสรุปที่กระจายแบบกระจาย
หนึ่งในไอเดียที่เสนอเพื่อแก้ปัญหานี้คือการคำนวณที่ไม่จำเป็น โดยที่หลายๆ โหนดทำการทำงานในวิธีเดียวกันเพื่อให้คุณสามารถดำเนินการได้อย่างไม่มีความเชื่อถือและไม่มีจุดล้มเหลว
ปัญหาของแนวทางนี้คือเราอาศัยอยู่ในโลกที่มีการขาดแคลนชิป AI ระดับไฮเอนด์อย่างมาก มีระยะเวลารอหลายปีสําหรับชิป NVIDIA ระดับไฮเอนด์และส่งผลให้ราคาสูงขึ้น หากคุณต้อง (เพิ่มเติม) ต้องการให้การอนุมาน AI ของคุณดําเนินการซ้ําหลายครั้งในหลายโหนดตอนนี้คุณกําลังคูณต้นทุนที่แพงเหล่านั้น นี่จะเป็นการไม่เริ่มต้นสําหรับหลายโครงการ
มีการแนะนำว่า web3 ควรมีกรณีใช้งาน ai ที่เป็นเอกลักษณ์ของลูกค้า web3 ที่เฉพาะเจาะจง สามารถเป็นได้ (ตัวอย่างเช่น) โปรโตคอล web3 ที่ใช้ ai เพื่อดำเนินการคะแนนความเสี่ยงของ defi pool เป็นต้น กระเป๋าเงิน web3 แนะนำโปรโตคอลใหม่ให้คุณตามประวัติกระเป๋าเงินของคุณ หรือเกม web3 ที่ใช้ ai เพื่อควบคุมตัวละครที่ไม่ใช่ผู้เล่น (npcs)
ในขณะนี้เป็นตลาดเริ่มต้น (ในช่วงสั้นๆ) ที่ยังคงมีการค้นพบกรณีใช้งานอยู่ บางอย่างของความท้าทายรวมถึง:
ในระยะยาว เรามีทิศทางที่ดีต่อเทคโนโลยี ai ที่ใช้งานบน web3 โดยเฉพาะอย่างยิ่งเมื่อ ai agents มีการใช้งานมากขึ้น เราจินตนาการถึงอนาคตที่ผู้ใช้ web3 แต่ละคนจะมี ai agents จำนวนมากที่ช่วยเหลือพวกเขา ผู้นำหมวดหมู่แรกสำหรับนี้คือ Theoriq (รับรองโดย hack vc) ซึ่งช่วยให้สามารถสร้างสรรค์และเป็นอิสระต่อกันบนโซ่ ai ที่อยู่บนโซ่
มีเครือข่ายการคำนวณ AI แบบกระจายที่พึ่งพากับ GPU ระดับผู้บริโภคมากมาย ไม่ใช่ศูนย์ข้อมูล GPU ของผู้บริโภคเป็นเครื่องมือที่ดีสำหรับงานคำนวณ AI ระดับต่ำหรือสำหรับกรณีใช้ของผู้บริโภคที่ความล่าช้า ประสิทธิภาพและความเชื่อถือสามารถปรับได้ แต่สำหรับกรณีการใช้งานของธุรกิจที่สำคัญ (ซึ่งเป็นส่วนใหญ่ของตลาดที่สำคัญ) ลูกค้าต้องการเครือข่ายที่มีความน่าเชื่อถือสูงกว่าเครื่องคอมพิวเตอร์ที่บ้านของคน และบางครั้งอาจจำเป็นต้องใช้ GPU ระดับสูงขึ้นหากมีงานคำนวณที่ซับซ้อนมากขึ้น ศูนย์ข้อมูลจึงเหมาะสำหรับกรณีใช้งานของลูกค้าที่มีความสำคัญมากกว่านี้
โปรดทราบว่าเรามองว่า GPU ระดับผู้บริโภคมีประโยชน์สําหรับการสาธิตหรือสําหรับบุคคลและสตาร์ทอัพที่สามารถทนต่อความน่าเชื่อถือที่ต่ํากว่าได้ แต่ลูกค้าเหล่านั้นมีคุณค่าน้อยกว่าดังนั้นเราเชื่อว่า depins ที่ให้ความสําคัญกับองค์กร Web2 จะมีคุณค่ามากขึ้นในระยะยาว ด้วยเหตุนี้ โครงการ GPU Depin ที่รู้จักกันดีจึงมีการพัฒนาตั้งแต่วันแรกๆ ของฮาร์ดแวร์ระดับผู้บริโภคส่วนใหญ่ไปสู่การมี A100/H100 และความพร้อมใช้งานระดับคลัสเตอร์
ความเป็นจริง - การใช้งานที่เป็นประโยชน์และเหมาะสมของคริปโต x ปัญญาประดิษฐ์
ตอนนี้ให้เรามาพูดถึงกรณีการใช้งานที่ให้ "ประโยชน์จริง" นี้เป็น "ชนะ" จริงๆ ที่คริปโต X AI สามารถเพิ่มคุณค่าได้มาก
mckinseyประมาณว่า ai แบบสร้างสรรค์สามารถเพิ่มมูลค่ารวมสูงสุดถึง 2.6 ล้านล้านเหรียญถึง 4.4 ล้านล้านเหรียญต่อปีใน 63 กรณีในการวิเคราะห์ - ในทางเปรียบเทียบกับ gdp ทั้งหมดของสหราชอาณาจักรในปี 2021 มีมูลค่าเพียง 3.1 ล้านล้านเหรียญ นี้จะเพิ่มผลกระทบของปัญญาประดิษฐ์ทั้งหมด 15% ถึง 40% ประมาณนี้จะเพิ่มปริมาณการกระทำเกือบสองเท่าหากเรารวมผลกระทบของการฝัง ai แบบสร้างสรรค์เข้ากับซอฟต์แวร์ที่ใช้ในงานอื่นๆนอกเหนือจากกรณีการใช้งานที่ระบุ
หากคุณทําคณิตศาสตร์ตามการประมาณการข้างต้นหมายความว่าตลาดรวมสําหรับ AI (นอกเหนือจาก AI กําเนิด) อาจมีมูลค่าหลายสิบล้านล้านดอลลาร์ทั่วโลก จากการเปรียบเทียบ cryptocurrencies ทั้งหมดรวมกันรวมถึง bitcoin และเหรียญ alt ทุกเหรียญมีมูลค่าเพียงประมาณ 2.7 ล้านล้านดอลลาร์ในปัจจุบัน ดังนั้นขอให้เป็นจริงที่นี่: ลูกค้าส่วนใหญ่ที่ต้องการ AI ในระยะสั้นจะเป็นลูกค้า Web2 เนื่องจากลูกค้า Web3 ที่ต้องการ AI จริง ๆ จะเป็นส่วนเล็ก ๆ ของ $ 2.7 ล้านล้านนี้ (พิจารณาว่า BTC เป็นครึ่งหนึ่งของตลาดนี้และ BTC เองก็ไม่ต้องการ / ใช้ AI)
การใช้งาน web3 ai กำลังเริ่มต้นและยังไม่ชัดเจนเลยว่าขนาดของตลาดนั้นจะเป็นเท่าไร แต่มีสิ่งหนึ่งที่ชัดเจนตามสมมติ—มันจะเป็นเพียงส่วนน้อยของตลาด web2 ในอนาคตที่สามารถเห็นล่วงหน้า เราเชื่อว่า web3 ai ยังมีอนาคตที่ดี แต่นั้นหมายถึงการประยุกต์ใช้ web3 ai ที่มีประสิทธิภาพที่สุด ในขณะนี้คือการให้บริการลูกค้า web2
ตัวอย่างของลูกค้า web2 ที่อาจได้รับประโยชน์จาก web3 ai โดยสมมติได้แก่:
นี่เป็นลักษณะลูกค้าที่เสถียรสม่ำเสมอ เนื่องจากลูกค้าทั่วไปมักเป็นขนาดใหญ่และมีคุณค่ามาก พวกเขาไม่น่าจะล้มละลายในเร็ว ๆ นี้และพวกเขาเป็นลูกค้าภาษีมากมายสำหรับบริการ ai ผู้ให้บริการ ai web3 ที่ให้บริการลูกค้า web2 จะได้รับประโยชน์จากฐานลูกค้าที่เสถียรนี้
แต่ทำไมลูกค้า web2 ต้องการใช้ web3 stack คงเหลือของโพสต์นี้ทำให้กรณีนั้น
gpu depins aggreGate.io การใช้งานชุดคำสั่ง gpu ที่ไม่ได้ใช้งานอย่างเต็มที่ (ซึ่งมีความน่าเชื่อถือสูงสุดมาจากศูนย์ข้อมูล) และทำให้พร้อมใช้งานสำหรับการอินเฟอเรนซ์ ai (ตัวอย่างหนึ่งคือ io.net, ซึ่งเป็นบริษัทพอร์ตโฟลิโอของกองทุนที่จัดการโดย hack vc) วิธีที่ง่ายๆในการคิดเกี่ยวกับสิ่งนี้คือ "airbnb สำหรับ GPUs" (ในทางปฏิบัติการนั่นคือการบริโภคร่วมกันของทรัพยากรที่ใช้น้อย)
เหตุผลที่เราตื่นเต้นกับ GPU depins คือตามที่ระบุไว้ข้างต้นมีการขาดแคลนชิป NVIDIA และปัจจุบันมีรอบ GPU ที่สูญเปล่าซึ่งสามารถใช้สําหรับอนุมาน AI ได้ เจ้าของฮาร์ดแวร์เหล่านี้มีต้นทุนที่จมลงและไม่ได้ใช้ประโยชน์จากอุปกรณ์ของตนอย่างเต็มที่ในปัจจุบันดังนั้นจึงสามารถเสนอรอบ GPU แบบเศษส่วนเหล่านั้นได้ในราคาที่ต่ํากว่ามากเมื่อเทียบกับสถานะที่เป็นอยู่เนื่องจากเป็น "เงินที่พบได้" สําหรับเจ้าของฮาร์ดแวร์อย่างมีประสิทธิภาพ
ตัวอย่างเช่น:
โปรดทราบว่าไม่ใช่ฮาร์ดแวร์ GPU ทั้งหมดเหมาะสมสำหรับการแยกวิเคราะห์ AI หนึ่งเหตุผลที่เด่นชัดคือ GPU เก่าไม่มีจำนวนหน่วยความจำ GPU ที่เพียงพอสำหรับ LLMS แม้ว่าจะมีนวัตกรรมที่น่าสนใจบางอย่างเพื่อช่วยในเรื่องนี้เอ็กซะบิต, ตัวอย่างเช่น มีเทคโนโลยีที่โหลดนิวรอนที่ทำงานเข้าสู่หน่วยความจำ gpu และนิวรอนที่ไม่ทำงานเข้าสู่หน่วยความจำ cpu พวกเขาทำนายว่านิวรอนที่ต้องการทำงาน / ไม่ทำงาน สิ่งนี้ทำให้ gpu รุ่นต่ำสามารถประมวลผลภารกิจงาน ai ได้ แม้กระทั้งมีหน่วยความจำ gpu จำกัด สิ่งนี้ทำให้ gpu รุ่นต่ำเป็นประโยชน์มากขึ้นสำหรับการอินเฟอเรนซ์ ai
โปรดทราบว่า web3 ai depins ยังคงต้องเสริมการเสนอของพวกเขาไปในอีกครั้งเพื่อให้เหมาะสมกับองค์กรและให้บริการคลาสอง เช่น การเข้าสู่ระบบเดียวเท่านั้น การปฏิบัติตาม soc 2 (การปฏิบัติตามมาตรฐานด้านความปลอดภัยของข้อมูล) การปฏิบัติตามข้อตกลงด้านระดับการบริการ (slas) และอื่น ๆ ซึ่งจะสะท้อนการบริการภายใต้การเสนอของคลาวด์ปัจจุบันที่ลูกค้า web2 ได้เพลิดเพลินกันในปัจจุบัน
มีการพูดถึงการเซ็นเซอร์ชิปของ AI มากมาย ตัวอย่างเช่น ประเทศตุรกีได้ห้าม OpenAI ชั่วคราว (แต่ภายหลังก็กลับเส้นทางเมื่อ OpenAI ปรับปรุงความเข้ากับกฎระเบียบ) เราเชื่อว่าการเซ็นเซอร์ชิประดับประเทศขนาดนี้ไม่น่าสนใจเพราะประเทศจะต้องยอมรับ AI เพื่อคงอยู่ในการแข่งขัน
สิ่งที่น่าสนใจมากกว่าคือ openai ทำการเซ็นเซอร์ตัวเอง ตัวอย่างเช่น openai จะไม่จัดการเนื้อหา nsfw และ openai ก็จะไม่ทำนายการเลือกตั้งประธานาธิบดีครั้งต่อไป พวกเราคิดว่ามีตลาดที่น่าสนใจและใหญ่ของกรณีการใช้งานของ ai ที่ openai จะไม่สนใจเพราะเหตุผลทางการเมือง
การเปิดรหัสซอร์สเป็นสิ่งที่ดีสำหรับสิ่งนี้ เนื่องจาก repo ของ github ไม่ได้เป็นผู้ถือหุ้นหรือคณะกรรมการ ตัวอย่างที่ดีของสิ่งนี้คือVenice.aiซึ่งสัญญาว่าจะรักษาความเป็นส่วนตัวของคุณและดำเนินการอย่างไม่มีการตรวจสอบ สิ่งสำคัญคือการเปิดโอน ซึ่งให้พลังในสิ่งนี้ สิ่งที่ web3 ai สามารถทำให้เกิดการเป็นระดับสูงในสิ่งนี้คือการทำให้โมเดลซอฟต์แวร์เปิดโอน (oss) ทำงานที่คลัสเตอร์ gpu ที่มีความต้องการที่ต่ำเพื่อทำให้เกิดการอ่านความหมายนั้น สำหรับเหตุผลเหล่านี้เราเชื่อว่า oss + web3 คือความสอดคล้องที่เหมาะสมที่สุดในการเปิดทางสำหรับ ai ที่ไม่มีการตรวจสอบ
หลาย ๆ องค์กรใหญ่มีความกังวลเกี่ยวกับความเป็นส่วนตัวของข้อมูลภายในองค์กรของตน สำหรับลูกค้าเหล่านี้ มันอาจเป็นเรื่องยากมากที่จะเชื่อมั่นในบริษัทภาครัฐที่กลายเป็นฝ่ายที่สาม อย่าง OpenAI ด้วยข้อมูลนั้น
ด้วย web3 มันอาจดู (บนพื้นผิว) ดูเหมือนกว่านั้นยิ่งกว่าสำหรับองค์กรเหล่านี้ เนื่องจากข้อมูลภายในของพวกเขาอยู่บนเครือข่ายที่ถูกตกแต่งอย่างทะลุแบบ อย่างไรก็ดี มีนวัตกรรมบางอย่างในเทคโนโลยีเพื่อเพิ่มความเป็นส่วนตัวสำหรับ ai:
เทคโนโลยีเหล่านี้กำลังพัฒนาอยู่อย่างต่อเนื่อง และประสิทธิภาพก็ยังดีขึ้นต่อไป ผ่าน zero knowledge (zk) และ fhe asics ที่กำลังจะเกิดขึ้น แต่วัตถุประสงค์ระยะยาวคือการป้องกันข้อมูลขององค์กรเมื่อปรับปรุงโมเดล ด้วยการเกิดขึ้นของโปรโตคอลเหล่านี้ web3 อาจกลายเป็นที่น่าสนใจมากขึ้นสำหรับการคำนวณ ai ที่รักษาความเป็นส่วนตัว
oss ได้ลดส่วนแบ่งตลาดของซอฟต์แวร์เอาไว้เสมอๆ ในสิบกว่าปีที่ผ่านมา เรามอง llm ว่ามันเป็นแค่รูปแบบของซอฟต์แวร์เอาไว้ที่ทันสมัยที่พร้อมสำหรับการทำลาย oss ตัวอย่างที่น่าสังเยิงบางอย่างของผู้ท้าทายรวมถึงลาม่า, RWKV, และ Mistral.ai. รายการนี้จะเติบโตขึ้นอย่างแน่นอนเมื่อเวลาผ่านไป (รายการที่ครอบคลุมมากขึ้นสามารถใช้ได้ที่ Openrouter.ai). โดยการใช้เทคโนโลยี web3 ai (ที่มีพลังงานจากโมเดล OSS) คุณสามารถใช้ประโยชน์จากนวัตกรรมใหม่เหล่านี้ได้
เราเชื่อว่าเมื่อเวลาผ่านไป กลุ่มงานพัฒนาโลกแบบโอเพนซอร์ส ที่รวมพลังกับสิ่งส่งเสริมทางด้านคริปโต สามารถขับเคลื่อนนวัตกรรมอย่างรวดเร็วในโมเดลโอเพนซอร์ส รวมทั้งตัวแทนและกรอบการสร้างขึ้นบนโมเดลเหล่านั้น ตัวอย่างของโพรโทคอลตัวแทนปัญญาประดิษฐ์Theoriq. theoriq ใช้โมเดล OSS เพื่อสร้างเว็บ AI ที่สามารถประกอบตัวกันได้เพื่อสร้างตัวแทน AI ระดับสูงที่สามารถประกอบกันเพื่อสร้างโซลูชัน AI ระดับสูงขึ้นได้
เหตุผลที่เรามั่นใจที่นี่เนื่องจากอดีต: ซอฟต์แวร์ที่พัฒนาโดยนักพัฒนามักจะถูกแทนที่ด้วย oss ตลอดเวลา ไมโครซอฟท์เคยเป็นบริษัทซอฟต์แวร์ที่เป็นกรรมสิทธิ์และตอนนี้พวกเขาเป็นบริษัท #1 ที่มีส่วนร่วมใน github และมีเหตุผลสำหรับสิ่งนั้น หากคุณมองดูว่า databricks, postgressql, mongodb และอื่นๆ ได้รบกวนฐานข้อมูลที่เป็นกรรมสิทธิ์ นั่นคือตัวอย่างของอุตสาหกรรมที่ถูกคว่ำคู่โดย oss ดังนั้นนี่เป็นตัวอย่างที่มีน้ำหนักมาก
อย่างไรก็ตาม มันมาพร้อมกับข้อจำกัดหนึ่ง หนึ่งในสิ่งที่ยุ่งยากกับ oss llms คือ OpenAI ได้เริ่มสร้างข้อกำหนดใบอนุญาตการใช้ข้อมูลเสียงจากองค์กร เช่น Reddit และ The New York Times หากเทรนด์นี้ยังคงต่ออยู่ อาจทำให้ oss llms ยากขึ้นในการแข่งขันเนื่องจากอุปสรรคการเงินที่เกี่ยวข้องกับการได้รับข้อมูล อาจเป็นไปได้ว่า Nvidia จะเพิ่มเติมเรื่องการคำนวณที่ลับเป็นตัวช่วยในการแบ่งปันข้อมูลที่ปลอดภัย เวลาจะบอกว่าสิ่งนี้จะเกิดขึ้นอย่างไร
หนึ่งในความท้าทายกับการใช้โอนข้อมูล AI ของ web3 คือการยืนยันความถูกต้อง มีโอกาสที่มีผู้ตรวจสอบที่จะโกงผลลัพธ์เพื่อรับค่าธรรมเนียม ดังนั้นการยืนยันความถูกต้องของการให้ข้อมูลเป็นมาตรการที่สำคัญ โปรดทราบว่าการโกงนี้ยังไม่เกิดขึ้น โดยที่การให้ข้อมูล AI ยังอยู่ในช่วงเริ่มต้น แต่มันเป็นสิ่งที่หลีกเลี่ยงไม่ได้นอกจากการดำเนินมาตรการให้ไม่มีสิทธิ์ได้รับประโยชน์จากพฤติกรรมดังกล่าว
วิธีที่มาตรฐานของ web3 คือการให้ผู้ตรวจสอบหลายคนทำซ้ำการดำเนินการเดียวกันและเปรียบเทียบผลลัพธ์ อุปสรรคที่โดดเด่นของวิธีนี้คือ การสรุปผลของ AI เป็นราคาแพงเนื่องจากขาดแคลนชิป NVIDIA รุ่นสูง โดยที่ web3 สามารถให้การสรุปราคาถูกกว่าได้ผ่านการใช้ GPU depins ที่ไม่ได้ใช้เต็มประสิทธิภาพ การคำนวณซ้ำซ้อนจะทำให้คุณสมบัติค่าตอบแทนของ web3 ลดลงอย่างรุนแรง
วิธีที่มีความสมหวังมากขึ้นคือการดำเนินการพิสูจน์ zk สำหรับการคำนวณ ai inference นอกเส้น ในกรณีนี้ พิสูจน์ zk สรุปสร้างขึ้นเพื่อให้สามารถตรวจสอบเพื่อกำหนดว่าโมเดลถูกฝึกอบรมอย่างถูกต้องหรือว่าการคำนวณถูกดำเนินการอย่างถูกต้อง (ที่รู้จักกันในนามของ zkml) ตัวอย่างเช่น Modulus labsและZKonduit. ประสิทธิภาพของการแก้ไขปัญหาเหล่านี้ยังคงเป็นเรื่องใหม่ เนื่องจากการดำเนินการ zk มีความต้องการคำนวณที่สูงมาก อย่างไรก็ตามเราคาดหวังว่าสิ่งนี้จะดีขึ้นเมื่อ zk hardware asics ถูกเปิดตัวในอนาคตใกล้ๆ
ที่มีแนวโน้มมากขึ้นคือแนวคิดของวิธีการอนุมาน AI ที่ใช้การสุ่มตัวอย่างที่ค่อนข้าง "มองโลกในแง่ดี" ในแบบจําลองนี้คุณจะตรวจสอบเพียงเปอร์เซ็นต์เล็ก ๆ ของผลลัพธ์ที่สร้างโดยผู้ตรวจสอบความถูกต้อง แต่ตั้งค่าต้นทุนทางเศรษฐกิจที่ลดลงให้สูงพอที่หากถูกจับได้มันจะสร้างความไม่พอใจทางเศรษฐกิจที่แข็งแกร่งสําหรับผู้ตรวจสอบความถูกต้องที่จะโกง ด้วยวิธีนี้ คุณกําลังประหยัดการประมวลผลซ้ําซ้อน (เช่น ดู ไฮเปอร์โบลิก’s การสุ่มเอกสารพิสูจน์.
แนวคิดที่มีศักย์สัมฤทธิ์อีกอย่างคือการใช้วิธีลายน้ำและลายนิ้วมือ เช่นวิธีที่เสนอโดยหนึ่งในเครือข่ายเบเกิล. นี้คล้ายกับกลไกของ Amazon Alexa สำหรับการประกันคุณภาพของรูปแบบ AI บนอุปกรณ์สำหรับอุปกรณ์ล้านเครื่องของพวกเขา
โอกาสต่อไปที่ Web3 นํามาสู่ AI คือการทําให้ต้นทุนเป็นประชาธิปไตย จนถึงตอนนี้เราได้พูดคุยเกี่ยวกับการประหยัดค่าใช้จ่าย GPU ผ่าน depins แต่ Web3 ยังเสนอโอกาสในการประหยัดอัตรากําไรของบริการ Web2 AI แบบรวมศูนย์ (เช่น OpenAI ซึ่งทํารายได้มากกว่า $ 1b / ปี ณ เวลาที่เขียนนี้) การประหยัดต้นทุนเหล่านี้มาจากข้อเท็จจริงที่ว่ามีการใช้โมเดล OSS แทนที่จะเป็นโมเดลที่เป็นกรรมสิทธิ์เพื่อประหยัดอีกชั้นหนึ่งเนื่องจากผู้สร้างโมเดลไม่ได้พยายามทํากําไร
โมเดล OSS หลายรุ่นจะยังคงฟรีอย่างสมบูรณ์ ซึ่งทำให้มีความเป็นไปได้ที่ดีที่สุดสำหรับลูกค้า แต่ก็อาจจะมีโมเดล OSS บางรุ่นที่พยายามใช้วิธีการกำไรเหล่านี้ด้วย พิจารณาว่าเพียง 4% ของโมเดลทั้งหมดบน Hugging Face ถูกฝึกฝนโดยบริษัทที่มีงบประมาณเพื่อช่วยสนับสนุนโมเดล (ดูที่นี่). 96% ของโมเดลที่เหลือนั้นถูกฝึกโดยชุมชน กลุ่มนี้ - 96% ของ hugging face - มีค่าใช้จ่ายพื้นฐานที่สำคัญ (รวมถึงค่าคำนวณและค่าข้อมูล) ดังนั้นโมเดลเหล่านั้นจะต้องมีรายได้ในอย่างไรก็ตาม
มีหลายข้อเสนอสำหรับการทำรายได้จากโมเดล OSS อยู่ หนึ่งในสิ่งที่น่าสนใจที่สุดคือแนวคิดของ "Initial Model Offering" (IMO) ที่คุณเปลี่ยนโมเดลเป็นโทเค็นเอง คงเก็บโทเค็นบางส่วนไว้สำหรับทีม และเปลี่ยนรายได้อนาคตจากโมเดลนั้นให้กับผู้ถือโทเค็น แม้ว่าจะมีอุปสรรคทางกฎหมายและกฎระเบียบบางอย่างอยู่นั่นเอง
OSS รุ่นอื่นๆ จะพยายามสร้างรายได้จากการใช้งาน โปรดทราบว่าหากสิ่งนี้บรรลุผลโมเดล OSS อาจเริ่มคล้ายกับคู่ที่สร้างผลกําไร Web2 มากขึ้น แต่ตามความเป็นจริงแล้วตลาดจะถูกแบ่งเป็นสองส่วนโดยบางรุ่นยังคงฟรีอย่างสมบูรณ์
หนึ่งในความท้าทายที่ใหญ่ที่สุดของ AI คือการหาข้อมูลที่เหมาะสมเพื่อฝึกโมเดลของคุณ เราได้กล่าวถึงก่อนหน้านี้ว่าการฝึก AI แบบกระจายมีความท้าทายของมัน แต่มีอะไรเกี่ยวกับการใช้เครือข่ายแบบกระจายเพื่อหาข้อมูล (ซึ่งสามารถนำมาใช้ฝึกโมเดลที่อื่นได้ แม้แต่ในที่เว็บเวนิวเบนด์2ที่เป็นแบบดั้งเดิม)
นี่คือสิ่งที่สตาร์ตอัพเช่น หญ้า กําลังทําอยู่ GRASS เป็นเครือข่ายแบบกระจายอํานาจของ "เครื่องขูดข้อมูล" บุคคลที่มีส่วนร่วมในพลังการประมวลผลที่ไม่ได้ใช้งานของเครื่องในการจัดหาข้อมูลเพื่อแจ้งการฝึกอบรมโมเดล AI สมมุติฐาน, ในระดับ, การจัดหาข้อมูลนี้สามารถเหนือกว่าความพยายามภายในของ บริษัท ใด บริษัท หนึ่งในการจัดเก็บข้อมูลเนื่องจากพลังที่แท้จริงของเครือข่ายขนาดใหญ่ของโหนดที่จูงใจ. ซึ่งรวมถึงการจัดหาข้อมูลเพิ่มเติมไม่เพียง แต่จัดหาข้อมูลนั้นบ่อยขึ้นเพื่อให้ข้อมูลมีความเกี่ยวข้องและเป็นปัจจุบันมากขึ้น นอกจากนี้ยังแทบจะเป็นไปไม่ได้เลยที่จะหยุดกองทัพเครื่องขูดข้อมูลแบบกระจายอํานาจเนื่องจากพวกมันกระจัดกระจายโดยเนื้อแท้และไม่ได้อยู่ภายในที่อยู่ IP เดียว พวกเขายังมีเครือข่ายของมนุษย์ที่สามารถทําความสะอาดและทําให้ข้อมูลเป็นปกติเพื่อให้มีประโยชน์หลังจากถูกขูด
เมื่อคุณมีข้อมูลแล้ว คุณยังต้องมีสถานที่ในการเก็บข้อมูลบนเชื่อมต่อเชน และยังต้องมี llms ที่สร้างขึ้นด้วยข้อมูลนั้นด้วย0g.AIเป็นผู้นำในประเภทนี้ตั้งแต่ต้น นั้นเป็นแนวคิดที่จัดเต็มสำหรับการเก็บรักษาข้อมูลบนเว็บ 3 ที่ถูกปรับแต่งให้เหมาะสมสำหรับ AI ซึ่งถูกจัดเต็มด้วยความสามารถในการประมวลผลสูง ๆ และมีราคาที่ถูกกว่า AWS (และยังเป็นชัยชนะทางเศรษฐกิจอีกด้วยสำหรับ AI บนเว็บ 3) ในเวลาเดียวกันยังให้บริการเป็นโครงสร้างพื้นฐานสำหรับการใช้งานข้อมูลบนชั้นที่ 2, AI และอื่น ๆ
โปรดทราบว่าบทบาทของข้อมูลอาจเปลี่ยนแปลงในอนาคตของ web3 ai ในปัจจุบันสถานะปัจจุบันสำหรับ llms คือการฝึกอบรมโมเดลด้วยข้อมูลและปรับปรุงโดยตลอดเวลาด้วยข้อมูลเพิ่มเติม อย่างไรก็ตามโมเดลเหล่านั้นจะเป็นเล็กน้อยเสมอเนื่องจากข้อมูลบนอินเทอร์เน็ตกำลังเปลี่ยนแปลงในเวลาจริง ดังนั้นการตอบสนองจาก llm inference จะไม่แม่นยำเล็กน้อย
อนาคตของที่โลกอาจเดินทางไปคือรูปแบบใหม่ - ข้อมูล "realtime" คอนเซปคือเมื่อ llm ถูกถามเกี่ยวกับคำถามการอุปนัย llm สามารถใช้การฉีดข้อมูลเข้าไปใน llm ได้ โดยที่ข้อมูลนั้นถูกเก็บรวบรวมในโลกจริงจากอินเทอร์เน็ต ในทางนั้น llm ใช้ข้อมูลที่อัพเดทล่าสุดที่สุดได้ กราสกำลังทำการวิจัยเรื่องนี้ด้วย
สรุป
เราหวังว่าสิ่งนี้จะเป็นการวิเคราะห์ที่มีประโยชน์สำหรับคุณเมื่อคิดถึงคำสัญญา vs ความเป็นจริงของ web3 ai นี่เพียงจุดเริ่มต้นสำหรับการสนทนา และภูมิทัศน์กำลังเปลี่ยนไปอย่างรวดเร็ว ดังนั้น โปรดรู้สึกอิสระที่จะมาเข้าร่วมและแสดงมุมมองของคุณด้วย เพราะเราอยากเห็นการเรียนรู้และก่อสร้างร่วมกัน
การยอมรับ
ขอบคุณมากเป็นพิเศษแก่อัลเบิร์ต คาสเตลลานา แจสเปอร์ จาง วัสสิลิส ทีเซียโอคัส บีดแฮน รอย รีโซ วินเซนท์ ไวเซอร์ ชาแชงค์ ยาดาฟ อาลี ฮูเซน นุกรี่ บาชารูลี อีแมด โมสแทค ดาวิด มินาร์ช ทอมมี่ ชอญเนสซี่ ไมเคิล ไฮนริช เคคัค วอง มาร์ค ไท้นส์ท์ ฟิลลิป โบเนลโล เจฟฟ์ อะมิโก อีจาซ อะฮะมาดีน อีแวน ฟง และ จับเจ้าหน้าที่ วาง เพื่อคำแนะนำและความร่วมมือในโพสต์นี้
ข้อมูลในที่นี้มีวัตถุประสงค์เพื่อเป็นข้อมูลทั่วไปเท่านั้นและไม่ได้มีวัตถุประสงค์เพื่อเป็นคําแนะนําในการลงทุนและไม่ควรใช้ในการประเมินการตัดสินใจลงทุนใด ๆ ข้อมูลดังกล่าวไม่ควรเชื่อถือสําหรับการบัญชีกฎหมายภาษีธุรกิจการลงทุนหรือคําแนะนําอื่น ๆ ที่เกี่ยวข้อง คุณควรปรึกษาที่ปรึกษาของคุณเองรวมถึงที่ปรึกษาของคุณเองสําหรับการบัญชีกฎหมายภาษีธุรกิจการลงทุนหรือคําแนะนําอื่น ๆ ที่เกี่ยวข้องรวมถึงเกี่ยวกับสิ่งที่กล่าวถึงในที่นี้
โพสต์นี้สะท้อนความคิดเห็นในปัจจุบันของผู้เขียนและไม่ได้ทําในนามของ Hack VC หรือ บริษัท ในเครือรวมถึงกองทุนใด ๆ ที่จัดการโดย Hack VC และไม่จําเป็นต้องสะท้อนความคิดเห็นของ Hack VC, บริษัท ในเครือรวมถึง บริษัท ในเครือพันธมิตรทั่วไปหรือบุคคลอื่น ๆ ที่เกี่ยวข้องกับ Hack VC ข้อมูลบางอย่างที่มีอยู่ในที่นี้ได้รับจากแหล่งที่เผยแพร่และ / หรือจัดทําโดยบุคคลที่สามและในบางกรณียังไม่ได้รับการปรับปรุงจนถึงวันที่นี้ แม้ว่าแหล่งข้อมูลดังกล่าวจะเชื่อว่าเชื่อถือได้ แต่ทั้ง Hack VC บริษัทในเครือรวมถึง บริษัท ในเครือของพันธมิตรทั่วไปหรือบุคคลอื่น ๆ ที่เกี่ยวข้องกับ Hack VC กําลังรับรองความถูกต้องหรือความสมบูรณ์ของพวกเขาและไม่ควรพึ่งพาเช่นนี้หรือเป็นพื้นฐานสําหรับการบัญชีกฎหมายภาษีธุรกิจการลงทุนหรือการตัดสินใจอื่น ๆ ข้อมูลในที่นี้ไม่ได้อ้างว่าสมบูรณ์และอาจมีการเปลี่ยนแปลงและ Hack VC ไม่มีภาระผูกพันใด ๆ ในการปรับปรุงข้อมูลดังกล่าวหรือแจ้งเตือนใด ๆ หากข้อมูลดังกล่าวไม่ถูกต้อง
ผลการดําเนินงานในอดีตไม่จําเป็นต้องบ่งบอกถึงผลลัพธ์ในอนาคต ข้อความคาดการณ์ล่วงหน้าใด ๆ ที่ทําในที่นี้ขึ้นอยู่กับสมมติฐานและการวิเคราะห์บางอย่างที่ทําโดยผู้เขียนในแง่ของประสบการณ์และการรับรู้ของเขาเกี่ยวกับแนวโน้มทางประวัติศาสตร์สภาพปัจจุบันและการพัฒนาในอนาคตที่คาดหวังรวมถึงปัจจัยอื่น ๆ ที่เขาเชื่อว่าเหมาะสมภายใต้สถานการณ์ ข้อความดังกล่าวไม่ได้รับประกันผลการดําเนินงานในอนาคตและอยู่ภายใต้ความเสี่ยงความไม่แน่นอนและสมมติฐานบางอย่างที่ยากต่อการคาดการณ์
บทความนี้ถูกคัดลอกมาจาก[ฮัก วีซี], ชื่อเรื่องต้นฉบับ “ai x คริปโต - คำสัญญาและความเป็นจริง”, ลิขสิทธิ์เป็นของผู้เขียนต้นฉบับ [ed roman, หุ้นส่วนผู้จัดการที่ hack vc], หากคุณมีเหตุสมควรต่อการตีพิมพ์ โปรดติดต่อทีม Gate learnทีมจะดำเนินการตามขั้นตอนที่เกี่ยวข้องโดยเร็วที่สุด
คำปฏิเสธ: มุมมองและความคิดเห็นที่แสดงออกในบทความนี้แทนเพียงความคิดเห็นส่วนบุคคลของผู้เขียนเท่านั้น และไม่เป็นการให้คำแนะนำทางการลงทุนใด ๆ
ภาษาอื่นๆ ของบทความถูกแปลโดยทีม Gate.io learn ซึ่งไม่ได้กล่าวถึงในGate.io, บทความที่ถูกแปลอาจไม่สามารถทำสำเนา แจกจ่าย หรือลอกเลียน
ai เป็นหนึ่งในหมวดหมู่ที่ฮอตเท่าที่สุดและมีความมั่นใจสูงที่สุดในตลาดคริปโตเมื่อเร็วๆ นี้
💡การฝึกอบรม AI แบบกระจาย
💡gpu depins
💡โมเดล AI ที่ไม่ได้รับการเเก้
เป็นการฝึกฝนหรือแค่คำพูดเพื่อสร้างชื่อเสียงเท่านั้นหรือเปล่า? 🤔
ที่ hack vc เรากำลังตัดเสียงรบกวนเพื่อแยกความสัญญาจากความเป็นจริง
โพสต์นี้วิเคราะห์แยกส่วนไอเดียคริปโต x ai ที่ดีที่สุด มาพูดคุยเรื่องความท้าทายและโอกาสที่แท้จริง
ไอเดียที่มีความสัญจร แต่พบกับความท้าทายในความเป็นจริง
ก่อนอื่นเลย ให้เริ่มต้นด้วย “คำสัญญาของ web3 ai”— ความคิดที่มีความฮือฮามากมาย แต่ความเป็นจริงอาจจะไม่ได้งดงามเท่านั้น
ปัญหาของการฝึก AI บนโซ่บล็อกคือการฝึกต้องการการสื่อสารและการประสานงานที่ความเร็วสูงระหว่าง GPUs เนื่องจากเครือข่ายประสาทที่ต้องการการส่งคืนเมื่อถูกฝึก. NVIDIA มีนวัตกรรมสองรายการสำหรับสิ่งนี้NVLinkและอินฟินิแบนด์). เทคโนโลยีเหล่านี้ทำให้การสื่อสารของ GPU เป็นอย่างมาก แต่เป็นเทคโนโลยีในเครือข่ายภายในที่สามารถใช้ได้ภายในคลัสเตอร์ GPU เท่านั้นที่ตั้งอยู่ในศูนย์ข้อมูลเดียวกัน (ความเร็ว 50+ กิกะบิต)
หากคุณนำเครือข่ายที่ไม่มีตัวกลางเข้ามาในภาพ คุณจะเห็นว่าความเร็วลดลงจำนวนมากเนื่องจากความล่าช้าของเครือข่ายและแบนด์วิดท์ที่เพิ่มขึ้น ซึ่งไม่เหมาะสำหรับการใช้งานการฝึกอย่างปัจจุบันเมื่อเทียบกับประสิทธิภาพที่คุณได้รับจากเทคโนโลยีการเชื่อมต่อความเร็วสูงของ Nvidia ภายในศูนย์ข้อมูล
โปรดทราบว่ามีการนวัตกรรมบางอย่างที่อาจให้ความหวังในอนาคต:
องค์ประกอบข้อมูลของการฝึกอบรมก็ท้าทายเช่นกัน กระบวนการฝึกอบรม AI ใด ๆ เกี่ยวข้องกับการทํางานกับข้อมูลจํานวนมหาศาล โดยทั่วไปโมเดลจะได้รับการฝึกอบรมเกี่ยวกับระบบจัดเก็บข้อมูลแบบรวมศูนย์และปลอดภัยพร้อมความสามารถในการปรับขนาดและประสิทธิภาพสูง สิ่งนี้ต้องการการถ่ายโอนและประมวลผลข้อมูลหลายเทราไบต์และนี่ไม่ใช่รอบครั้งเดียว ข้อมูลมักจะมีเสียงดังและมีข้อผิดพลาดดังนั้นจึงต้องทําความสะอาดและแปลงเป็นรูปแบบที่ใช้งานได้ก่อนที่จะฝึกอบรมโมเดล ขั้นตอนนี้เกี่ยวข้องกับงานซ้ํา ๆ ของการทําให้เป็นมาตรฐานการกรองและการจัดการค่าที่ขาดหายไป ทั้งหมดนี้ก่อให้เกิดความท้าทายที่ร้ายแรงในสภาพแวดล้อมแบบกระจายอํานาจ
องค์ประกอบข้อมูลของการฝึกอบรมยังเป็นการทําซ้ําซึ่งไม่เหมาะกับตัวเองได้ดีกับ Web3 มันใช้เวลา openai หลายพันซ้ําเพื่อให้บรรลุผล สถานการณ์งานพื้นฐานที่สุดสําหรับผู้เชี่ยวชาญด้านวิทยาศาสตร์ข้อมูลในทีม AI รวมถึงการกําหนดวัตถุประสงค์การเตรียมข้อมูลและการวิเคราะห์และจัดโครงสร้างข้อมูลเพื่อดึงข้อมูลเชิงลึกที่สําคัญและทําให้เหมาะสําหรับการสร้างแบบจําลอง จากนั้นโมเดลแมชชีนเลิร์นนิงได้รับการพัฒนาเพื่อแก้ปัญหาที่กําหนดไว้และประสิทธิภาพจะถูกตรวจสอบโดยใช้ชุดข้อมูลทดสอบ กระบวนการนี้ทําซ้ํา: หากโมเดลปัจจุบันไม่ทํางานตามที่คาดไว้ผู้เชี่ยวชาญจะกลับไปที่ขั้นตอนการรวบรวมข้อมูลหรือการฝึกอบรมแบบจําลองเพื่อปรับปรุงผลลัพธ์ ตอนนี้ลองนึกภาพกระบวนการนี้ในการตั้งค่าแบบกระจายอํานาจซึ่งเฟรมเวิร์กและเครื่องมือที่มีอยู่ดีที่สุดนั้นไม่สามารถใช้งานได้ง่ายใน Web3
ความกังวลอื่น ๆ เกี่ยวกับการฝึกโมเดล AI บนเชนคือมันเป็นตลาดที่น้อยน้อยน้อยเมื่อเปรียบเทียบกับการอ่านค่า ในปัจจุบันมีปริมาณการคำนวณ GPU ที่ใช้ในการฝึก AI llm อย่างมาก แต่ในอนาคต การอ่านค่าจะเป็น (อย่างมาก) กรณีการใช้ GPU ที่มากขึ้น พิจารณาว่า: มีกี่ AI llms ที่ต้องฝึกเพื่อให้โลกมีความสุข ถึงจะเทียบกับจำนวนลูกค้าที่จะใช้โมเดลเหล่านั้น
หนึ่งในสิ่งที่ก้าวหน้าไปยังทุกด้านคือ 0g.ai (ที่ได้รับการสนับสนุนจาก hack vc) ซึ่งให้บริการการจัดเก็บข้อมูลและโครงสร้างพื้นฐานสำหรับการใช้ข้อมูลบนเชื่อมต่อ. โครงสร้างพื้นฐานที่ใช้งานได้อย่างรวดเร็วและความสามารถในการเก็บข้อมูลจำนวนมากบนเชื่อมต่อช่วยให้สามารถฝึกอบรมโมเดล AI บนเชื่อมต่อได้อย่างรวดเร็วและแบบก้าวกระโดดของแบบจำลองได้ง่าย
หนึ่งในความท้าทายของคริปโต X AI คือการยืนยันความแม่นยำของการอินเฟอเรนซ์ AI โดยเนื่องจากคุณไม่สามารถเชื่อถือฝ่ายที่เป็นจุดศูนย์กลางเดียวในการดำเนินการอินเฟอเรนซ์นั้นได้เนื่องจากโอกาสในการมีโหนดที่พึ่งพาที่ผิดปกติ แต่ความท้าทายนี้ไม่มีในเว็บ 2 AI เพราะไม่มีระบบสรุปที่กระจายแบบกระจาย
หนึ่งในไอเดียที่เสนอเพื่อแก้ปัญหานี้คือการคำนวณที่ไม่จำเป็น โดยที่หลายๆ โหนดทำการทำงานในวิธีเดียวกันเพื่อให้คุณสามารถดำเนินการได้อย่างไม่มีความเชื่อถือและไม่มีจุดล้มเหลว
ปัญหาของแนวทางนี้คือเราอาศัยอยู่ในโลกที่มีการขาดแคลนชิป AI ระดับไฮเอนด์อย่างมาก มีระยะเวลารอหลายปีสําหรับชิป NVIDIA ระดับไฮเอนด์และส่งผลให้ราคาสูงขึ้น หากคุณต้อง (เพิ่มเติม) ต้องการให้การอนุมาน AI ของคุณดําเนินการซ้ําหลายครั้งในหลายโหนดตอนนี้คุณกําลังคูณต้นทุนที่แพงเหล่านั้น นี่จะเป็นการไม่เริ่มต้นสําหรับหลายโครงการ
มีการแนะนำว่า web3 ควรมีกรณีใช้งาน ai ที่เป็นเอกลักษณ์ของลูกค้า web3 ที่เฉพาะเจาะจง สามารถเป็นได้ (ตัวอย่างเช่น) โปรโตคอล web3 ที่ใช้ ai เพื่อดำเนินการคะแนนความเสี่ยงของ defi pool เป็นต้น กระเป๋าเงิน web3 แนะนำโปรโตคอลใหม่ให้คุณตามประวัติกระเป๋าเงินของคุณ หรือเกม web3 ที่ใช้ ai เพื่อควบคุมตัวละครที่ไม่ใช่ผู้เล่น (npcs)
ในขณะนี้เป็นตลาดเริ่มต้น (ในช่วงสั้นๆ) ที่ยังคงมีการค้นพบกรณีใช้งานอยู่ บางอย่างของความท้าทายรวมถึง:
ในระยะยาว เรามีทิศทางที่ดีต่อเทคโนโลยี ai ที่ใช้งานบน web3 โดยเฉพาะอย่างยิ่งเมื่อ ai agents มีการใช้งานมากขึ้น เราจินตนาการถึงอนาคตที่ผู้ใช้ web3 แต่ละคนจะมี ai agents จำนวนมากที่ช่วยเหลือพวกเขา ผู้นำหมวดหมู่แรกสำหรับนี้คือ Theoriq (รับรองโดย hack vc) ซึ่งช่วยให้สามารถสร้างสรรค์และเป็นอิสระต่อกันบนโซ่ ai ที่อยู่บนโซ่
มีเครือข่ายการคำนวณ AI แบบกระจายที่พึ่งพากับ GPU ระดับผู้บริโภคมากมาย ไม่ใช่ศูนย์ข้อมูล GPU ของผู้บริโภคเป็นเครื่องมือที่ดีสำหรับงานคำนวณ AI ระดับต่ำหรือสำหรับกรณีใช้ของผู้บริโภคที่ความล่าช้า ประสิทธิภาพและความเชื่อถือสามารถปรับได้ แต่สำหรับกรณีการใช้งานของธุรกิจที่สำคัญ (ซึ่งเป็นส่วนใหญ่ของตลาดที่สำคัญ) ลูกค้าต้องการเครือข่ายที่มีความน่าเชื่อถือสูงกว่าเครื่องคอมพิวเตอร์ที่บ้านของคน และบางครั้งอาจจำเป็นต้องใช้ GPU ระดับสูงขึ้นหากมีงานคำนวณที่ซับซ้อนมากขึ้น ศูนย์ข้อมูลจึงเหมาะสำหรับกรณีใช้งานของลูกค้าที่มีความสำคัญมากกว่านี้
โปรดทราบว่าเรามองว่า GPU ระดับผู้บริโภคมีประโยชน์สําหรับการสาธิตหรือสําหรับบุคคลและสตาร์ทอัพที่สามารถทนต่อความน่าเชื่อถือที่ต่ํากว่าได้ แต่ลูกค้าเหล่านั้นมีคุณค่าน้อยกว่าดังนั้นเราเชื่อว่า depins ที่ให้ความสําคัญกับองค์กร Web2 จะมีคุณค่ามากขึ้นในระยะยาว ด้วยเหตุนี้ โครงการ GPU Depin ที่รู้จักกันดีจึงมีการพัฒนาตั้งแต่วันแรกๆ ของฮาร์ดแวร์ระดับผู้บริโภคส่วนใหญ่ไปสู่การมี A100/H100 และความพร้อมใช้งานระดับคลัสเตอร์
ความเป็นจริง - การใช้งานที่เป็นประโยชน์และเหมาะสมของคริปโต x ปัญญาประดิษฐ์
ตอนนี้ให้เรามาพูดถึงกรณีการใช้งานที่ให้ "ประโยชน์จริง" นี้เป็น "ชนะ" จริงๆ ที่คริปโต X AI สามารถเพิ่มคุณค่าได้มาก
mckinseyประมาณว่า ai แบบสร้างสรรค์สามารถเพิ่มมูลค่ารวมสูงสุดถึง 2.6 ล้านล้านเหรียญถึง 4.4 ล้านล้านเหรียญต่อปีใน 63 กรณีในการวิเคราะห์ - ในทางเปรียบเทียบกับ gdp ทั้งหมดของสหราชอาณาจักรในปี 2021 มีมูลค่าเพียง 3.1 ล้านล้านเหรียญ นี้จะเพิ่มผลกระทบของปัญญาประดิษฐ์ทั้งหมด 15% ถึง 40% ประมาณนี้จะเพิ่มปริมาณการกระทำเกือบสองเท่าหากเรารวมผลกระทบของการฝัง ai แบบสร้างสรรค์เข้ากับซอฟต์แวร์ที่ใช้ในงานอื่นๆนอกเหนือจากกรณีการใช้งานที่ระบุ
หากคุณทําคณิตศาสตร์ตามการประมาณการข้างต้นหมายความว่าตลาดรวมสําหรับ AI (นอกเหนือจาก AI กําเนิด) อาจมีมูลค่าหลายสิบล้านล้านดอลลาร์ทั่วโลก จากการเปรียบเทียบ cryptocurrencies ทั้งหมดรวมกันรวมถึง bitcoin และเหรียญ alt ทุกเหรียญมีมูลค่าเพียงประมาณ 2.7 ล้านล้านดอลลาร์ในปัจจุบัน ดังนั้นขอให้เป็นจริงที่นี่: ลูกค้าส่วนใหญ่ที่ต้องการ AI ในระยะสั้นจะเป็นลูกค้า Web2 เนื่องจากลูกค้า Web3 ที่ต้องการ AI จริง ๆ จะเป็นส่วนเล็ก ๆ ของ $ 2.7 ล้านล้านนี้ (พิจารณาว่า BTC เป็นครึ่งหนึ่งของตลาดนี้และ BTC เองก็ไม่ต้องการ / ใช้ AI)
การใช้งาน web3 ai กำลังเริ่มต้นและยังไม่ชัดเจนเลยว่าขนาดของตลาดนั้นจะเป็นเท่าไร แต่มีสิ่งหนึ่งที่ชัดเจนตามสมมติ—มันจะเป็นเพียงส่วนน้อยของตลาด web2 ในอนาคตที่สามารถเห็นล่วงหน้า เราเชื่อว่า web3 ai ยังมีอนาคตที่ดี แต่นั้นหมายถึงการประยุกต์ใช้ web3 ai ที่มีประสิทธิภาพที่สุด ในขณะนี้คือการให้บริการลูกค้า web2
ตัวอย่างของลูกค้า web2 ที่อาจได้รับประโยชน์จาก web3 ai โดยสมมติได้แก่:
นี่เป็นลักษณะลูกค้าที่เสถียรสม่ำเสมอ เนื่องจากลูกค้าทั่วไปมักเป็นขนาดใหญ่และมีคุณค่ามาก พวกเขาไม่น่าจะล้มละลายในเร็ว ๆ นี้และพวกเขาเป็นลูกค้าภาษีมากมายสำหรับบริการ ai ผู้ให้บริการ ai web3 ที่ให้บริการลูกค้า web2 จะได้รับประโยชน์จากฐานลูกค้าที่เสถียรนี้
แต่ทำไมลูกค้า web2 ต้องการใช้ web3 stack คงเหลือของโพสต์นี้ทำให้กรณีนั้น
gpu depins aggreGate.io การใช้งานชุดคำสั่ง gpu ที่ไม่ได้ใช้งานอย่างเต็มที่ (ซึ่งมีความน่าเชื่อถือสูงสุดมาจากศูนย์ข้อมูล) และทำให้พร้อมใช้งานสำหรับการอินเฟอเรนซ์ ai (ตัวอย่างหนึ่งคือ io.net, ซึ่งเป็นบริษัทพอร์ตโฟลิโอของกองทุนที่จัดการโดย hack vc) วิธีที่ง่ายๆในการคิดเกี่ยวกับสิ่งนี้คือ "airbnb สำหรับ GPUs" (ในทางปฏิบัติการนั่นคือการบริโภคร่วมกันของทรัพยากรที่ใช้น้อย)
เหตุผลที่เราตื่นเต้นกับ GPU depins คือตามที่ระบุไว้ข้างต้นมีการขาดแคลนชิป NVIDIA และปัจจุบันมีรอบ GPU ที่สูญเปล่าซึ่งสามารถใช้สําหรับอนุมาน AI ได้ เจ้าของฮาร์ดแวร์เหล่านี้มีต้นทุนที่จมลงและไม่ได้ใช้ประโยชน์จากอุปกรณ์ของตนอย่างเต็มที่ในปัจจุบันดังนั้นจึงสามารถเสนอรอบ GPU แบบเศษส่วนเหล่านั้นได้ในราคาที่ต่ํากว่ามากเมื่อเทียบกับสถานะที่เป็นอยู่เนื่องจากเป็น "เงินที่พบได้" สําหรับเจ้าของฮาร์ดแวร์อย่างมีประสิทธิภาพ
ตัวอย่างเช่น:
โปรดทราบว่าไม่ใช่ฮาร์ดแวร์ GPU ทั้งหมดเหมาะสมสำหรับการแยกวิเคราะห์ AI หนึ่งเหตุผลที่เด่นชัดคือ GPU เก่าไม่มีจำนวนหน่วยความจำ GPU ที่เพียงพอสำหรับ LLMS แม้ว่าจะมีนวัตกรรมที่น่าสนใจบางอย่างเพื่อช่วยในเรื่องนี้เอ็กซะบิต, ตัวอย่างเช่น มีเทคโนโลยีที่โหลดนิวรอนที่ทำงานเข้าสู่หน่วยความจำ gpu และนิวรอนที่ไม่ทำงานเข้าสู่หน่วยความจำ cpu พวกเขาทำนายว่านิวรอนที่ต้องการทำงาน / ไม่ทำงาน สิ่งนี้ทำให้ gpu รุ่นต่ำสามารถประมวลผลภารกิจงาน ai ได้ แม้กระทั้งมีหน่วยความจำ gpu จำกัด สิ่งนี้ทำให้ gpu รุ่นต่ำเป็นประโยชน์มากขึ้นสำหรับการอินเฟอเรนซ์ ai
โปรดทราบว่า web3 ai depins ยังคงต้องเสริมการเสนอของพวกเขาไปในอีกครั้งเพื่อให้เหมาะสมกับองค์กรและให้บริการคลาสอง เช่น การเข้าสู่ระบบเดียวเท่านั้น การปฏิบัติตาม soc 2 (การปฏิบัติตามมาตรฐานด้านความปลอดภัยของข้อมูล) การปฏิบัติตามข้อตกลงด้านระดับการบริการ (slas) และอื่น ๆ ซึ่งจะสะท้อนการบริการภายใต้การเสนอของคลาวด์ปัจจุบันที่ลูกค้า web2 ได้เพลิดเพลินกันในปัจจุบัน
มีการพูดถึงการเซ็นเซอร์ชิปของ AI มากมาย ตัวอย่างเช่น ประเทศตุรกีได้ห้าม OpenAI ชั่วคราว (แต่ภายหลังก็กลับเส้นทางเมื่อ OpenAI ปรับปรุงความเข้ากับกฎระเบียบ) เราเชื่อว่าการเซ็นเซอร์ชิประดับประเทศขนาดนี้ไม่น่าสนใจเพราะประเทศจะต้องยอมรับ AI เพื่อคงอยู่ในการแข่งขัน
สิ่งที่น่าสนใจมากกว่าคือ openai ทำการเซ็นเซอร์ตัวเอง ตัวอย่างเช่น openai จะไม่จัดการเนื้อหา nsfw และ openai ก็จะไม่ทำนายการเลือกตั้งประธานาธิบดีครั้งต่อไป พวกเราคิดว่ามีตลาดที่น่าสนใจและใหญ่ของกรณีการใช้งานของ ai ที่ openai จะไม่สนใจเพราะเหตุผลทางการเมือง
การเปิดรหัสซอร์สเป็นสิ่งที่ดีสำหรับสิ่งนี้ เนื่องจาก repo ของ github ไม่ได้เป็นผู้ถือหุ้นหรือคณะกรรมการ ตัวอย่างที่ดีของสิ่งนี้คือVenice.aiซึ่งสัญญาว่าจะรักษาความเป็นส่วนตัวของคุณและดำเนินการอย่างไม่มีการตรวจสอบ สิ่งสำคัญคือการเปิดโอน ซึ่งให้พลังในสิ่งนี้ สิ่งที่ web3 ai สามารถทำให้เกิดการเป็นระดับสูงในสิ่งนี้คือการทำให้โมเดลซอฟต์แวร์เปิดโอน (oss) ทำงานที่คลัสเตอร์ gpu ที่มีความต้องการที่ต่ำเพื่อทำให้เกิดการอ่านความหมายนั้น สำหรับเหตุผลเหล่านี้เราเชื่อว่า oss + web3 คือความสอดคล้องที่เหมาะสมที่สุดในการเปิดทางสำหรับ ai ที่ไม่มีการตรวจสอบ
หลาย ๆ องค์กรใหญ่มีความกังวลเกี่ยวกับความเป็นส่วนตัวของข้อมูลภายในองค์กรของตน สำหรับลูกค้าเหล่านี้ มันอาจเป็นเรื่องยากมากที่จะเชื่อมั่นในบริษัทภาครัฐที่กลายเป็นฝ่ายที่สาม อย่าง OpenAI ด้วยข้อมูลนั้น
ด้วย web3 มันอาจดู (บนพื้นผิว) ดูเหมือนกว่านั้นยิ่งกว่าสำหรับองค์กรเหล่านี้ เนื่องจากข้อมูลภายในของพวกเขาอยู่บนเครือข่ายที่ถูกตกแต่งอย่างทะลุแบบ อย่างไรก็ดี มีนวัตกรรมบางอย่างในเทคโนโลยีเพื่อเพิ่มความเป็นส่วนตัวสำหรับ ai:
เทคโนโลยีเหล่านี้กำลังพัฒนาอยู่อย่างต่อเนื่อง และประสิทธิภาพก็ยังดีขึ้นต่อไป ผ่าน zero knowledge (zk) และ fhe asics ที่กำลังจะเกิดขึ้น แต่วัตถุประสงค์ระยะยาวคือการป้องกันข้อมูลขององค์กรเมื่อปรับปรุงโมเดล ด้วยการเกิดขึ้นของโปรโตคอลเหล่านี้ web3 อาจกลายเป็นที่น่าสนใจมากขึ้นสำหรับการคำนวณ ai ที่รักษาความเป็นส่วนตัว
oss ได้ลดส่วนแบ่งตลาดของซอฟต์แวร์เอาไว้เสมอๆ ในสิบกว่าปีที่ผ่านมา เรามอง llm ว่ามันเป็นแค่รูปแบบของซอฟต์แวร์เอาไว้ที่ทันสมัยที่พร้อมสำหรับการทำลาย oss ตัวอย่างที่น่าสังเยิงบางอย่างของผู้ท้าทายรวมถึงลาม่า, RWKV, และ Mistral.ai. รายการนี้จะเติบโตขึ้นอย่างแน่นอนเมื่อเวลาผ่านไป (รายการที่ครอบคลุมมากขึ้นสามารถใช้ได้ที่ Openrouter.ai). โดยการใช้เทคโนโลยี web3 ai (ที่มีพลังงานจากโมเดล OSS) คุณสามารถใช้ประโยชน์จากนวัตกรรมใหม่เหล่านี้ได้
เราเชื่อว่าเมื่อเวลาผ่านไป กลุ่มงานพัฒนาโลกแบบโอเพนซอร์ส ที่รวมพลังกับสิ่งส่งเสริมทางด้านคริปโต สามารถขับเคลื่อนนวัตกรรมอย่างรวดเร็วในโมเดลโอเพนซอร์ส รวมทั้งตัวแทนและกรอบการสร้างขึ้นบนโมเดลเหล่านั้น ตัวอย่างของโพรโทคอลตัวแทนปัญญาประดิษฐ์Theoriq. theoriq ใช้โมเดล OSS เพื่อสร้างเว็บ AI ที่สามารถประกอบตัวกันได้เพื่อสร้างตัวแทน AI ระดับสูงที่สามารถประกอบกันเพื่อสร้างโซลูชัน AI ระดับสูงขึ้นได้
เหตุผลที่เรามั่นใจที่นี่เนื่องจากอดีต: ซอฟต์แวร์ที่พัฒนาโดยนักพัฒนามักจะถูกแทนที่ด้วย oss ตลอดเวลา ไมโครซอฟท์เคยเป็นบริษัทซอฟต์แวร์ที่เป็นกรรมสิทธิ์และตอนนี้พวกเขาเป็นบริษัท #1 ที่มีส่วนร่วมใน github และมีเหตุผลสำหรับสิ่งนั้น หากคุณมองดูว่า databricks, postgressql, mongodb และอื่นๆ ได้รบกวนฐานข้อมูลที่เป็นกรรมสิทธิ์ นั่นคือตัวอย่างของอุตสาหกรรมที่ถูกคว่ำคู่โดย oss ดังนั้นนี่เป็นตัวอย่างที่มีน้ำหนักมาก
อย่างไรก็ตาม มันมาพร้อมกับข้อจำกัดหนึ่ง หนึ่งในสิ่งที่ยุ่งยากกับ oss llms คือ OpenAI ได้เริ่มสร้างข้อกำหนดใบอนุญาตการใช้ข้อมูลเสียงจากองค์กร เช่น Reddit และ The New York Times หากเทรนด์นี้ยังคงต่ออยู่ อาจทำให้ oss llms ยากขึ้นในการแข่งขันเนื่องจากอุปสรรคการเงินที่เกี่ยวข้องกับการได้รับข้อมูล อาจเป็นไปได้ว่า Nvidia จะเพิ่มเติมเรื่องการคำนวณที่ลับเป็นตัวช่วยในการแบ่งปันข้อมูลที่ปลอดภัย เวลาจะบอกว่าสิ่งนี้จะเกิดขึ้นอย่างไร
หนึ่งในความท้าทายกับการใช้โอนข้อมูล AI ของ web3 คือการยืนยันความถูกต้อง มีโอกาสที่มีผู้ตรวจสอบที่จะโกงผลลัพธ์เพื่อรับค่าธรรมเนียม ดังนั้นการยืนยันความถูกต้องของการให้ข้อมูลเป็นมาตรการที่สำคัญ โปรดทราบว่าการโกงนี้ยังไม่เกิดขึ้น โดยที่การให้ข้อมูล AI ยังอยู่ในช่วงเริ่มต้น แต่มันเป็นสิ่งที่หลีกเลี่ยงไม่ได้นอกจากการดำเนินมาตรการให้ไม่มีสิทธิ์ได้รับประโยชน์จากพฤติกรรมดังกล่าว
วิธีที่มาตรฐานของ web3 คือการให้ผู้ตรวจสอบหลายคนทำซ้ำการดำเนินการเดียวกันและเปรียบเทียบผลลัพธ์ อุปสรรคที่โดดเด่นของวิธีนี้คือ การสรุปผลของ AI เป็นราคาแพงเนื่องจากขาดแคลนชิป NVIDIA รุ่นสูง โดยที่ web3 สามารถให้การสรุปราคาถูกกว่าได้ผ่านการใช้ GPU depins ที่ไม่ได้ใช้เต็มประสิทธิภาพ การคำนวณซ้ำซ้อนจะทำให้คุณสมบัติค่าตอบแทนของ web3 ลดลงอย่างรุนแรง
วิธีที่มีความสมหวังมากขึ้นคือการดำเนินการพิสูจน์ zk สำหรับการคำนวณ ai inference นอกเส้น ในกรณีนี้ พิสูจน์ zk สรุปสร้างขึ้นเพื่อให้สามารถตรวจสอบเพื่อกำหนดว่าโมเดลถูกฝึกอบรมอย่างถูกต้องหรือว่าการคำนวณถูกดำเนินการอย่างถูกต้อง (ที่รู้จักกันในนามของ zkml) ตัวอย่างเช่น Modulus labsและZKonduit. ประสิทธิภาพของการแก้ไขปัญหาเหล่านี้ยังคงเป็นเรื่องใหม่ เนื่องจากการดำเนินการ zk มีความต้องการคำนวณที่สูงมาก อย่างไรก็ตามเราคาดหวังว่าสิ่งนี้จะดีขึ้นเมื่อ zk hardware asics ถูกเปิดตัวในอนาคตใกล้ๆ
ที่มีแนวโน้มมากขึ้นคือแนวคิดของวิธีการอนุมาน AI ที่ใช้การสุ่มตัวอย่างที่ค่อนข้าง "มองโลกในแง่ดี" ในแบบจําลองนี้คุณจะตรวจสอบเพียงเปอร์เซ็นต์เล็ก ๆ ของผลลัพธ์ที่สร้างโดยผู้ตรวจสอบความถูกต้อง แต่ตั้งค่าต้นทุนทางเศรษฐกิจที่ลดลงให้สูงพอที่หากถูกจับได้มันจะสร้างความไม่พอใจทางเศรษฐกิจที่แข็งแกร่งสําหรับผู้ตรวจสอบความถูกต้องที่จะโกง ด้วยวิธีนี้ คุณกําลังประหยัดการประมวลผลซ้ําซ้อน (เช่น ดู ไฮเปอร์โบลิก’s การสุ่มเอกสารพิสูจน์.
แนวคิดที่มีศักย์สัมฤทธิ์อีกอย่างคือการใช้วิธีลายน้ำและลายนิ้วมือ เช่นวิธีที่เสนอโดยหนึ่งในเครือข่ายเบเกิล. นี้คล้ายกับกลไกของ Amazon Alexa สำหรับการประกันคุณภาพของรูปแบบ AI บนอุปกรณ์สำหรับอุปกรณ์ล้านเครื่องของพวกเขา
โอกาสต่อไปที่ Web3 นํามาสู่ AI คือการทําให้ต้นทุนเป็นประชาธิปไตย จนถึงตอนนี้เราได้พูดคุยเกี่ยวกับการประหยัดค่าใช้จ่าย GPU ผ่าน depins แต่ Web3 ยังเสนอโอกาสในการประหยัดอัตรากําไรของบริการ Web2 AI แบบรวมศูนย์ (เช่น OpenAI ซึ่งทํารายได้มากกว่า $ 1b / ปี ณ เวลาที่เขียนนี้) การประหยัดต้นทุนเหล่านี้มาจากข้อเท็จจริงที่ว่ามีการใช้โมเดล OSS แทนที่จะเป็นโมเดลที่เป็นกรรมสิทธิ์เพื่อประหยัดอีกชั้นหนึ่งเนื่องจากผู้สร้างโมเดลไม่ได้พยายามทํากําไร
โมเดล OSS หลายรุ่นจะยังคงฟรีอย่างสมบูรณ์ ซึ่งทำให้มีความเป็นไปได้ที่ดีที่สุดสำหรับลูกค้า แต่ก็อาจจะมีโมเดล OSS บางรุ่นที่พยายามใช้วิธีการกำไรเหล่านี้ด้วย พิจารณาว่าเพียง 4% ของโมเดลทั้งหมดบน Hugging Face ถูกฝึกฝนโดยบริษัทที่มีงบประมาณเพื่อช่วยสนับสนุนโมเดล (ดูที่นี่). 96% ของโมเดลที่เหลือนั้นถูกฝึกโดยชุมชน กลุ่มนี้ - 96% ของ hugging face - มีค่าใช้จ่ายพื้นฐานที่สำคัญ (รวมถึงค่าคำนวณและค่าข้อมูล) ดังนั้นโมเดลเหล่านั้นจะต้องมีรายได้ในอย่างไรก็ตาม
มีหลายข้อเสนอสำหรับการทำรายได้จากโมเดล OSS อยู่ หนึ่งในสิ่งที่น่าสนใจที่สุดคือแนวคิดของ "Initial Model Offering" (IMO) ที่คุณเปลี่ยนโมเดลเป็นโทเค็นเอง คงเก็บโทเค็นบางส่วนไว้สำหรับทีม และเปลี่ยนรายได้อนาคตจากโมเดลนั้นให้กับผู้ถือโทเค็น แม้ว่าจะมีอุปสรรคทางกฎหมายและกฎระเบียบบางอย่างอยู่นั่นเอง
OSS รุ่นอื่นๆ จะพยายามสร้างรายได้จากการใช้งาน โปรดทราบว่าหากสิ่งนี้บรรลุผลโมเดล OSS อาจเริ่มคล้ายกับคู่ที่สร้างผลกําไร Web2 มากขึ้น แต่ตามความเป็นจริงแล้วตลาดจะถูกแบ่งเป็นสองส่วนโดยบางรุ่นยังคงฟรีอย่างสมบูรณ์
หนึ่งในความท้าทายที่ใหญ่ที่สุดของ AI คือการหาข้อมูลที่เหมาะสมเพื่อฝึกโมเดลของคุณ เราได้กล่าวถึงก่อนหน้านี้ว่าการฝึก AI แบบกระจายมีความท้าทายของมัน แต่มีอะไรเกี่ยวกับการใช้เครือข่ายแบบกระจายเพื่อหาข้อมูล (ซึ่งสามารถนำมาใช้ฝึกโมเดลที่อื่นได้ แม้แต่ในที่เว็บเวนิวเบนด์2ที่เป็นแบบดั้งเดิม)
นี่คือสิ่งที่สตาร์ตอัพเช่น หญ้า กําลังทําอยู่ GRASS เป็นเครือข่ายแบบกระจายอํานาจของ "เครื่องขูดข้อมูล" บุคคลที่มีส่วนร่วมในพลังการประมวลผลที่ไม่ได้ใช้งานของเครื่องในการจัดหาข้อมูลเพื่อแจ้งการฝึกอบรมโมเดล AI สมมุติฐาน, ในระดับ, การจัดหาข้อมูลนี้สามารถเหนือกว่าความพยายามภายในของ บริษัท ใด บริษัท หนึ่งในการจัดเก็บข้อมูลเนื่องจากพลังที่แท้จริงของเครือข่ายขนาดใหญ่ของโหนดที่จูงใจ. ซึ่งรวมถึงการจัดหาข้อมูลเพิ่มเติมไม่เพียง แต่จัดหาข้อมูลนั้นบ่อยขึ้นเพื่อให้ข้อมูลมีความเกี่ยวข้องและเป็นปัจจุบันมากขึ้น นอกจากนี้ยังแทบจะเป็นไปไม่ได้เลยที่จะหยุดกองทัพเครื่องขูดข้อมูลแบบกระจายอํานาจเนื่องจากพวกมันกระจัดกระจายโดยเนื้อแท้และไม่ได้อยู่ภายในที่อยู่ IP เดียว พวกเขายังมีเครือข่ายของมนุษย์ที่สามารถทําความสะอาดและทําให้ข้อมูลเป็นปกติเพื่อให้มีประโยชน์หลังจากถูกขูด
เมื่อคุณมีข้อมูลแล้ว คุณยังต้องมีสถานที่ในการเก็บข้อมูลบนเชื่อมต่อเชน และยังต้องมี llms ที่สร้างขึ้นด้วยข้อมูลนั้นด้วย0g.AIเป็นผู้นำในประเภทนี้ตั้งแต่ต้น นั้นเป็นแนวคิดที่จัดเต็มสำหรับการเก็บรักษาข้อมูลบนเว็บ 3 ที่ถูกปรับแต่งให้เหมาะสมสำหรับ AI ซึ่งถูกจัดเต็มด้วยความสามารถในการประมวลผลสูง ๆ และมีราคาที่ถูกกว่า AWS (และยังเป็นชัยชนะทางเศรษฐกิจอีกด้วยสำหรับ AI บนเว็บ 3) ในเวลาเดียวกันยังให้บริการเป็นโครงสร้างพื้นฐานสำหรับการใช้งานข้อมูลบนชั้นที่ 2, AI และอื่น ๆ
โปรดทราบว่าบทบาทของข้อมูลอาจเปลี่ยนแปลงในอนาคตของ web3 ai ในปัจจุบันสถานะปัจจุบันสำหรับ llms คือการฝึกอบรมโมเดลด้วยข้อมูลและปรับปรุงโดยตลอดเวลาด้วยข้อมูลเพิ่มเติม อย่างไรก็ตามโมเดลเหล่านั้นจะเป็นเล็กน้อยเสมอเนื่องจากข้อมูลบนอินเทอร์เน็ตกำลังเปลี่ยนแปลงในเวลาจริง ดังนั้นการตอบสนองจาก llm inference จะไม่แม่นยำเล็กน้อย
อนาคตของที่โลกอาจเดินทางไปคือรูปแบบใหม่ - ข้อมูล "realtime" คอนเซปคือเมื่อ llm ถูกถามเกี่ยวกับคำถามการอุปนัย llm สามารถใช้การฉีดข้อมูลเข้าไปใน llm ได้ โดยที่ข้อมูลนั้นถูกเก็บรวบรวมในโลกจริงจากอินเทอร์เน็ต ในทางนั้น llm ใช้ข้อมูลที่อัพเดทล่าสุดที่สุดได้ กราสกำลังทำการวิจัยเรื่องนี้ด้วย
สรุป
เราหวังว่าสิ่งนี้จะเป็นการวิเคราะห์ที่มีประโยชน์สำหรับคุณเมื่อคิดถึงคำสัญญา vs ความเป็นจริงของ web3 ai นี่เพียงจุดเริ่มต้นสำหรับการสนทนา และภูมิทัศน์กำลังเปลี่ยนไปอย่างรวดเร็ว ดังนั้น โปรดรู้สึกอิสระที่จะมาเข้าร่วมและแสดงมุมมองของคุณด้วย เพราะเราอยากเห็นการเรียนรู้และก่อสร้างร่วมกัน
การยอมรับ
ขอบคุณมากเป็นพิเศษแก่อัลเบิร์ต คาสเตลลานา แจสเปอร์ จาง วัสสิลิส ทีเซียโอคัส บีดแฮน รอย รีโซ วินเซนท์ ไวเซอร์ ชาแชงค์ ยาดาฟ อาลี ฮูเซน นุกรี่ บาชารูลี อีแมด โมสแทค ดาวิด มินาร์ช ทอมมี่ ชอญเนสซี่ ไมเคิล ไฮนริช เคคัค วอง มาร์ค ไท้นส์ท์ ฟิลลิป โบเนลโล เจฟฟ์ อะมิโก อีจาซ อะฮะมาดีน อีแวน ฟง และ จับเจ้าหน้าที่ วาง เพื่อคำแนะนำและความร่วมมือในโพสต์นี้
ข้อมูลในที่นี้มีวัตถุประสงค์เพื่อเป็นข้อมูลทั่วไปเท่านั้นและไม่ได้มีวัตถุประสงค์เพื่อเป็นคําแนะนําในการลงทุนและไม่ควรใช้ในการประเมินการตัดสินใจลงทุนใด ๆ ข้อมูลดังกล่าวไม่ควรเชื่อถือสําหรับการบัญชีกฎหมายภาษีธุรกิจการลงทุนหรือคําแนะนําอื่น ๆ ที่เกี่ยวข้อง คุณควรปรึกษาที่ปรึกษาของคุณเองรวมถึงที่ปรึกษาของคุณเองสําหรับการบัญชีกฎหมายภาษีธุรกิจการลงทุนหรือคําแนะนําอื่น ๆ ที่เกี่ยวข้องรวมถึงเกี่ยวกับสิ่งที่กล่าวถึงในที่นี้
โพสต์นี้สะท้อนความคิดเห็นในปัจจุบันของผู้เขียนและไม่ได้ทําในนามของ Hack VC หรือ บริษัท ในเครือรวมถึงกองทุนใด ๆ ที่จัดการโดย Hack VC และไม่จําเป็นต้องสะท้อนความคิดเห็นของ Hack VC, บริษัท ในเครือรวมถึง บริษัท ในเครือพันธมิตรทั่วไปหรือบุคคลอื่น ๆ ที่เกี่ยวข้องกับ Hack VC ข้อมูลบางอย่างที่มีอยู่ในที่นี้ได้รับจากแหล่งที่เผยแพร่และ / หรือจัดทําโดยบุคคลที่สามและในบางกรณียังไม่ได้รับการปรับปรุงจนถึงวันที่นี้ แม้ว่าแหล่งข้อมูลดังกล่าวจะเชื่อว่าเชื่อถือได้ แต่ทั้ง Hack VC บริษัทในเครือรวมถึง บริษัท ในเครือของพันธมิตรทั่วไปหรือบุคคลอื่น ๆ ที่เกี่ยวข้องกับ Hack VC กําลังรับรองความถูกต้องหรือความสมบูรณ์ของพวกเขาและไม่ควรพึ่งพาเช่นนี้หรือเป็นพื้นฐานสําหรับการบัญชีกฎหมายภาษีธุรกิจการลงทุนหรือการตัดสินใจอื่น ๆ ข้อมูลในที่นี้ไม่ได้อ้างว่าสมบูรณ์และอาจมีการเปลี่ยนแปลงและ Hack VC ไม่มีภาระผูกพันใด ๆ ในการปรับปรุงข้อมูลดังกล่าวหรือแจ้งเตือนใด ๆ หากข้อมูลดังกล่าวไม่ถูกต้อง
ผลการดําเนินงานในอดีตไม่จําเป็นต้องบ่งบอกถึงผลลัพธ์ในอนาคต ข้อความคาดการณ์ล่วงหน้าใด ๆ ที่ทําในที่นี้ขึ้นอยู่กับสมมติฐานและการวิเคราะห์บางอย่างที่ทําโดยผู้เขียนในแง่ของประสบการณ์และการรับรู้ของเขาเกี่ยวกับแนวโน้มทางประวัติศาสตร์สภาพปัจจุบันและการพัฒนาในอนาคตที่คาดหวังรวมถึงปัจจัยอื่น ๆ ที่เขาเชื่อว่าเหมาะสมภายใต้สถานการณ์ ข้อความดังกล่าวไม่ได้รับประกันผลการดําเนินงานในอนาคตและอยู่ภายใต้ความเสี่ยงความไม่แน่นอนและสมมติฐานบางอย่างที่ยากต่อการคาดการณ์
บทความนี้ถูกคัดลอกมาจาก[ฮัก วีซี], ชื่อเรื่องต้นฉบับ “ai x คริปโต - คำสัญญาและความเป็นจริง”, ลิขสิทธิ์เป็นของผู้เขียนต้นฉบับ [ed roman, หุ้นส่วนผู้จัดการที่ hack vc], หากคุณมีเหตุสมควรต่อการตีพิมพ์ โปรดติดต่อทีม Gate learnทีมจะดำเนินการตามขั้นตอนที่เกี่ยวข้องโดยเร็วที่สุด
คำปฏิเสธ: มุมมองและความคิดเห็นที่แสดงออกในบทความนี้แทนเพียงความคิดเห็นส่วนบุคคลของผู้เขียนเท่านั้น และไม่เป็นการให้คำแนะนำทางการลงทุนใด ๆ
ภาษาอื่นๆ ของบทความถูกแปลโดยทีม Gate.io learn ซึ่งไม่ได้กล่าวถึงในGate.io, บทความที่ถูกแปลอาจไม่สามารถทำสำเนา แจกจ่าย หรือลอกเลียน