AI x Tiền điện tử - Lời hứa và thực tế

Trung cấp7/13/2024, 3:21:16 PM
AI+Crypto là một trong những lĩnh vực biên giới đáng chú ý nhất trong thị trường tiền điện tử gần đây. Điều này bao gồm việc đào tạo trí tuệ nhân tạo phi tập trung, GPU DePINs, và mô hình trí tuệ nhân tạo chống kiểm duyệt. Vấn đề chính của việc đào tạo trí tuệ nhân tạo nằm ở việc cần có giao tiếp và phối hợp tốc độ cao giữa các GPU, vì mạng nơ-ron đòi hỏi backpropagation trong quá trình đào tạo. Việc giới thiệu một mạng lưới phi tập trung có thể làm chậm quá trình đáng kể do độ trễ và băng thông mạng tăng lên. Bài viết này cũng tổ chức các giải pháp cho những thách thức hiện tại và cung cấp ví dụ về cách tích hợp tiền điện tử và trí tuệ nhân tạo có thể thêm giá trị đáng kể.

AI là một trong những lĩnh vực nóng và hứa hẹn nhất trong thị trường tiền điện tử gần đây.

💡đào tạo trí tuệ nhân tạo phi tập trung

💡gpu depins

💡mô hình trí tuệ nhân tạo không bị kiểm duyệt

đây có phải là những bước đột phá hay chỉ là những từ ngữ thịnh hành? 🤔

tại hack vc, chúng tôi đang cắt ngang qua tiếng ồn để phân biệt lời hứa và hiện thực.

bài viết này phân tích những ý tưởng tiền điện tử x trí tuệ nhân tạo hàng đầu. Hãy thảo luận về những thách thức và cơ hội thực sự.

ý tưởng có tiềm năng ban đầu, nhưng đã gặp phải thách thức trong thực tế.

Đầu tiên, chúng ta hãy bắt đầu với “lời hứa của trí tuệ nhân tạo web3”—những ý tưởng mà có khá nhiều sự hào nhoáng, nhưng thực tế có thể không được như một vẻ sáng.

ý tưởng #1: đào tạo trí tuệ nhân tạo phi tập trung

Vấn đề với việc đào tạo trí tuệ nhân tạo trên chuỗi là việc đào tạo yêu cầu giao tiếp và phối hợp tốc độ cao giữa các GPU, do mạng thần kinh yêu cầu quá trình lan truyền ngược khi được đào tạo. Nvidia có hai đổi mới cho điều này (NVLinkInfiniBand). Các công nghệ này thực hiện việc truyền thông của GPU một cách siêu nhanh, nhưng chúng chỉ là các công nghệ cục bộ chỉ áp dụng trong các cụm GPU nằm trong cùng một trung tâm dữ liệu (tốc độ 50+ gigabit).

nếu bạn giới thiệu mạng phân quyền vào bức tranh, bạn đột nhiên chậm hơn hàng độ về thứ tự do độ trễ và băng thông mạng thêm vào. Điều đó là một trở ngại không thể chấp nhận được đối với các trường hợp sử dụng đào tạo trí tuệ nhân tạo so với sản lượng bạn nhận được từ tính năng kết nối tốc độ cao của nvidia trong trung tâm dữ liệu.

lưu ý rằng đã có một số đổi mới ở đây có thể mang lại hy vọng cho tương lai:

  • huấn luyện phân tán trên infiniband đang diễn ra ở quy mô đáng kể, vì chính nvidia đang hỗ trợ huấn luyện phân tán, không phải cục bộ qua infiniband thông qua thư viện liên lạc tập thể của nvidia. Tuy nhiên, nó vẫn còn non trẻ, vì vậy các chỉ số áp dụng vẫn chưa xác định. xem ở đây. rào cản đó là luật vật lý trên khoảng cách vẫn áp dụng, vì vậy việc đào tạo cục bộ qua infiniband vẫn nhanh đáng kể.
  • có một số nghiên cứu mới được công bố về việc đào tạo phân tán dựa vào ít đồng bộ hóa giao tiếp hơn có thể làm cho việc đào tạo phân tán trở nên thực tế hơn trong tương lai. xem đâyở đây.
  • Phân mảnh thông minh và lập lịch đào tạo mô hình có thể giúp cải thiện hiệu suất. Tương tự, kiến ​​trúc mô hình mới có thể được thiết kế độc đáo cho cơ sở hạ tầng phân tán trong tương lai (gensyn đang nghiên cứu trong những lĩnh vực này).

phần dữ liệu của quá trình đào tạo cũng rất thách thức. bất kỳ quá trình đào tạo trí tuệ nhân tạo nào cũng liên quan đến làm việc với lượng dữ liệu lớn. Thông thường, các mô hình được đào tạo trên các hệ thống lưu trữ dữ liệu tập trung và an toàn có khả năng mở rộng cao và hiệu suất cao. Điều này đòi hỏi chuyển và xử lý terabytes dữ liệu, và điều này không phải là một chu kỳ một lần. Dữ liệu thông thường có nhiễu và chứa lỗi, nên nó phải được làm sạch và chuyển đổi thành định dạng có thể sử dụng trước khi đào tạo mô hình. Giai đoạn này liên quan đến các nhiệm vụ lặp đi lặp lại của chuẩn hóa, lọc và xử lý các giá trị thiếu. Điều này đều đặn đặt ra những thách thức nghiêm trọng trong môi trường phi tập trung.

Thành phần dữ liệu của quá trình đào tạo cũng là quá trình lặp đi lặp lại, điều này không phù hợp với web3. OpenAI mất hàng ngàn lần lặp để đạt được kết quả của mình. Kịch bản nhiệm vụ cơ bản nhất cho một chuyên gia khoa học dữ liệu trong một nhóm trí tuệ nhân tạo bao gồm xác định mục tiêu, chuẩn bị dữ liệu, phân tích và cấu trúc hóa dữ liệu để trích xuất thông tin quan trọng và làm cho nó phù hợp để mô hình hóa. Sau đó, một mô hình học máy được phát triển để giải quyết vấn đề được xác định, và hiệu suất của nó được xác minh bằng cách sử dụng bộ dữ liệu kiểm tra. Quá trình này là quá trình lặp lại: nếu mô hình hiện tại không hoạt động như mong đợi, chuyên gia sẽ quay trở lại giai đoạn thu thập dữ liệu hoặc đào tạo mô hình để cải thiện kết quả. Bây giờ, hãy tưởng tượng quá trình này trong một môi trường phi tập trung, nơi các khung và công cụ tốt nhất hiện có không dễ dàng có sẵn trong web3.

Một vấn đề khác khi huấn luyện các mô hình AI trên chuỗi là thị trường ít hấp dẫn hơn so với inference. Hiện tại, có rất nhiều tính toán GPU được sử dụng cho việc huấn luyện AI LLM. Tuy nhiên, trong tương lai, inference sẽ trở thành (nhiều hơn) trường hợp sử dụng phổ biến hơn của các GPU. Hãy suy nghĩ: cần bao nhiêu AI LLM cần được huấn luyện để thế giới hạnh phúc, so với số lượng khách hàng sẽ sử dụng những mô hình đó?

Một giải pháp đang tiến triển trên mọi mặt là 0g.ai (được hỗ trợ bởi hack vc) cung cấp cả lưu trữ dữ liệu trên chuỗi và cơ sở hạ tầng sẵn có dữ liệu. Kiến trúc siêu nhanh của họ và khả năng lưu trữ lượng dữ liệu lớn trên chuỗi cho phép việc huấn luyện mô hình trí tuệ nhân tạo trên chuỗi nhanh chóng, lặp đi lặp lại bất kỳ loại nào.

ý tưởng #2: sử dụng tính toán quá dư thừa của suy luận trí tuệ nhân tạo cho sự nhất quán

Một trong những thách thức với tiền điện tử x trí tuệ nhân tạo là xác minh độ chính xác của suy luận trí tuệ nhân tạo, vì bạn không thể tin tưởng một bên tập trung duy nhất để thực hiện suy luận đó do tiềm năng cho các nút không đúng cách. Thách thức này không tồn tại trong trí tuệ nhân tạo web2 vì không có hệ thống phân quyền phân tán.

một ý tưởng đề xuất để giải quyết vấn đề này là tính toán dư thừa, trong đó nhiều nút lặp lại phép suy luận ai giống nhau, để bạn có thể hoạt động một cách không tin cậy và không có một điểm thất bại duy nhất.

Vấn đề với phương pháp này là chúng ta sống trong một thế giới có thiếu hụt nghiêm trọng về chip AI cao cấp. Hiện nay, đợi mua chip Nvidia cao cấp mất nhiều năm và dẫn đến tăng giá. Nếu bạn muốn yêu cầu việc suy luận AI của bạn được thực thi nhiều lần trên nhiều nút, bạn đang nhân lên những chi phí đắt đỏ đó. Điều này sẽ không khả thi với nhiều dự án.

ý tưởng số 3: các trường hợp sử dụng ai cụ thể cho web3 trong tương lai gần

Đã có ý kiến cho rằng Web3 nên có các trường hợp sử dụng AI riêng, độc đáo dành riêng cho khách hàng Web3. Đây có thể là (ví dụ) giao thức Web3 sử dụng AI để thực hiện chấm điểm rủi ro của nhóm DeFi, ví Web3 đề xuất các giao thức mới cho bạn dựa trên lịch sử ví của bạn hoặc trò chơi Web3 sử dụng AI để điều khiển các nhân vật không phải người chơi (NPC).

hiện tại, đây là một thị trường mới nổi (trong tương lai gần) nơi các trường hợp sử dụng vẫn đang được phát hiện. Một số thách thức bao gồm:

  • Các trường hợp sử dụng web3-native chỉ cần ít giao dịch ai tiềm năng hơn, vì nhu cầu thị trường vẫn còn ở giai đoạn đầu của nó.
  • Ít khách hàng hơn, bởi vì có số lượng khách hàng web3 ít hơn nhiều lần so với khách hàng web2, vì vậy thị trường ít bị mảnh vỡ hơn.
  • Khách hàng thậm chí còn không ổn định hơn vì họ là các startup với nguồn vốn ít hơn, vì vậy một số startup đó có thể sẽ biến mất theo thời gian. Một nhà cung cấp dịch vụ trí tuệ nhân tạo web3 phục vụ cho khách hàng web3 có thể sẽ cần phải tái thu hồi một phần khách hàng của họ theo thời gian để thay thế những người biến mất, làm cho việc mở rộng kinh doanh trở nên khó khăn hơn.

trong dài hạn, chúng tôi rất lạc quan về các trường hợp sử dụng trí tuệ nhân tạo web3-native, đặc biệt là khi các đại lý trí tuệ nhân tạo trở nên phổ biến hơn. chúng tôi tưởng tượng về một tương lai trong đó bất kỳ người dùng web3 nào cũng có một loạt các đại lý trí tuệ nhân tạo hỗ trợ họ. nhà lãnh đạo danh mục sớm nhất cho điều này là Theoriq(được hỗ trợ bởi hack vc), cho phép các đại lý trí tuệ tự động và có thể kết hợp trên chuỗi.

ý tưởng #4: gpu cấp tiêu dùng depins

có một số mạng tính toán trí tuệ nhân tạo phi tập trung dựa vào gpu cấp tiêu dùng thay vì trung tâm dữ liệu. Gpu cấp tiêu dùng hữu ích cho các nhiệm vụ suy luận trí tuệ cấp thấp hoặc cho các trường hợp sử dụng của người tiêu dùng mà độ trễ, lưu lượng và đáng tin cậy linh hoạt. Nhưng đối với các trường hợp sử dụng doanh nghiệp nghiêm túc (đó là phần lớn thị trường quan trọng), khách hàng muốn một mạng đáng tin cậy hơn so với máy tính cá nhân của mọi người, và thường cần gpu cao cấp hơn nếu họ có các nhiệm vụ suy luận phức tạp hơn. Trung tâm dữ liệu phù hợp hơn cho những trường hợp sử dụng có giá trị cao hơn này.

lưu ý rằng chúng tôi coi gpu cấp tiêu dùng là hữu ích cho mục đích trình diễn hoặc cho cá nhân và các công ty khởi nghiệp có thể chấp nhận độ tin cậy thấp. Tuy nhiên, những khách hàng này cơ bản ít có giá trị hơn, vì vậy chúng tôi tin rằng depin phục vụ cho các doanh nghiệp web2 sẽ có giá trị hơn trong dài hạn. Do đó, các dự án depin gpu nổi tiếng đã phát triển từ những ngày đầu với phần cứng chủ yếu là cấp tiêu dùng đến khi có sẵn a100/h100 và khả năng cấp cụm.

thực tế—các trường hợp sử dụng thực tế và thực tế của tiền điện tử x trí tuệ nhân tạo

bây giờ, hãy thảo luận về những trường hợp sử dụng cung cấp "lợi ích thực sự." đây là những "chiến thắng" thực sự nơi mà tiền điện tử x trí tuệ nhân tạo có thể thêm giá trị đáng kể.

lợi ích thực sự #1: phục vụ khách hàng web2

McKinsey ước tínhrằng trí tuệ nhân tạo sinh sảy có thể thêm vào tương đương từ 2.6 nghìn tỷ đến 4.4 nghìn tỷ đô la hàng năm trên 63 trường hợp sử dụng mà họ phân tích—so với toàn bộ GDP của Vương quốc Anh vào năm 2021 là 3.1 nghìn tỷ đô la. điều này sẽ tăng tác động của tất cả trí tuệ nhân tạo lên 15% đến 40%. ước tính này sẽ gần như gấp đôi nếu chúng ta bao gồm tác động của việc nhúng trí tuệ nhân tạo sinh sảy vào phần mềm hiện đang được sử dụng cho các nhiệm vụ khác ngoài những trường hợp sử dụng đó.

Nếu bạn làm phép toán theo ước tính trên, nó ngụ ý rằng tổng thị trường cho AI (ngoài AI tạo ra) có thể trị giá hàng chục nghìn tỷ đô la, trên toàn thế giới. Để so sánh, tất cả các loại tiền điện tử kết hợp, bao gồm Bitcoin và mọi đồng tiền thay thế, chỉ trị giá khoảng 2,7 nghìn tỷ đô la ngày nay. Vì vậy, hãy thực tế ở đây: đại đa số khách hàng cần AI trong ngắn hạn sẽ là khách hàng Web2, vì khách hàng Web3 thực sự cần AI sẽ là một phần nhỏ trong số 2,7 nghìn tỷ đô la này (hãy xem xét rằng BTC là một nửa thị trường này và bản thân BTC không cần / sử dụng AI).

Các trường hợp sử dụng của web3 AI đang bắt đầu và không hề rõ ràng về kích thước của thị trường đó sẽ là bao nhiêu. Nhưng một điều chắc chắn theo cách trực giác — đó sẽ chỉ là một phần nhỏ của thị trường web2 trong tương lai. Chúng tôi tin rằng web3 AI vẫn có một tương lai rạng rỡ, nhưng điều đó đơn giản chỉ có nghĩa là ứng dụng mạnh mẽ nhất của web3 AI hiện tại là phục vụ khách hàng web2.

Các ví dụ về khách hàng web2 có thể hưởng lợi từ web3 ai có thể bao gồm:

  • các công ty phần mềm cụ thể theo chiều dọc được xây dựng từ đầu để tập trung vào trí tuệ nhân tạo (ví dụ: cedar.ai hoặc observe.ai)
  • các doanh nghiệp lớn đang điều chỉnh mô hình cho mục đích riêng của mình (ví dụ như netflix)
  • nhà cung cấp trí tuệ nhân tạo phát triển nhanh (ví dụ, anthropic)
  • các công ty phần mềm đang pha trộn trí tuệ nhân tạo vào các sản phẩm hiện có của họ (ví dụ: Canva)

Đây là một nhóm đối tượng khách hàng tương đối ổn định, vì khách hàng thông thường đều là những khách hàng lớn và có giá trị. Họ không có khả năng phá sản trong thời gian sắp tới và đại diện cho những khách hàng tiềm năng rất lớn đối với dịch vụ trí tuệ nhân tạo. Dịch vụ trí tuệ nhân tạo web3 phục vụ khách hàng web2 sẽ hưởng lợi từ cơ sở khách hàng ổn định này.

nhưng tại sao một khách hàng web2 muốn sử dụng một ngăn xếp web3? Phần còn lại của bài đăng này làm rõ điều đó.

lợi ích thực sự #2: giảm chi phí sử dụng gpu thông qua gpu depins

gpu depins aggreGate.io under-utilized gpu compute power (the most reliable of which come from data centers) and make them available for ai inference (an example of this is io.net, một công ty trong danh mục của các quỹ do hack vc quản lý). Một cách đơn giản để nghĩ về điều này là “airbnb cho gpus” (hiệu quả, tiêu thụ hợp tác của tài sản không sử dụng đến mức tối đa).

Lý do chúng tôi hào hứng với GPU Depins là, như đã lưu ý ở trên, có sự thiếu hụt chip NVIDIA và hiện đang lãng phí các chu kỳ GPU có thể được sử dụng để suy luận AI. Những chủ sở hữu phần cứng này có chi phí chìm và không sử dụng hết thiết bị của họ ngày hôm nay, và do đó có thể cung cấp các chu kỳ GPU phân đoạn đó với chi phí thấp hơn nhiều so với hiện trạng, vì nó có hiệu quả "tìm thấy tiền" cho chủ sở hữu phần cứng.

ví dụ bao gồm:

  • máy aws. nếu bạn thuê một h100 từ aws ngày hôm nay, bạn sẽ phải cam kết thuê một hợp đồng 1 năm, vì thị trường bị hạn chế cung cấp. điều này tạo ra lãng phí, vì bạn có thể không sử dụng gpu của mình 365 ngày trong một năm, 7 ngày mỗi tuần.
  • phần cứng đào filecoin. Filecoin là một mạng lưới có một lượng cung cấp được tài trợ lớn nhưng không có một lượng cầu thực sự đáng kể. Rất tiếc, Filecoin không bao giờ tìm được sự phù hợp thực sự giữa sản phẩm và thị trường, vì vậy các máy đào Filecoin đang đứng trước nguy cơ phá sản. Những máy đó có gắn GPU và có thể tái sử dụng cho các nhiệm vụ suy luận AI cấp thấp.
  • phần cứng đào eth. khi eth chuyển từ pow sang pos, điều đó ngay lập tức tạo ra một lượng lớn phần cứng có thể tái sử dụng cho suy luận trí tuệ nhân tạo.

lưu ý rằng không phải phần cứng gpu nào cũng phù hợp cho việc suy luận trí tuệ nhân tạo. một lý do rõ ràng cho điều này là các gpu cũ không có đủ bộ nhớ gpu cần thiết cho llms, mặc dù đã có một số đổi mới thú vị để giúp đỡ ở đây.Exabits, ví dụ, có công nghệ tải những neuron hoạt động vào bộ nhớ gpu và những neuron không hoạt động vào bộ nhớ cpu. Họ dự đoán những neuron cần phải hoạt động / không hoạt động. Điều này cho phép các gpu cấp thấp xử lý công việc ai, ngay cả khi có giới hạn bộ nhớ gpu. Điều này hiệu quả làm cho các gpu cấp thấp trở nên hữu ích hơn cho việc suy luận ai.

Lưu ý rằng web3 ai depins cũng sẽ cần cải thiện dần dần các dịch vụ của mình và cung cấp các dịch vụ cấp doanh nghiệp, như đăng nhập đơn, tuân thủ SOC 2, thỏa thuận mức dịch vụ (SLAs) và nhiều hơn nữa. Điều này sẽ phản ánh các dịch vụ trong các dịch vụ đám mây hiện tại mà khách hàng web2 đang tận hưởng hiện tại.

Lợi ích thực sự # 3: Các mô hình không bị kiểm duyệt để tránh tự kiểm duyệt OpenAI

Đã có nhiều cuộc trò chuyện về việc kiểm duyệt trí tuệ nhân tạo. Ví dụ, Thổ Nhĩ Kỳ đã tạm thời cấm openai (sau đó họ đã đảo ngược quyết định đó khi openai cải thiện sự tuân thủ của mình). Chúng tôi tin rằng loại kiểm duyệt ở cấp độ quốc gia như thế này về cơ bản là không thú vị vì các quốc gia sẽ cần phải đón nhận trí tuệ nhân tạo để duy trì sự cạnh tranh.

Điều thú vị hơn là OpenAI tự kiểm duyệt mình. Ví dụ, OpenAI sẽ không xử lý nội dung NSFW. Cũng như OpenAI không dự đoán cuộc bầu cử tổng thống tiếp theo. Chúng tôi nghĩ rằng có một thị trường lớn và thú vị cho các trường hợp sử dụng trí tuệ nhân tạo mà OpenAI sẽ không chạm vào vì lí do chính trị.

việc công khai mã nguồn là một giải pháp tuyệt vời cho vấn đề này, vì một kho lưu trữ github không phụ thuộc vào cổ đông hay hội đồng quản trị. một ví dụ về điều này là Venice.aiWeb3 AI có thể hiệu quả nâng cao các mô hình phần mềm mã nguồn mở (OSS) này bằng cách cung cấp sức mạnh tính toán của các cụm GPU giá rẻ hơn để thực hiện suy luận. Điều quan trọng là Web3 AI đảm bảo giữ cho sự riêng tư không bị xâm phạm và hoạt động một cách không bị kiểm duyệt. Chính vì vậy, chúng tôi tin rằng OSS + Web3 là sự kết hợp lý tưởng để mở đường cho trí tuệ nhân tạo không bị kiểm duyệt.

lợi ích thực sự thứ 4: tránh gửi thông tin cá nhân nhận dạng đến openai

Nhiều doanh nghiệp lớn có mối quan tâm về quyền riêng tư về dữ liệu nội bộ doanh nghiệp của họ. Đối với những khách hàng này, có thể cực kỳ khó tin tưởng vào một bên thứ ba tập trung, như OpenAI, với dữ liệu đó.

Với web3, có vẻ (ở bề mặt) ngay cả đối với các doanh nghiệp này, vì dữ liệu nội bộ của họ đột nhiên trên một mạng lưới phân cấp. Tuy nhiên, có một số đổi mới trong các công nghệ nâng cao quyền riêng tư cho trí tuệ nhân tạo:

  • môi trường thực thi đáng tin cậy (TEE) như Tiền điện tử Siêu giao thức
  • mã hóa toàn bộ (FHE) như Fhenix.io(một công ty trong danh mục của một quỹ được quản lý bởi hack vc) hoặc Mạng Inco(mỗi người đều được cung cấp bởiZama.ai) và ppml của Bagel

Các công nghệ này vẫn đang tiếp tục phát triển, và hiệu suất vẫn đang được cải thiện thông qua các chip asic zero knowledge (zk) và fhe sắp tới. Nhưng mục tiêu dài hạn là bảo vệ dữ liệu doanh nghiệp khi điều chỉnh mô hình. Khi các giao thức này xuất hiện, web3 có thể trở thành một địa điểm hấp dẫn hơn cho tính toán trí tuệ bảo vệ quyền riêng tư.

lợi ích thực sự #5: tận dụng những đổi mới mới nhất trong các mô hình mã nguồn mở

OSS đã liên tục làm xói mòn thị phần của phần mềm độc quyền trong vài thập kỷ qua. Chúng tôi xem LLM chỉ đơn giản là một dạng phần mềm độc quyền ưa thích đã chín muồi cho sự gián đoạn OSS. Một vài ví dụ đáng chú ý về những người thách thức bao gồm: Llama, RWKV, và Mistral.ai. danh sách này sẽ không thể tránh khỏi mở rộng theo thời gian (một danh sách toàn diện hơn có sẵn tại Openrouter.ai). bằng cách tận dụng web3 ai (được cung cấp bởi các mô hình oss) người có thể tận dụng những đổi mới mới này.

Chúng tôi tin rằng khi thời gian trôi qua, một lực lượng lao động phát triển toàn cầu mã nguồn mở, kết hợp với động cơ tiền điện tử, có thể thúc đẩy đổi mới nhanh chóng trong các mô hình mã nguồn mở, cũng như các đại lý và khung xây dựng được xây dựng trên chúng. Một ví dụ về giao thức đại lý trí tuệ nhân tạo làTheoriq. theoriq sử dụng các mô hình oss để tạo ra một mạng lưới liên kết có thể sáng tạo của các đại lý trí tuệ nhân tạo có thể được lắp ráp để tạo ra các giải pháp trí tuệ nhân tạo cấp cao hơn.

Lý do chúng tôi có niềm tin ở đây là do quá khứ: hầu hết "phần mềm dành cho nhà phát triển" đã dần bị OSS đổi mới theo thời gian. Microsoft từng là một công ty phần mềm độc quyền, và bây giờ họ là công ty #1 đóng góp cho GitHub, và có một lý do cho điều đó. Nếu bạn nhìn vào cách Databricks, PostgresSQL, MongoDB và những người khác đã phá vỡ cơ sở dữ liệu độc quyền, đó là một ví dụ về toàn bộ ngành công nghiệp đã bị OSS đảo lộn, vì vậy tiền lệ ở đây khá mạnh.

Tuy nhiên, điều này đi kèm với một điều kiện. Một trong những vấn đề khó khăn với các hệ thống quản lý học tập mã nguồn mở là OpenAI đã bắt đầu tạo ra các thỏa thuận cấp phép dữ liệu có phí với các tổ chức, như reddit và New York Times. Nếu xu hướng này tiếp tục, có thể trở nên khó khăn hơn đối với các hệ thống quản lý học tập mã nguồn mở để cạnh tranh do rào cản tài chính liên quan đến việc họ có được dữ liệu. Có thể có khả năng là Nvidia tập trung mạnh mẽ vào tính bảo mật của tính toán bảo mật như một công cụ chia sẻ dữ liệu an toàn. Thời gian sẽ cho biết điều này sẽ diễn ra như thế nào.

Lợi ích thực sự #6: sự đồng thuận được đạt được thông qua mẫu ngẫu nhiên với chi phí cắt giảm cao, hoặc thông qua các chứng minh zk

Một trong những thách thức với suy luận AI Web3 là xác minh. Có một cơ hội giả định cho người xác thực gian lận kết quả của họ để kiếm phí, vì vậy xác minh suy luận là một biện pháp quan trọng. Lưu ý rằng sự gian lận này chưa thực sự xảy ra, bởi vì suy luận AI đang ở giai đoạn sơ khai, nhưng nó không thể tránh khỏi trừ khi các biện pháp được thực hiện để không khuyến khích hành vi đó.

Phương pháp web3 tiêu chuẩn là có nhiều người xác nhận lặp lại cùng một thao tác và so sánh kết quả. Thách thức rõ ràng của việc này là, như đã ghi nhận, suy luận trí tuệ nhân tạo đắt đỏ do thiếu hụt hiện tại của chip nvidia cao cấp. Với việc web3 có thể cung cấp suy luận chi phí thấp thông qua các gpu không được sử dụng đầy đủ, tính toán dư thừa sẽ làm suy giảm nghiêm trọng đề xuất giá trị của web3.

Một giải pháp hứa hẹn hơn là thực hiện một chứng minh zk cho tính toán suy luận trên chuỗi ngoại. Trong trường hợp này, chứng minh zk ngắn gọn có thể được xác minh để xác định rằng một mô hình đã được đào tạo đúng cách, hoặc suy luận đã được chạy đúng cách (được gọi là zkml). Ví dụ bao gồm Modulus labsZKonduit. hiệu suất của những giải pháp này vẫn còn non trẻ vì các hoạt động zk khá tốn công suất tính toán. Tuy nhiên, chúng tôi dự đoán rằng điều này có thể sẽ cải thiện khi phần cứng zk asics được phát hành trong tương lai gần.

Ý tưởng một cách “lạc quan” hơn nhiều là phương pháp suy luận trí tuệ nhân tạo dựa trên mẫu số. Trong mô hình này, bạn chỉ cần xác minh một phần trăm rất nhỏ kết quả được tạo ra bởi các người xác minh, nhưng thiết lập chi phí kinh tế cắt giảm đủ cao để nếu bị bắt, nó sẽ tạo ra một sự không khích lịch sự kinh tế mạnh mẽ đối với người xác minh gian lận. Điều này giúp bạn tiết kiệm công việc tính toán dư thừa (ví dụ, xem Hyperbolic’sBằng chứng của mẫu giấy mẫu.

Ý tưởng hứa hẹn khác là một giải pháp đánh dấu và vân tay nước, như một đề xuất của mộtMạng Bagel. Điều này tương tự cơ chế đảm bảo chất lượng của Amazon Alexa đối với các mô hình trí tuệ nhân tạo trên thiết bị của họ cho hàng triệu thiết bị.

lợi ích thực sự #7: tiết kiệm phí (margin của openai) qua oss

Cơ hội tiếp theo mà web3 mang đến cho trí tuệ nhân tạo là làm cho chi phí dân chủ hóa. Cho đến nay, chúng ta đã nói về việc tiết kiệm chi phí GPU thông qua depins. Nhưng web3 cũng cung cấp cơ hội để tiết kiệm lợi nhuận của các dịch vụ trí tuệ nhân tạo trung tâm web2 (ví dụ: openai, hiện đang có doanh thu hơn 1 tỷ đô la/năm vào thời điểm viết này). Sự tiết kiệm chi phí này đến từ việc sử dụng các mô hình OSS thay vì mô hình độc quyền để tiết kiệm thêm chi phí vì người tạo ra mô hình không cố gắng kiếm lợi nhuận.

nhiều mô hình oss sẽ vẫn hoàn toàn miễn phí, điều này cho phép kinh tế tốt nhất cho khách hàng. nhưng cũng có thể có một số mô hình oss cố gắng áp dụng các phương pháp thương mại hóa này. hãy xem xét rằng chỉ có 4% tổng số mô hình trên hugging face được huấn luyện bởi các công ty có ngân sách để hỗ trợ cho mô hình (xem ở đây). 96% còn lại của các mô hình được đào tạo bởi cộng đồng. nhóm này - 96% của hugging face - có chi phí thực tế cơ bản (bao gồm chi phí tính toán và chi phí dữ liệu). vì vậy, những mô hình đó sẽ cần cách nào đó để thực hiện việc kiếm tiền.

có một số đề xuất để thực hiện việc tiền điện tử hóa các mô hình này. Một trong những điều thú vị nhất là khái niệm về “sự cung cấp mô hình ban đầu” (imo) trong đó bạn bóc tách mô hình chính nó, giữ lại một phần trăm token cho nhóm và dòng thu nhập tương lai từ mô hình đó cho người nắm giữ token, mặc dù rõ ràng có một số rào cản pháp lý và quy định ở đó.

mô hình oss khác sẽ cố gắng kiếm tiền từ việc sử dụng. lưu ý rằng nếu điều này thành hiện thực, các mô hình oss có thể bắt đầu ngày càng giống các đối tác tạo lợi nhuận web2 của họ. Nhưng, theo thực tế, thị trường sẽ được chia thành hai phần, với một số mô hình vẫn hoàn toàn miễn phí.

lợi ích thực sự #8: nguồn dữ liệu phi tập trung

Một trong những thách thức lớn nhất của trí tuệ nhân tạo là tìm nguồn dữ liệu phù hợp để huấn luyện mô hình của bạn. Chúng tôi đã đề cập trước đó rằng huấn luyện trí tuệ nhân tạo phi tập trung có những thách thức của riêng nó. Nhưng sao về việc sử dụng một mạng lưới phi tập trung để tìm nguồn dữ liệu (sau đó có thể được sử dụng để huấn luyện ở nơi khác, thậm chí ở các địa điểm web2 truyền thống)?

đây chính xác là những gì các start-up như Cỏ đang làm. Grass là một mạng lưới phi tập trung gồm các "người thu thập dữ liệu", những cá nhân đóng góp sức mạnh xử lý nhàn rỗi của máy của họ vào việc tìm nguồn cung ứng dữ liệu để thông báo cho việc đào tạo các mô hình AI. Theo giả thuyết, ở quy mô lớn, nguồn cung ứng dữ liệu này có thể vượt trội so với bất kỳ nỗ lực nội bộ nào của một công ty để tìm nguồn dữ liệu do sức mạnh tuyệt đối của một mạng lưới lớn các nút được khuyến khích. Điều này bao gồm không chỉ tìm nguồn cung ứng nhiều dữ liệu hơn mà còn tìm nguồn cung ứng dữ liệu đó thường xuyên hơn để dữ liệu có liên quan và cập nhật hơn. Cũng hầu như không thể ngăn chặn một đội quân thu thập dữ liệu phi tập trung, vì chúng vốn đã bị phân mảnh và không nằm trong một địa chỉ IP duy nhất. Họ cũng có một mạng lưới con người có thể làm sạch và chuẩn hóa dữ liệu, để nó hữu ích sau khi được cạo.

khi bạn đã có dữ liệu, bạn cũng cần một nơi để lưu trữ nó trên chuỗi, cũng như các llms được tạo ra từ dữ liệu đó.0g.AIđang là nhà lãnh đạo sớm nhất trong danh mục này. Đây là một giải pháp lưu trữ web3 tối ưu hóa trí tuệ nhân tạo đạt hiệu suất cao và giá thành đáng kể thấp hơn so với AWS (một chiến thắng kinh tế khác cho web3 AI), đồng thời cũng phục vụ như cơ sở hạ tầng sẵn sàng dữ liệu cho Layer 2s, AI và nhiều hơn thế nữa.

Lưu ý rằng vai trò của dữ liệu có thể thay đổi trong web3 ai trong tương lai. Hiện nay, tình trạng hiện tại của LLMS là tiền huấn luyện một mô hình với dữ liệu và điều chỉnh nó theo thời gian với thêm dữ liệu. Tuy nhiên, những mô hình đó luôn hơi lạc hậu vì dữ liệu trên mạng thay đổi theo thời gian thực. Vì vậy, các phản hồi từ suy luận LLMS có chút không chính xác.

tương lai của thế giới có thể đang đi đến một mô hình mới – dữ liệu “thời gian thực”. Ý tưởng là khi một llm được hỏi một câu hỏi suy luận, llm đó có thể sử dụng tiêm prompt dữ liệu vào llm, nơi mà dữ liệu được thu thập vào thời gian thực từ internet. Điều đó giúp llm sử dụng dữ liệu cập nhật nhất có thể. Grass cũng đang nghiên cứu vấn đề này.

kết luận

Chúng tôi hy vọng rằng điều này sẽ là một phân tích hữu ích cho bạn khi suy nghĩ về những lời hứa so với thực tế của trí tuệ nhân tạo web3. Điều này chỉ là một điểm khởi đầu cho cuộc trò chuyện, và cảnh quan đang thay đổi nhanh chóng, vì vậy xin đừng ngần ngại tham gia và thể hiện quan điểm của bạn, vì chúng tôi rất mong muốn tiếp tục học hỏi và xây dựng cùng nhau.

cảm ơn

một lời cảm ơn rất đặc biệt đến albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng, và jw wang vì phản hồi và đóng góp của họ vào bài đăng này.


Thông tin trong tài liệu này chỉ mang tính chất thông tin chung và không có ý định cung cấp hoặc tạo thành lời khuyên đầu tư và không nên được sử dụng trong quá trình đánh giá bất kỳ quyết định đầu tư nào. Thông tin như vậy không nên được sử dụng làm căn cứ cho lời khuyên kế toán, pháp lý, thuế, kinh doanh, đầu tư hoặc lĩnh vực khác. Bạn nên tham khảo ý kiến từ những cố vấn của mình, bao gồm cố vấn pháp lý riêng của bạn, về các lĩnh vực kế toán, pháp lý, thuế, kinh doanh, đầu tư hoặc lĩnh vực khác, bao gồm cả những điều được thảo luận trong tài liệu này.

Bài đăng này phản ánh ý kiến hiện tại của (các) tác giả và không được thực hiện thay mặt cho Hack VC hoặc các chi nhánh của nó, bao gồm bất kỳ khoản tiền nào do Hack VC quản lý và không nhất thiết phản ánh ý kiến của Hack VC, các chi nhánh của nó, bao gồm các chi nhánh đối tác chung hoặc bất kỳ cá nhân nào khác có liên quan đến Hack VC. Một số thông tin trong tài liệu này đã được thu thập từ các nguồn được công bố và / hoặc được chuẩn bị bởi các bên thứ ba và trong một số trường hợp nhất định chưa được cập nhật cho đến ngày này. Mặc dù các nguồn như vậy được cho là đáng tin cậy, nhưng cả Hack VC, các chi nhánh của nó, bao gồm các chi nhánh đối tác chung hoặc bất kỳ cá nhân nào khác liên quan đến Hack VC đều không đưa ra tuyên bố về tính chính xác hoặc đầy đủ của chúng và chúng không nên được dựa vào như vậy hoặc là cơ sở cho kế toán, pháp lý, thuế, kinh doanh, đầu tư hoặc quyết định khác. Thông tin ở đây không nhằm mục đích đầy đủ và có thể thay đổi và hack VC không có nghĩa vụ phải cập nhật thông tin đó hoặc đưa ra bất kỳ thông báo nào nếu thông tin đó trở nên không chính xác.

hiệu suất trong quá khứ không nhất thiết là chỉ báo của kết quả trong tương lai. bất kỳ tuyên bố hướng tới tương lai nào được đưa ra ở đây đều dựa trên một số giả định và phân tích được tác giả thực hiện dựa trên kinh nghiệm và nhận thức về xu hướng lịch sử, điều kiện hiện tại và sự phát triển tương lai dự kiến, cũng như các yếu tố khác mà ông tin rằng phù hợp trong hoàn cảnh hiện tại. những tuyên bố như vậy không đảm bảo hiệu suất trong tương lai và phải chịu một số rủi ro, không chắc chắn và giả định mà khó có thể dự đoán.

tuyên bố:

  1. bài viết này được sao chép từ [Hack vc], tiêu đề gốc "AI x Crypto - Lời hứa và thực tế", bản quyền thuộc về tác giả gốc [Ed Roman, Đối tác quản lý tại Hack VC], nếu bạn có bất kỳ phản đối nào đối với việc tái bản, vui lòng liên hệ Nhóm học viên cổng Gate, nhóm sẽ xử lý càng sớm càng tốt theo các quy trình liên quan.

  2. tất cả các quan điểm và ý kiến được thể hiện trong bài viết này chỉ đại diện cho quan điểm cá nhân của tác giả và không hình thành bất kỳ lời khuyên đầu tư nào.

  3. Các phiên bản ngôn ngữ khác của bài viết được dịch bởi nhóm Gate.io learn, không được đề cập trong Gate.io, bài viết dịch có thể không được sao chép, phân phối hoặc đạo văn.

AI x Tiền điện tử - Lời hứa và thực tế

Trung cấp7/13/2024, 3:21:16 PM
AI+Crypto là một trong những lĩnh vực biên giới đáng chú ý nhất trong thị trường tiền điện tử gần đây. Điều này bao gồm việc đào tạo trí tuệ nhân tạo phi tập trung, GPU DePINs, và mô hình trí tuệ nhân tạo chống kiểm duyệt. Vấn đề chính của việc đào tạo trí tuệ nhân tạo nằm ở việc cần có giao tiếp và phối hợp tốc độ cao giữa các GPU, vì mạng nơ-ron đòi hỏi backpropagation trong quá trình đào tạo. Việc giới thiệu một mạng lưới phi tập trung có thể làm chậm quá trình đáng kể do độ trễ và băng thông mạng tăng lên. Bài viết này cũng tổ chức các giải pháp cho những thách thức hiện tại và cung cấp ví dụ về cách tích hợp tiền điện tử và trí tuệ nhân tạo có thể thêm giá trị đáng kể.

AI là một trong những lĩnh vực nóng và hứa hẹn nhất trong thị trường tiền điện tử gần đây.

💡đào tạo trí tuệ nhân tạo phi tập trung

💡gpu depins

💡mô hình trí tuệ nhân tạo không bị kiểm duyệt

đây có phải là những bước đột phá hay chỉ là những từ ngữ thịnh hành? 🤔

tại hack vc, chúng tôi đang cắt ngang qua tiếng ồn để phân biệt lời hứa và hiện thực.

bài viết này phân tích những ý tưởng tiền điện tử x trí tuệ nhân tạo hàng đầu. Hãy thảo luận về những thách thức và cơ hội thực sự.

ý tưởng có tiềm năng ban đầu, nhưng đã gặp phải thách thức trong thực tế.

Đầu tiên, chúng ta hãy bắt đầu với “lời hứa của trí tuệ nhân tạo web3”—những ý tưởng mà có khá nhiều sự hào nhoáng, nhưng thực tế có thể không được như một vẻ sáng.

ý tưởng #1: đào tạo trí tuệ nhân tạo phi tập trung

Vấn đề với việc đào tạo trí tuệ nhân tạo trên chuỗi là việc đào tạo yêu cầu giao tiếp và phối hợp tốc độ cao giữa các GPU, do mạng thần kinh yêu cầu quá trình lan truyền ngược khi được đào tạo. Nvidia có hai đổi mới cho điều này (NVLinkInfiniBand). Các công nghệ này thực hiện việc truyền thông của GPU một cách siêu nhanh, nhưng chúng chỉ là các công nghệ cục bộ chỉ áp dụng trong các cụm GPU nằm trong cùng một trung tâm dữ liệu (tốc độ 50+ gigabit).

nếu bạn giới thiệu mạng phân quyền vào bức tranh, bạn đột nhiên chậm hơn hàng độ về thứ tự do độ trễ và băng thông mạng thêm vào. Điều đó là một trở ngại không thể chấp nhận được đối với các trường hợp sử dụng đào tạo trí tuệ nhân tạo so với sản lượng bạn nhận được từ tính năng kết nối tốc độ cao của nvidia trong trung tâm dữ liệu.

lưu ý rằng đã có một số đổi mới ở đây có thể mang lại hy vọng cho tương lai:

  • huấn luyện phân tán trên infiniband đang diễn ra ở quy mô đáng kể, vì chính nvidia đang hỗ trợ huấn luyện phân tán, không phải cục bộ qua infiniband thông qua thư viện liên lạc tập thể của nvidia. Tuy nhiên, nó vẫn còn non trẻ, vì vậy các chỉ số áp dụng vẫn chưa xác định. xem ở đây. rào cản đó là luật vật lý trên khoảng cách vẫn áp dụng, vì vậy việc đào tạo cục bộ qua infiniband vẫn nhanh đáng kể.
  • có một số nghiên cứu mới được công bố về việc đào tạo phân tán dựa vào ít đồng bộ hóa giao tiếp hơn có thể làm cho việc đào tạo phân tán trở nên thực tế hơn trong tương lai. xem đâyở đây.
  • Phân mảnh thông minh và lập lịch đào tạo mô hình có thể giúp cải thiện hiệu suất. Tương tự, kiến ​​trúc mô hình mới có thể được thiết kế độc đáo cho cơ sở hạ tầng phân tán trong tương lai (gensyn đang nghiên cứu trong những lĩnh vực này).

phần dữ liệu của quá trình đào tạo cũng rất thách thức. bất kỳ quá trình đào tạo trí tuệ nhân tạo nào cũng liên quan đến làm việc với lượng dữ liệu lớn. Thông thường, các mô hình được đào tạo trên các hệ thống lưu trữ dữ liệu tập trung và an toàn có khả năng mở rộng cao và hiệu suất cao. Điều này đòi hỏi chuyển và xử lý terabytes dữ liệu, và điều này không phải là một chu kỳ một lần. Dữ liệu thông thường có nhiễu và chứa lỗi, nên nó phải được làm sạch và chuyển đổi thành định dạng có thể sử dụng trước khi đào tạo mô hình. Giai đoạn này liên quan đến các nhiệm vụ lặp đi lặp lại của chuẩn hóa, lọc và xử lý các giá trị thiếu. Điều này đều đặn đặt ra những thách thức nghiêm trọng trong môi trường phi tập trung.

Thành phần dữ liệu của quá trình đào tạo cũng là quá trình lặp đi lặp lại, điều này không phù hợp với web3. OpenAI mất hàng ngàn lần lặp để đạt được kết quả của mình. Kịch bản nhiệm vụ cơ bản nhất cho một chuyên gia khoa học dữ liệu trong một nhóm trí tuệ nhân tạo bao gồm xác định mục tiêu, chuẩn bị dữ liệu, phân tích và cấu trúc hóa dữ liệu để trích xuất thông tin quan trọng và làm cho nó phù hợp để mô hình hóa. Sau đó, một mô hình học máy được phát triển để giải quyết vấn đề được xác định, và hiệu suất của nó được xác minh bằng cách sử dụng bộ dữ liệu kiểm tra. Quá trình này là quá trình lặp lại: nếu mô hình hiện tại không hoạt động như mong đợi, chuyên gia sẽ quay trở lại giai đoạn thu thập dữ liệu hoặc đào tạo mô hình để cải thiện kết quả. Bây giờ, hãy tưởng tượng quá trình này trong một môi trường phi tập trung, nơi các khung và công cụ tốt nhất hiện có không dễ dàng có sẵn trong web3.

Một vấn đề khác khi huấn luyện các mô hình AI trên chuỗi là thị trường ít hấp dẫn hơn so với inference. Hiện tại, có rất nhiều tính toán GPU được sử dụng cho việc huấn luyện AI LLM. Tuy nhiên, trong tương lai, inference sẽ trở thành (nhiều hơn) trường hợp sử dụng phổ biến hơn của các GPU. Hãy suy nghĩ: cần bao nhiêu AI LLM cần được huấn luyện để thế giới hạnh phúc, so với số lượng khách hàng sẽ sử dụng những mô hình đó?

Một giải pháp đang tiến triển trên mọi mặt là 0g.ai (được hỗ trợ bởi hack vc) cung cấp cả lưu trữ dữ liệu trên chuỗi và cơ sở hạ tầng sẵn có dữ liệu. Kiến trúc siêu nhanh của họ và khả năng lưu trữ lượng dữ liệu lớn trên chuỗi cho phép việc huấn luyện mô hình trí tuệ nhân tạo trên chuỗi nhanh chóng, lặp đi lặp lại bất kỳ loại nào.

ý tưởng #2: sử dụng tính toán quá dư thừa của suy luận trí tuệ nhân tạo cho sự nhất quán

Một trong những thách thức với tiền điện tử x trí tuệ nhân tạo là xác minh độ chính xác của suy luận trí tuệ nhân tạo, vì bạn không thể tin tưởng một bên tập trung duy nhất để thực hiện suy luận đó do tiềm năng cho các nút không đúng cách. Thách thức này không tồn tại trong trí tuệ nhân tạo web2 vì không có hệ thống phân quyền phân tán.

một ý tưởng đề xuất để giải quyết vấn đề này là tính toán dư thừa, trong đó nhiều nút lặp lại phép suy luận ai giống nhau, để bạn có thể hoạt động một cách không tin cậy và không có một điểm thất bại duy nhất.

Vấn đề với phương pháp này là chúng ta sống trong một thế giới có thiếu hụt nghiêm trọng về chip AI cao cấp. Hiện nay, đợi mua chip Nvidia cao cấp mất nhiều năm và dẫn đến tăng giá. Nếu bạn muốn yêu cầu việc suy luận AI của bạn được thực thi nhiều lần trên nhiều nút, bạn đang nhân lên những chi phí đắt đỏ đó. Điều này sẽ không khả thi với nhiều dự án.

ý tưởng số 3: các trường hợp sử dụng ai cụ thể cho web3 trong tương lai gần

Đã có ý kiến cho rằng Web3 nên có các trường hợp sử dụng AI riêng, độc đáo dành riêng cho khách hàng Web3. Đây có thể là (ví dụ) giao thức Web3 sử dụng AI để thực hiện chấm điểm rủi ro của nhóm DeFi, ví Web3 đề xuất các giao thức mới cho bạn dựa trên lịch sử ví của bạn hoặc trò chơi Web3 sử dụng AI để điều khiển các nhân vật không phải người chơi (NPC).

hiện tại, đây là một thị trường mới nổi (trong tương lai gần) nơi các trường hợp sử dụng vẫn đang được phát hiện. Một số thách thức bao gồm:

  • Các trường hợp sử dụng web3-native chỉ cần ít giao dịch ai tiềm năng hơn, vì nhu cầu thị trường vẫn còn ở giai đoạn đầu của nó.
  • Ít khách hàng hơn, bởi vì có số lượng khách hàng web3 ít hơn nhiều lần so với khách hàng web2, vì vậy thị trường ít bị mảnh vỡ hơn.
  • Khách hàng thậm chí còn không ổn định hơn vì họ là các startup với nguồn vốn ít hơn, vì vậy một số startup đó có thể sẽ biến mất theo thời gian. Một nhà cung cấp dịch vụ trí tuệ nhân tạo web3 phục vụ cho khách hàng web3 có thể sẽ cần phải tái thu hồi một phần khách hàng của họ theo thời gian để thay thế những người biến mất, làm cho việc mở rộng kinh doanh trở nên khó khăn hơn.

trong dài hạn, chúng tôi rất lạc quan về các trường hợp sử dụng trí tuệ nhân tạo web3-native, đặc biệt là khi các đại lý trí tuệ nhân tạo trở nên phổ biến hơn. chúng tôi tưởng tượng về một tương lai trong đó bất kỳ người dùng web3 nào cũng có một loạt các đại lý trí tuệ nhân tạo hỗ trợ họ. nhà lãnh đạo danh mục sớm nhất cho điều này là Theoriq(được hỗ trợ bởi hack vc), cho phép các đại lý trí tuệ tự động và có thể kết hợp trên chuỗi.

ý tưởng #4: gpu cấp tiêu dùng depins

có một số mạng tính toán trí tuệ nhân tạo phi tập trung dựa vào gpu cấp tiêu dùng thay vì trung tâm dữ liệu. Gpu cấp tiêu dùng hữu ích cho các nhiệm vụ suy luận trí tuệ cấp thấp hoặc cho các trường hợp sử dụng của người tiêu dùng mà độ trễ, lưu lượng và đáng tin cậy linh hoạt. Nhưng đối với các trường hợp sử dụng doanh nghiệp nghiêm túc (đó là phần lớn thị trường quan trọng), khách hàng muốn một mạng đáng tin cậy hơn so với máy tính cá nhân của mọi người, và thường cần gpu cao cấp hơn nếu họ có các nhiệm vụ suy luận phức tạp hơn. Trung tâm dữ liệu phù hợp hơn cho những trường hợp sử dụng có giá trị cao hơn này.

lưu ý rằng chúng tôi coi gpu cấp tiêu dùng là hữu ích cho mục đích trình diễn hoặc cho cá nhân và các công ty khởi nghiệp có thể chấp nhận độ tin cậy thấp. Tuy nhiên, những khách hàng này cơ bản ít có giá trị hơn, vì vậy chúng tôi tin rằng depin phục vụ cho các doanh nghiệp web2 sẽ có giá trị hơn trong dài hạn. Do đó, các dự án depin gpu nổi tiếng đã phát triển từ những ngày đầu với phần cứng chủ yếu là cấp tiêu dùng đến khi có sẵn a100/h100 và khả năng cấp cụm.

thực tế—các trường hợp sử dụng thực tế và thực tế của tiền điện tử x trí tuệ nhân tạo

bây giờ, hãy thảo luận về những trường hợp sử dụng cung cấp "lợi ích thực sự." đây là những "chiến thắng" thực sự nơi mà tiền điện tử x trí tuệ nhân tạo có thể thêm giá trị đáng kể.

lợi ích thực sự #1: phục vụ khách hàng web2

McKinsey ước tínhrằng trí tuệ nhân tạo sinh sảy có thể thêm vào tương đương từ 2.6 nghìn tỷ đến 4.4 nghìn tỷ đô la hàng năm trên 63 trường hợp sử dụng mà họ phân tích—so với toàn bộ GDP của Vương quốc Anh vào năm 2021 là 3.1 nghìn tỷ đô la. điều này sẽ tăng tác động của tất cả trí tuệ nhân tạo lên 15% đến 40%. ước tính này sẽ gần như gấp đôi nếu chúng ta bao gồm tác động của việc nhúng trí tuệ nhân tạo sinh sảy vào phần mềm hiện đang được sử dụng cho các nhiệm vụ khác ngoài những trường hợp sử dụng đó.

Nếu bạn làm phép toán theo ước tính trên, nó ngụ ý rằng tổng thị trường cho AI (ngoài AI tạo ra) có thể trị giá hàng chục nghìn tỷ đô la, trên toàn thế giới. Để so sánh, tất cả các loại tiền điện tử kết hợp, bao gồm Bitcoin và mọi đồng tiền thay thế, chỉ trị giá khoảng 2,7 nghìn tỷ đô la ngày nay. Vì vậy, hãy thực tế ở đây: đại đa số khách hàng cần AI trong ngắn hạn sẽ là khách hàng Web2, vì khách hàng Web3 thực sự cần AI sẽ là một phần nhỏ trong số 2,7 nghìn tỷ đô la này (hãy xem xét rằng BTC là một nửa thị trường này và bản thân BTC không cần / sử dụng AI).

Các trường hợp sử dụng của web3 AI đang bắt đầu và không hề rõ ràng về kích thước của thị trường đó sẽ là bao nhiêu. Nhưng một điều chắc chắn theo cách trực giác — đó sẽ chỉ là một phần nhỏ của thị trường web2 trong tương lai. Chúng tôi tin rằng web3 AI vẫn có một tương lai rạng rỡ, nhưng điều đó đơn giản chỉ có nghĩa là ứng dụng mạnh mẽ nhất của web3 AI hiện tại là phục vụ khách hàng web2.

Các ví dụ về khách hàng web2 có thể hưởng lợi từ web3 ai có thể bao gồm:

  • các công ty phần mềm cụ thể theo chiều dọc được xây dựng từ đầu để tập trung vào trí tuệ nhân tạo (ví dụ: cedar.ai hoặc observe.ai)
  • các doanh nghiệp lớn đang điều chỉnh mô hình cho mục đích riêng của mình (ví dụ như netflix)
  • nhà cung cấp trí tuệ nhân tạo phát triển nhanh (ví dụ, anthropic)
  • các công ty phần mềm đang pha trộn trí tuệ nhân tạo vào các sản phẩm hiện có của họ (ví dụ: Canva)

Đây là một nhóm đối tượng khách hàng tương đối ổn định, vì khách hàng thông thường đều là những khách hàng lớn và có giá trị. Họ không có khả năng phá sản trong thời gian sắp tới và đại diện cho những khách hàng tiềm năng rất lớn đối với dịch vụ trí tuệ nhân tạo. Dịch vụ trí tuệ nhân tạo web3 phục vụ khách hàng web2 sẽ hưởng lợi từ cơ sở khách hàng ổn định này.

nhưng tại sao một khách hàng web2 muốn sử dụng một ngăn xếp web3? Phần còn lại của bài đăng này làm rõ điều đó.

lợi ích thực sự #2: giảm chi phí sử dụng gpu thông qua gpu depins

gpu depins aggreGate.io under-utilized gpu compute power (the most reliable of which come from data centers) and make them available for ai inference (an example of this is io.net, một công ty trong danh mục của các quỹ do hack vc quản lý). Một cách đơn giản để nghĩ về điều này là “airbnb cho gpus” (hiệu quả, tiêu thụ hợp tác của tài sản không sử dụng đến mức tối đa).

Lý do chúng tôi hào hứng với GPU Depins là, như đã lưu ý ở trên, có sự thiếu hụt chip NVIDIA và hiện đang lãng phí các chu kỳ GPU có thể được sử dụng để suy luận AI. Những chủ sở hữu phần cứng này có chi phí chìm và không sử dụng hết thiết bị của họ ngày hôm nay, và do đó có thể cung cấp các chu kỳ GPU phân đoạn đó với chi phí thấp hơn nhiều so với hiện trạng, vì nó có hiệu quả "tìm thấy tiền" cho chủ sở hữu phần cứng.

ví dụ bao gồm:

  • máy aws. nếu bạn thuê một h100 từ aws ngày hôm nay, bạn sẽ phải cam kết thuê một hợp đồng 1 năm, vì thị trường bị hạn chế cung cấp. điều này tạo ra lãng phí, vì bạn có thể không sử dụng gpu của mình 365 ngày trong một năm, 7 ngày mỗi tuần.
  • phần cứng đào filecoin. Filecoin là một mạng lưới có một lượng cung cấp được tài trợ lớn nhưng không có một lượng cầu thực sự đáng kể. Rất tiếc, Filecoin không bao giờ tìm được sự phù hợp thực sự giữa sản phẩm và thị trường, vì vậy các máy đào Filecoin đang đứng trước nguy cơ phá sản. Những máy đó có gắn GPU và có thể tái sử dụng cho các nhiệm vụ suy luận AI cấp thấp.
  • phần cứng đào eth. khi eth chuyển từ pow sang pos, điều đó ngay lập tức tạo ra một lượng lớn phần cứng có thể tái sử dụng cho suy luận trí tuệ nhân tạo.

lưu ý rằng không phải phần cứng gpu nào cũng phù hợp cho việc suy luận trí tuệ nhân tạo. một lý do rõ ràng cho điều này là các gpu cũ không có đủ bộ nhớ gpu cần thiết cho llms, mặc dù đã có một số đổi mới thú vị để giúp đỡ ở đây.Exabits, ví dụ, có công nghệ tải những neuron hoạt động vào bộ nhớ gpu và những neuron không hoạt động vào bộ nhớ cpu. Họ dự đoán những neuron cần phải hoạt động / không hoạt động. Điều này cho phép các gpu cấp thấp xử lý công việc ai, ngay cả khi có giới hạn bộ nhớ gpu. Điều này hiệu quả làm cho các gpu cấp thấp trở nên hữu ích hơn cho việc suy luận ai.

Lưu ý rằng web3 ai depins cũng sẽ cần cải thiện dần dần các dịch vụ của mình và cung cấp các dịch vụ cấp doanh nghiệp, như đăng nhập đơn, tuân thủ SOC 2, thỏa thuận mức dịch vụ (SLAs) và nhiều hơn nữa. Điều này sẽ phản ánh các dịch vụ trong các dịch vụ đám mây hiện tại mà khách hàng web2 đang tận hưởng hiện tại.

Lợi ích thực sự # 3: Các mô hình không bị kiểm duyệt để tránh tự kiểm duyệt OpenAI

Đã có nhiều cuộc trò chuyện về việc kiểm duyệt trí tuệ nhân tạo. Ví dụ, Thổ Nhĩ Kỳ đã tạm thời cấm openai (sau đó họ đã đảo ngược quyết định đó khi openai cải thiện sự tuân thủ của mình). Chúng tôi tin rằng loại kiểm duyệt ở cấp độ quốc gia như thế này về cơ bản là không thú vị vì các quốc gia sẽ cần phải đón nhận trí tuệ nhân tạo để duy trì sự cạnh tranh.

Điều thú vị hơn là OpenAI tự kiểm duyệt mình. Ví dụ, OpenAI sẽ không xử lý nội dung NSFW. Cũng như OpenAI không dự đoán cuộc bầu cử tổng thống tiếp theo. Chúng tôi nghĩ rằng có một thị trường lớn và thú vị cho các trường hợp sử dụng trí tuệ nhân tạo mà OpenAI sẽ không chạm vào vì lí do chính trị.

việc công khai mã nguồn là một giải pháp tuyệt vời cho vấn đề này, vì một kho lưu trữ github không phụ thuộc vào cổ đông hay hội đồng quản trị. một ví dụ về điều này là Venice.aiWeb3 AI có thể hiệu quả nâng cao các mô hình phần mềm mã nguồn mở (OSS) này bằng cách cung cấp sức mạnh tính toán của các cụm GPU giá rẻ hơn để thực hiện suy luận. Điều quan trọng là Web3 AI đảm bảo giữ cho sự riêng tư không bị xâm phạm và hoạt động một cách không bị kiểm duyệt. Chính vì vậy, chúng tôi tin rằng OSS + Web3 là sự kết hợp lý tưởng để mở đường cho trí tuệ nhân tạo không bị kiểm duyệt.

lợi ích thực sự thứ 4: tránh gửi thông tin cá nhân nhận dạng đến openai

Nhiều doanh nghiệp lớn có mối quan tâm về quyền riêng tư về dữ liệu nội bộ doanh nghiệp của họ. Đối với những khách hàng này, có thể cực kỳ khó tin tưởng vào một bên thứ ba tập trung, như OpenAI, với dữ liệu đó.

Với web3, có vẻ (ở bề mặt) ngay cả đối với các doanh nghiệp này, vì dữ liệu nội bộ của họ đột nhiên trên một mạng lưới phân cấp. Tuy nhiên, có một số đổi mới trong các công nghệ nâng cao quyền riêng tư cho trí tuệ nhân tạo:

  • môi trường thực thi đáng tin cậy (TEE) như Tiền điện tử Siêu giao thức
  • mã hóa toàn bộ (FHE) như Fhenix.io(một công ty trong danh mục của một quỹ được quản lý bởi hack vc) hoặc Mạng Inco(mỗi người đều được cung cấp bởiZama.ai) và ppml của Bagel

Các công nghệ này vẫn đang tiếp tục phát triển, và hiệu suất vẫn đang được cải thiện thông qua các chip asic zero knowledge (zk) và fhe sắp tới. Nhưng mục tiêu dài hạn là bảo vệ dữ liệu doanh nghiệp khi điều chỉnh mô hình. Khi các giao thức này xuất hiện, web3 có thể trở thành một địa điểm hấp dẫn hơn cho tính toán trí tuệ bảo vệ quyền riêng tư.

lợi ích thực sự #5: tận dụng những đổi mới mới nhất trong các mô hình mã nguồn mở

OSS đã liên tục làm xói mòn thị phần của phần mềm độc quyền trong vài thập kỷ qua. Chúng tôi xem LLM chỉ đơn giản là một dạng phần mềm độc quyền ưa thích đã chín muồi cho sự gián đoạn OSS. Một vài ví dụ đáng chú ý về những người thách thức bao gồm: Llama, RWKV, và Mistral.ai. danh sách này sẽ không thể tránh khỏi mở rộng theo thời gian (một danh sách toàn diện hơn có sẵn tại Openrouter.ai). bằng cách tận dụng web3 ai (được cung cấp bởi các mô hình oss) người có thể tận dụng những đổi mới mới này.

Chúng tôi tin rằng khi thời gian trôi qua, một lực lượng lao động phát triển toàn cầu mã nguồn mở, kết hợp với động cơ tiền điện tử, có thể thúc đẩy đổi mới nhanh chóng trong các mô hình mã nguồn mở, cũng như các đại lý và khung xây dựng được xây dựng trên chúng. Một ví dụ về giao thức đại lý trí tuệ nhân tạo làTheoriq. theoriq sử dụng các mô hình oss để tạo ra một mạng lưới liên kết có thể sáng tạo của các đại lý trí tuệ nhân tạo có thể được lắp ráp để tạo ra các giải pháp trí tuệ nhân tạo cấp cao hơn.

Lý do chúng tôi có niềm tin ở đây là do quá khứ: hầu hết "phần mềm dành cho nhà phát triển" đã dần bị OSS đổi mới theo thời gian. Microsoft từng là một công ty phần mềm độc quyền, và bây giờ họ là công ty #1 đóng góp cho GitHub, và có một lý do cho điều đó. Nếu bạn nhìn vào cách Databricks, PostgresSQL, MongoDB và những người khác đã phá vỡ cơ sở dữ liệu độc quyền, đó là một ví dụ về toàn bộ ngành công nghiệp đã bị OSS đảo lộn, vì vậy tiền lệ ở đây khá mạnh.

Tuy nhiên, điều này đi kèm với một điều kiện. Một trong những vấn đề khó khăn với các hệ thống quản lý học tập mã nguồn mở là OpenAI đã bắt đầu tạo ra các thỏa thuận cấp phép dữ liệu có phí với các tổ chức, như reddit và New York Times. Nếu xu hướng này tiếp tục, có thể trở nên khó khăn hơn đối với các hệ thống quản lý học tập mã nguồn mở để cạnh tranh do rào cản tài chính liên quan đến việc họ có được dữ liệu. Có thể có khả năng là Nvidia tập trung mạnh mẽ vào tính bảo mật của tính toán bảo mật như một công cụ chia sẻ dữ liệu an toàn. Thời gian sẽ cho biết điều này sẽ diễn ra như thế nào.

Lợi ích thực sự #6: sự đồng thuận được đạt được thông qua mẫu ngẫu nhiên với chi phí cắt giảm cao, hoặc thông qua các chứng minh zk

Một trong những thách thức với suy luận AI Web3 là xác minh. Có một cơ hội giả định cho người xác thực gian lận kết quả của họ để kiếm phí, vì vậy xác minh suy luận là một biện pháp quan trọng. Lưu ý rằng sự gian lận này chưa thực sự xảy ra, bởi vì suy luận AI đang ở giai đoạn sơ khai, nhưng nó không thể tránh khỏi trừ khi các biện pháp được thực hiện để không khuyến khích hành vi đó.

Phương pháp web3 tiêu chuẩn là có nhiều người xác nhận lặp lại cùng một thao tác và so sánh kết quả. Thách thức rõ ràng của việc này là, như đã ghi nhận, suy luận trí tuệ nhân tạo đắt đỏ do thiếu hụt hiện tại của chip nvidia cao cấp. Với việc web3 có thể cung cấp suy luận chi phí thấp thông qua các gpu không được sử dụng đầy đủ, tính toán dư thừa sẽ làm suy giảm nghiêm trọng đề xuất giá trị của web3.

Một giải pháp hứa hẹn hơn là thực hiện một chứng minh zk cho tính toán suy luận trên chuỗi ngoại. Trong trường hợp này, chứng minh zk ngắn gọn có thể được xác minh để xác định rằng một mô hình đã được đào tạo đúng cách, hoặc suy luận đã được chạy đúng cách (được gọi là zkml). Ví dụ bao gồm Modulus labsZKonduit. hiệu suất của những giải pháp này vẫn còn non trẻ vì các hoạt động zk khá tốn công suất tính toán. Tuy nhiên, chúng tôi dự đoán rằng điều này có thể sẽ cải thiện khi phần cứng zk asics được phát hành trong tương lai gần.

Ý tưởng một cách “lạc quan” hơn nhiều là phương pháp suy luận trí tuệ nhân tạo dựa trên mẫu số. Trong mô hình này, bạn chỉ cần xác minh một phần trăm rất nhỏ kết quả được tạo ra bởi các người xác minh, nhưng thiết lập chi phí kinh tế cắt giảm đủ cao để nếu bị bắt, nó sẽ tạo ra một sự không khích lịch sự kinh tế mạnh mẽ đối với người xác minh gian lận. Điều này giúp bạn tiết kiệm công việc tính toán dư thừa (ví dụ, xem Hyperbolic’sBằng chứng của mẫu giấy mẫu.

Ý tưởng hứa hẹn khác là một giải pháp đánh dấu và vân tay nước, như một đề xuất của mộtMạng Bagel. Điều này tương tự cơ chế đảm bảo chất lượng của Amazon Alexa đối với các mô hình trí tuệ nhân tạo trên thiết bị của họ cho hàng triệu thiết bị.

lợi ích thực sự #7: tiết kiệm phí (margin của openai) qua oss

Cơ hội tiếp theo mà web3 mang đến cho trí tuệ nhân tạo là làm cho chi phí dân chủ hóa. Cho đến nay, chúng ta đã nói về việc tiết kiệm chi phí GPU thông qua depins. Nhưng web3 cũng cung cấp cơ hội để tiết kiệm lợi nhuận của các dịch vụ trí tuệ nhân tạo trung tâm web2 (ví dụ: openai, hiện đang có doanh thu hơn 1 tỷ đô la/năm vào thời điểm viết này). Sự tiết kiệm chi phí này đến từ việc sử dụng các mô hình OSS thay vì mô hình độc quyền để tiết kiệm thêm chi phí vì người tạo ra mô hình không cố gắng kiếm lợi nhuận.

nhiều mô hình oss sẽ vẫn hoàn toàn miễn phí, điều này cho phép kinh tế tốt nhất cho khách hàng. nhưng cũng có thể có một số mô hình oss cố gắng áp dụng các phương pháp thương mại hóa này. hãy xem xét rằng chỉ có 4% tổng số mô hình trên hugging face được huấn luyện bởi các công ty có ngân sách để hỗ trợ cho mô hình (xem ở đây). 96% còn lại của các mô hình được đào tạo bởi cộng đồng. nhóm này - 96% của hugging face - có chi phí thực tế cơ bản (bao gồm chi phí tính toán và chi phí dữ liệu). vì vậy, những mô hình đó sẽ cần cách nào đó để thực hiện việc kiếm tiền.

có một số đề xuất để thực hiện việc tiền điện tử hóa các mô hình này. Một trong những điều thú vị nhất là khái niệm về “sự cung cấp mô hình ban đầu” (imo) trong đó bạn bóc tách mô hình chính nó, giữ lại một phần trăm token cho nhóm và dòng thu nhập tương lai từ mô hình đó cho người nắm giữ token, mặc dù rõ ràng có một số rào cản pháp lý và quy định ở đó.

mô hình oss khác sẽ cố gắng kiếm tiền từ việc sử dụng. lưu ý rằng nếu điều này thành hiện thực, các mô hình oss có thể bắt đầu ngày càng giống các đối tác tạo lợi nhuận web2 của họ. Nhưng, theo thực tế, thị trường sẽ được chia thành hai phần, với một số mô hình vẫn hoàn toàn miễn phí.

lợi ích thực sự #8: nguồn dữ liệu phi tập trung

Một trong những thách thức lớn nhất của trí tuệ nhân tạo là tìm nguồn dữ liệu phù hợp để huấn luyện mô hình của bạn. Chúng tôi đã đề cập trước đó rằng huấn luyện trí tuệ nhân tạo phi tập trung có những thách thức của riêng nó. Nhưng sao về việc sử dụng một mạng lưới phi tập trung để tìm nguồn dữ liệu (sau đó có thể được sử dụng để huấn luyện ở nơi khác, thậm chí ở các địa điểm web2 truyền thống)?

đây chính xác là những gì các start-up như Cỏ đang làm. Grass là một mạng lưới phi tập trung gồm các "người thu thập dữ liệu", những cá nhân đóng góp sức mạnh xử lý nhàn rỗi của máy của họ vào việc tìm nguồn cung ứng dữ liệu để thông báo cho việc đào tạo các mô hình AI. Theo giả thuyết, ở quy mô lớn, nguồn cung ứng dữ liệu này có thể vượt trội so với bất kỳ nỗ lực nội bộ nào của một công ty để tìm nguồn dữ liệu do sức mạnh tuyệt đối của một mạng lưới lớn các nút được khuyến khích. Điều này bao gồm không chỉ tìm nguồn cung ứng nhiều dữ liệu hơn mà còn tìm nguồn cung ứng dữ liệu đó thường xuyên hơn để dữ liệu có liên quan và cập nhật hơn. Cũng hầu như không thể ngăn chặn một đội quân thu thập dữ liệu phi tập trung, vì chúng vốn đã bị phân mảnh và không nằm trong một địa chỉ IP duy nhất. Họ cũng có một mạng lưới con người có thể làm sạch và chuẩn hóa dữ liệu, để nó hữu ích sau khi được cạo.

khi bạn đã có dữ liệu, bạn cũng cần một nơi để lưu trữ nó trên chuỗi, cũng như các llms được tạo ra từ dữ liệu đó.0g.AIđang là nhà lãnh đạo sớm nhất trong danh mục này. Đây là một giải pháp lưu trữ web3 tối ưu hóa trí tuệ nhân tạo đạt hiệu suất cao và giá thành đáng kể thấp hơn so với AWS (một chiến thắng kinh tế khác cho web3 AI), đồng thời cũng phục vụ như cơ sở hạ tầng sẵn sàng dữ liệu cho Layer 2s, AI và nhiều hơn thế nữa.

Lưu ý rằng vai trò của dữ liệu có thể thay đổi trong web3 ai trong tương lai. Hiện nay, tình trạng hiện tại của LLMS là tiền huấn luyện một mô hình với dữ liệu và điều chỉnh nó theo thời gian với thêm dữ liệu. Tuy nhiên, những mô hình đó luôn hơi lạc hậu vì dữ liệu trên mạng thay đổi theo thời gian thực. Vì vậy, các phản hồi từ suy luận LLMS có chút không chính xác.

tương lai của thế giới có thể đang đi đến một mô hình mới – dữ liệu “thời gian thực”. Ý tưởng là khi một llm được hỏi một câu hỏi suy luận, llm đó có thể sử dụng tiêm prompt dữ liệu vào llm, nơi mà dữ liệu được thu thập vào thời gian thực từ internet. Điều đó giúp llm sử dụng dữ liệu cập nhật nhất có thể. Grass cũng đang nghiên cứu vấn đề này.

kết luận

Chúng tôi hy vọng rằng điều này sẽ là một phân tích hữu ích cho bạn khi suy nghĩ về những lời hứa so với thực tế của trí tuệ nhân tạo web3. Điều này chỉ là một điểm khởi đầu cho cuộc trò chuyện, và cảnh quan đang thay đổi nhanh chóng, vì vậy xin đừng ngần ngại tham gia và thể hiện quan điểm của bạn, vì chúng tôi rất mong muốn tiếp tục học hỏi và xây dựng cùng nhau.

cảm ơn

một lời cảm ơn rất đặc biệt đến albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng, và jw wang vì phản hồi và đóng góp của họ vào bài đăng này.


Thông tin trong tài liệu này chỉ mang tính chất thông tin chung và không có ý định cung cấp hoặc tạo thành lời khuyên đầu tư và không nên được sử dụng trong quá trình đánh giá bất kỳ quyết định đầu tư nào. Thông tin như vậy không nên được sử dụng làm căn cứ cho lời khuyên kế toán, pháp lý, thuế, kinh doanh, đầu tư hoặc lĩnh vực khác. Bạn nên tham khảo ý kiến từ những cố vấn của mình, bao gồm cố vấn pháp lý riêng của bạn, về các lĩnh vực kế toán, pháp lý, thuế, kinh doanh, đầu tư hoặc lĩnh vực khác, bao gồm cả những điều được thảo luận trong tài liệu này.

Bài đăng này phản ánh ý kiến hiện tại của (các) tác giả và không được thực hiện thay mặt cho Hack VC hoặc các chi nhánh của nó, bao gồm bất kỳ khoản tiền nào do Hack VC quản lý và không nhất thiết phản ánh ý kiến của Hack VC, các chi nhánh của nó, bao gồm các chi nhánh đối tác chung hoặc bất kỳ cá nhân nào khác có liên quan đến Hack VC. Một số thông tin trong tài liệu này đã được thu thập từ các nguồn được công bố và / hoặc được chuẩn bị bởi các bên thứ ba và trong một số trường hợp nhất định chưa được cập nhật cho đến ngày này. Mặc dù các nguồn như vậy được cho là đáng tin cậy, nhưng cả Hack VC, các chi nhánh của nó, bao gồm các chi nhánh đối tác chung hoặc bất kỳ cá nhân nào khác liên quan đến Hack VC đều không đưa ra tuyên bố về tính chính xác hoặc đầy đủ của chúng và chúng không nên được dựa vào như vậy hoặc là cơ sở cho kế toán, pháp lý, thuế, kinh doanh, đầu tư hoặc quyết định khác. Thông tin ở đây không nhằm mục đích đầy đủ và có thể thay đổi và hack VC không có nghĩa vụ phải cập nhật thông tin đó hoặc đưa ra bất kỳ thông báo nào nếu thông tin đó trở nên không chính xác.

hiệu suất trong quá khứ không nhất thiết là chỉ báo của kết quả trong tương lai. bất kỳ tuyên bố hướng tới tương lai nào được đưa ra ở đây đều dựa trên một số giả định và phân tích được tác giả thực hiện dựa trên kinh nghiệm và nhận thức về xu hướng lịch sử, điều kiện hiện tại và sự phát triển tương lai dự kiến, cũng như các yếu tố khác mà ông tin rằng phù hợp trong hoàn cảnh hiện tại. những tuyên bố như vậy không đảm bảo hiệu suất trong tương lai và phải chịu một số rủi ro, không chắc chắn và giả định mà khó có thể dự đoán.

tuyên bố:

  1. bài viết này được sao chép từ [Hack vc], tiêu đề gốc "AI x Crypto - Lời hứa và thực tế", bản quyền thuộc về tác giả gốc [Ed Roman, Đối tác quản lý tại Hack VC], nếu bạn có bất kỳ phản đối nào đối với việc tái bản, vui lòng liên hệ Nhóm học viên cổng Gate, nhóm sẽ xử lý càng sớm càng tốt theo các quy trình liên quan.

  2. tất cả các quan điểm và ý kiến được thể hiện trong bài viết này chỉ đại diện cho quan điểm cá nhân của tác giả và không hình thành bất kỳ lời khuyên đầu tư nào.

  3. Các phiên bản ngôn ngữ khác của bài viết được dịch bởi nhóm Gate.io learn, không được đề cập trong Gate.io, bài viết dịch có thể không được sao chép, phân phối hoặc đạo văn.

Bắt đầu giao dịch
Đăng ký và giao dịch để nhận phần thưởng USDTEST trị giá
$100
$5500