Phân tích trong Độ sâu: AI và Web3 có thể tạo ra loại tia lửa nào?

Nâng caoJun 07, 2024
Bài viết này khám phá sự phát triển nhanh chóng của các công nghệ Trí tuệ nhân tạo (AI) và Web3 cũng như giá trị và tác động tiềm năng của việc tích hợp chúng. AI vượt trội trong việc nâng cao năng suất, trong khi Web3 chuyển đổi các mối quan hệ sản xuất thông qua phân cấp. Sự kết hợp của các công nghệ này mang lại các ứng dụng sáng tạo trong phân tích dữ liệu, dịch vụ người dùng được cá nhân hóa và bảo vệ quyền riêng tư và bảo mật.
Phân tích trong Độ sâu: AI và Web3 có thể tạo ra loại tia lửa nào?

Giới thiệu: Phát triển AI + Web3

Trong những năm gần đây, sự phát triển nhanh chóng của công nghệ Trí tuệ nhân tạo (AI) và Web3 đã thu hút sự chú ý rộng rãi trên toàn cầu. AI, một công nghệ mô phỏng và bắt chước trí thông minh của con người, đã đạt được những bước đột phá đáng kể trong các lĩnh vực như nhận dạng khuôn mặt, xử lý ngôn ngữ tự nhiên và học máy. Sự tiến bộ nhanh chóng của công nghệ AI đã mang lại sự chuyển đổi và đổi mới to lớn trong các ngành công nghiệp khác nhau.

Ngành công nghiệp AI đạt quy mô thị trường 200 tỷ USD vào năm 2023, với những gã khổng lồ trong ngành và những người chơi nổi bật như OpenAI, Character.AI và Midjourney nổi lên nhanh chóng và dẫn đầu sự bùng nổ AI.

Đồng thời, Web3, một mô hình internet mới nổi, đang dần thay đổi nhận thức và cách sử dụng internet của chúng ta. Dựa trên công nghệ blockchain phi tập trung, Web3 nhận ra việc chia sẻ và kiểm soát dữ liệu, quyền tự chủ của người dùng và thiết lập các cơ chế tin cậy thông qua các tính năng như hợp đồng thông minh, lưu trữ phân tán và xác minh danh tính phi tập trung. Ý tưởng cốt lõi của Web3 là giải phóng dữ liệu khỏi các cơ quan tập trung, cấp cho người dùng quyền kiểm soát và khả năng chia sẻ giá trị dữ liệu của họ.

Hiện tại, giá trị thị trường của ngành công nghiệp Web3 đã đạt 25 nghìn tỷ USD. Từ Bitcoin, Ethereum và Solana đến những người chơi cấp ứng dụng như Uniswap và Stepn, các câu chuyện và kịch bản mới liên tục xuất hiện, thu hút ngày càng nhiều người tham gia vào ngành công nghiệp Web3.

Rõ ràng là sự tích hợp của AI và Web3 là tâm điểm cho các nhà xây dựng và nhà đầu tư mạo hiểm từ cả phương Đông và phương Tây. Khám phá cách kết hợp hiệu quả hai công nghệ này là một nỗ lực rất đáng giá.

Bài viết này sẽ tập trung vào tình trạng phát triển AI + Web3 hiện tại, khám phá giá trị tiềm năng và tác động của việc tích hợp chúng. Trước tiên chúng tôi sẽ giới thiệu các khái niệm và đặc điểm cơ bản của AI và Web3, sau đó thảo luận về mối quan hệ tương tác của chúng. Sau đó, chúng tôi sẽ phân tích tình trạng hiện tại của các dự án AI + Web3 và đi sâu vào những hạn chế và thách thức mà chúng phải đối mặt. Thông qua nghiên cứu này, chúng tôi mong muốn cung cấp các tài liệu tham khảo và hiểu biết có giá trị cho các nhà đầu tư và các chuyên gia trong ngành.

Cách AI tương tác với Web3

Sự phát triển của AI và Web3 có thể được xem là hai mặt của thang đo: AI mang lại những cải tiến về năng suất, trong khi Web3 cách mạng hóa các mối quan hệ sản xuất. Vậy, AI và Web3 có thể tạo ra loại tia lửa nào khi chúng va chạm? Trước tiên, chúng tôi sẽ phân tích những thách thức và cải tiến tiềm năng trong ngành công nghiệp AI và Web3, sau đó khám phá cách chúng có thể giúp giải quyết các vấn đề của nhau.

  1. Những thách thức và cải tiến tiềm năng trong ngành công nghiệp AI
  2. Những thách thức và những cải tiến tiềm năng trong ngành Web3

2.1 Những thách thức trong ngành AI

Để khám phá những thách thức mà ngành công nghiệp AI phải đối mặt, trước tiên chúng ta phải hiểu bản chất của nó. Cốt lõi của ngành công nghiệp AI xoay quanh ba yếu tố chính: sức mạnh tính toán, thuật toán và dữ liệu.

  1. Đầu tiên, sức mạnh tính toán: Sức mạnh tính toán đề cập đến khả năng thực hiện tính toán và xử lý quy mô lớn. Các tác vụ AI thường yêu cầu xử lý một lượng lớn dữ liệu và thực hiện các tính toán phức tạp, chẳng hạn như đào tạo các mô hình mạng nơ-ron sâu. Sức mạnh tính toán cao có thể đẩy nhanh quá trình đào tạo và suy luận mô hình, nâng cao hiệu suất và hiệu quả của các hệ thống AI. Trong những năm gần đây, những tiến bộ trong công nghệ phần cứng, chẳng hạn như bộ xử lý đồ họa (GPU) và chip AI chuyên dụng (như TPU), đã thúc đẩy đáng kể sức mạnh tính toán, thúc đẩy sự phát triển của ngành công nghiệp AI. Nvidia, một nhà cung cấp GPU lớn, đã chứng kiến giá cổ phiếu của mình tăng vọt trong những năm gần đây, chiếm thị phần lớn và kiếm được lợi nhuận đáng kể.
  2. Thuật toán là gì: Thuật toán là thành phần cốt lõi của hệ thống AI. Chúng là các phương pháp toán học và thống kê được sử dụng để giải quyết vấn đề và thực hiện các nhiệm vụ. Các thuật toán AI có thể được phân loại thành các thuật toán học máy truyền thống và thuật toán học sâu, với các thuật toán học sâu đã có những bước đột phá đáng kể trong những năm gần đây. Việc lựa chọn và thiết kế các thuật toán là rất quan trọng đối với hiệu suất và hiệu quả của các hệ thống AI. Cải tiến và đổi mới liên tục trong các thuật toán có thể nâng cao độ chính xác, mạnh mẽ và khả năng khái quát hóa của các hệ thống AI. Các thuật toán khác nhau mang lại kết quả khác nhau, vì vậy những tiến bộ trong thuật toán là điều cần thiết cho hiệu suất tác vụ.
  3. Tại sao dữ liệu lại quan trọng: Nhiệm vụ cốt lõi của các hệ thống AI là trích xuất các mẫu và quy tắc từ dữ liệu thông qua học tập và đào tạo. Dữ liệu tạo thành nền tảng cho việc đào tạo và tối ưu hóa các mô hình. Với các mẫu dữ liệu quy mô lớn, các hệ thống AI có thể tìm hiểu các mô hình chính xác và thông minh hơn. Bộ dữ liệu phong phú cung cấp thông tin toàn diện và đa dạng, cho phép các mô hình khái quát hóa tốt hơn cho dữ liệu không nhìn thấy và giúp các hệ thống AI hiểu rõ hơn và giải quyết các vấn đề trong thế giới thực.

Sau khi hiểu ba yếu tố cốt lõi của AI hiện tại, hãy xem xét những khó khăn và thách thức mà AI phải đối mặt trong các lĩnh vực này.

Đầu tiên, về sức mạnh tính toán, các tác vụ AI thường đòi hỏi một lượng lớn tài nguyên tính toán để đào tạo và suy luận mô hình, đặc biệt là đối với các mô hình học sâu. Tuy nhiên, có được và quản lý sức mạnh tính toán quy mô lớn là một thách thức tốn kém và phức tạp. Chi phí, tiêu thụ năng lượng và bảo trì thiết bị máy tính hiệu suất cao là những vấn đề quan trọng. Điều này đặc biệt khó khăn đối với các công ty khởi nghiệp và các nhà phát triển cá nhân, những người có được đủ sức mạnh tính toán có thể khó khăn.

Về thuật toán, mặc dù các thuật toán deep learning đã đạt được những thành công đáng kể trong nhiều lĩnh vực, nhưng vẫn còn những thách thức và khó khăn. Ví dụ, đào tạo mạng nơ-ron sâu đòi hỏi một lượng lớn dữ liệu và tài nguyên tính toán. Ngoài ra, đối với một số nhiệm vụ nhất định, khả năng diễn giải và giải thích của các mô hình có thể không đủ. Sự mạnh mẽ và khả năng khái quát hóa của các thuật toán cũng là những vấn đề quan trọng, vì hiệu suất mô hình trên dữ liệu không nhìn thấy có thể không ổn định. Tìm ra thuật toán tốt nhất để cung cấp hiệu suất tối ưu trong số nhiều thuật toán là một khám phá liên tục.

Về mặt dữ liệu, dữ liệu là động lực đằng sau AI, nhưng việc có được dữ liệu đa dạng, chất lượng cao vẫn là một thách thức. Dữ liệu trong một số lĩnh vực, chẳng hạn như dữ liệu sức khỏe nhạy cảm trong lĩnh vực y tế, có thể khó có được. Hơn nữa, chất lượng, độ chính xác và ghi nhãn dữ liệu là những vấn đề quan trọng, vì dữ liệu không đầy đủ hoặc sai lệch có thể dẫn đến hành vi hoặc sai lệch của mô hình. Bảo vệ quyền riêng tư và bảo mật dữ liệu cũng là một cân nhắc đáng kể.

Hơn nữa, có những vấn đề liên quan đến khả năng diễn giải và tính minh bạch. Bản chất "hộp đen" của các mô hình AI là mối quan tâm của công chúng. Trong một số ứng dụng nhất định, chẳng hạn như tài chính, chăm sóc sức khỏe và tư pháp, quá trình ra quyết định của các mô hình cần phải được giải thích và theo dõi. Tuy nhiên, các mô hình deep learning hiện tại thường thiếu minh bạch. Giải thích quá trình ra quyết định của các mô hình và cung cấp các giải thích đáng tin cậy vẫn còn nhiều thách thức.

Ngoài ra, mô hình kinh doanh của nhiều dự án khởi nghiệp AI chưa rõ ràng lắm, điều này cũng gây nhầm lẫn cho nhiều doanh nhân AI.

2.2 Những thách thức trong ngành Web3

Trong ngành công nghiệp Web3, có rất nhiều thách thức cần được giải quyết, trải dài từ phân tích dữ liệu và trải nghiệm người dùng đến các lỗ hổng hợp đồng thông minh và các cuộc tấn công của tin tặc. AI, như một công cụ để nâng cao năng suất, nắm giữ tiềm năng đáng kể trong các lĩnh vực này.

Thứ nhất, có chỗ để cải thiện khả năng phân tích dữ liệu và dự đoán. Các ứng dụng AI trong phân tích và dự đoán dữ liệu đã có tác động đáng kể đến ngành công nghiệp Web3. Thông qua phân tích và khai thác thông minh bằng thuật toán AI, nền tảng Web3 có thể trích xuất thông tin có giá trị từ lượng dữ liệu khổng lồ và đưa ra dự đoán và quyết định chính xác hơn. Điều này đặc biệt quan trọng đối với việc đánh giá rủi ro, dự báo thị trường và quản lý tài sản trong tài chính phi tập trung (DeFi).

Ngoài ra, có tiềm năng nâng cao trải nghiệm người dùng và các dịch vụ cá nhân hóa. Các ứng dụng AI cho phép các nền tảng Web3 cung cấp trải nghiệm người dùng tốt hơn và các dịch vụ được cá nhân hóa. Bằng cách phân tích và mô hình hóa dữ liệu người dùng, nền tảng Web3 có thể cung cấp các đề xuất được cá nhân hóa, dịch vụ tùy chỉnh và trải nghiệm tương tác thông minh. Điều này giúp tăng mức độ tương tác và hài lòng của người dùng, thúc đẩy sự phát triển của hệ sinh thái Web3. Chẳng hạn, nhiều giao thức Web3 tích hợp các công cụ AI như ChatGPT để phục vụ người dùng tốt hơn.

Về bảo mật và bảo vệ quyền riêng tư, các ứng dụng AI cũng có tác động sâu sắc đến ngành công nghiệp Web3. Công nghệ AI có thể được sử dụng để phát hiện và bảo vệ chống lại các cuộc tấn công mạng, xác định hành vi bất thường và cung cấp các biện pháp bảo mật mạnh mẽ hơn. Ngoài ra, AI có thể được áp dụng để bảo vệ quyền riêng tư dữ liệu, bảo vệ thông tin cá nhân của người dùng trên nền tảng Web3 thông qua các kỹ thuật như mã hóa dữ liệu và điện toán quyền riêng tư. Về kiểm toán hợp đồng thông minh, vì các lỗ hổng và rủi ro bảo mật có thể tồn tại trong quá trình viết và kiểm toán hợp đồng thông minh, công nghệ AI có thể được sử dụng để kiểm toán hợp đồng tự động và phát hiện lỗ hổng, tăng cường tính bảo mật và độ tin cậy của hợp đồng.

Rõ ràng là AI có thể đóng góp đáng kể vào việc giải quyết những thách thức và cải tiến tiềm năng trong ngành công nghiệp Web3 trên nhiều khía cạnh khác nhau.

Phân tích tình hình hiện tại của dự án AI + Web3

Kết hợp các dự án AI và Web3 chủ yếu tập trung vào hai khía cạnh chính: tận dụng công nghệ blockchain để tăng cường các dự án AI và sử dụng công nghệ AI để phục vụ cải tiến các dự án Web3. Nhiều dự án đã xuất hiện dọc theo con đường này, bao gồm Io.net, Gensyn, Ritual, trong số những dự án khác. Phân tích sau đây sẽ đi sâu vào các tên miền phụ khác nhau nơi AI hỗ trợ Web3 và nơi Web3 tăng cường AI.

3.1 Web3 giúp AI

3.1.1 Khả năng tính toán phi tập trung

Kể từ khi OpenAI ra mắt ChatGPT vào cuối năm 2022, nó đã châm ngòi cho một cơn sốt trong lĩnh vực AI. Trong vòng năm ngày kể từ khi phát hành, cơ sở người dùng đã đạt một triệu, vượt qua tỷ lệ tải xuống của Instagram, mất khoảng hai tháng rưỡi để đạt được cột mốc tương tự. Sau đó, ChatGPT đã có sự tăng trưởng nhanh chóng, với người dùng hoạt động hàng tháng đạt 100 triệu trong vòng hai tháng và người dùng hoạt động hàng tuần đạt 100 triệu vào tháng 11/2023. Với sự ra đời của ChatGPT, lĩnh vực AI nhanh chóng chuyển đổi từ một lĩnh vực thích hợp sang một ngành được đánh giá cao.

Theo báo cáo của Trendforce, ChatGPT yêu cầu 30.000 GPU NVIDIA A100 để hoạt động và các mô hình trong tương lai như GPT-5 sẽ đòi hỏi nhiều sức mạnh tính toán hơn nữa. Điều này đã gây ra một cuộc chạy đua vũ trang giữa các công ty AI khác nhau, vì sở hữu đủ sức mạnh tính toán là rất quan trọng để duy trì lợi thế cạnh tranh trong lĩnh vực AI, dẫn đầu thiếu GPU.

Trước khi AI tăng lên, nhà cung cấp GPU lớn, NVIDIA, chủ yếu phục vụ khách hàng từ ba dịch vụ đám mây chính: AWS, Azure và GCP. Với sự tăng lên của trí tuệ nhân tạo, nhiều người mua mới đã xuất hiện, bao gồm các công ty công nghệ lớn như Meta, Oracle, cũng như các nền tảng dữ liệu khác và các công ty khởi nghiệp AI, tất cả đều tham gia cuộc đua dự trữ GPU để đào tạo các mô hình AI. Các công ty công nghệ lớn như Meta và Tesla đã tăng đáng kể việc mua các mô hình AI tùy chỉnh và nghiên cứu nội bộ. Các công ty mô hình cơ bản như Anthropic và các nền tảng dữ liệu như Snowflake và Databricks cũng đã mua thêm GPU để hỗ trợ khách hàng của họ cung cấp dịch vụ AI.

Như Semi Analysis đã đề cập vào năm ngoái, tồn tại sự phân chia giữa các công ty "giàu GPU" và "nghèo GPU", chỉ một số ít sở hữu hơn 20.000 GPU A100 / H100, cho phép các thành viên trong nhóm sử dụng từ 100 đến 1000 GPU cho các dự án. Các công ty này là nhà cung cấp đám mây hoặc đã xây dựng các mô hình ngôn ngữ lớn (LLM) của riêng họ, bao gồm OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, trong số những công ty khác.

Tuy nhiên, phần lớn các công ty giảm vào danh mục "GPU kém", phải vật lộn với GPU ít hơn đáng kể và dành một lượng thời gian và công sức đáng kể cho các tác vụ khó khăn hơn để thúc đẩy hệ sinh thái. Hơn nữa, tình trạng này không chỉ giới hạn ở các công ty khởi nghiệp. Một số công ty AI nổi tiếng nhất, chẳng hạn như Hugging Face, Databricks (MosaicML), Together và thậm chí cả Snowflake, có số lượng A100 / H100 ít hơn 20.000. Mặc dù có tài năng kỹ thuật đẳng cấp thế giới, các công ty này bị hạn chế bởi nguồn cung GPU hạn chế, khiến họ gặp bất lợi so với các công ty lớn hơn trong cuộc cạnh tranh AI.

Sự thiếu hụt này không chỉ giới hạn ở danh mục "GPU kém"; thậm chí đến cuối năm 2023, người chơi AI dẫn đầu, OpenAI, đã phải tạm thời đóng đăng ký trả phí do không thể có đủ GPU và phải mua thêm nguồn cung GPU .

Rõ ràng là sự phát triển nhanh chóng của AI đã dẫn đến sự không phù hợp nghiêm trọng giữa cung và cầu của GPU, tạo ra sự thiếu hụt nguồn cung sắp xảy ra.

Để giải quyết vấn đề này, một số dự án Web3 đã bắt đầu khám phá các giải pháp sức mạnh tính toán phi tập trung, tận dụng các đặc điểm độc đáo của công nghệ Web3. Các dự án này bao gồm Akash, Render, Gensyn, trong số những dự án khác. Đặc điểm chung giữa các dự án này là sử dụng mã thông báo để khuyến khích người dùng cung cấp sức mạnh tính toán GPU nhàn rỗi, từ đó trở thành phía cung cấp sức mạnh tính toán cho hỗ trợ khách hàng AI.

Hồ sơ phía cung chủ yếu bao gồm ba khía cạnh: nhà cung cấp dịch vụ đám mây, thợ đào tiền điện tử và doanh nghiệp. Các nhà cung cấp dịch vụ đám mây bao gồm các nhà cung cấp dịch vụ đám mây lớn (như AWS, Azure, GCP) và các nhà cung cấp dịch vụ đám mây GPU (như Coreweave, Lambda, Crusoe), nơi người dùng có thể bán lại sức mạnh tính toán nhàn rỗi từ các nhà cung cấp này để tạo thu nhập. Với Ethereum chuyển đổi từ PoW sang PoS, sức mạnh tính toán GPU nhàn rỗi đã trở thành một bên cung cấp tiềm năng quan trọng cho các thợ đào tiền điện tử. Ngoài ra, các doanh nghiệp lớn như Tesla và Meta, những công ty đã mua số lượng lớn GPU cho mục đích chiến lược, cũng có thể đóng góp sức mạnh tính toán GPU nhàn rỗi của họ như một phần của phía cung.

Hiện tại, những người chơi trong lĩnh vực này thường có thể được chia thành hai loại: những người sử dụng sức mạnh tính toán phi tập trung để suy luận AI và những người sử dụng nó để đào tạo AI. Danh mục đầu tiên bao gồm các dự án như Render (mặc dù tập trung vào kết xuất, nó cũng có thể được sử dụng cho điện toán AI), Akash, Aethir, trong khi danh mục thứ hai bao gồm các dự án như io.net (hỗ trợ cả suy luận và đào tạo) và Gensyn. Sự khác biệt chính giữa hai nằm ở các yêu cầu khác nhau về sức mạnh tính toán.

Trước tiên chúng ta hãy thảo luận về các dự án tập trung vào suy luận AI. Các dự án này thu hút người dùng cung cấp sức mạnh tính toán thông qua các ưu đãi mã thông báo và sau đó cung cấp dịch vụ mạng điện toán cho phía cầu, do đó tạo điều kiện thuận lợi cho việc khớp cung và cầu sức mạnh tính toán nhàn rỗi. Thông tin chi tiết về các dự án như vậy được đề cập trong báo cáo nghiên cứu của DePIN từ Phòng thí nghiệm Ryze của chúng tôi, vui lòng đọc chúng.

Điểm cốt lõi nằm ở cơ chế khuyến khích mã thông báo, trong đó dự án đầu tiên thu hút các nhà cung cấp và sau đó là người dùng, từ đó đạt được cơ chế khởi động nguội và hoạt động cốt lõi của dự án, cho phép mở rộng và phát triển hơn nữa. Trong chu kỳ này, phía cung nhận được phần thưởng mã thông báo có giá trị hơn, trong khi phía cầu được hưởng các dịch vụ hiệu quả hơn về chi phí. Giá trị của các mã thông báo của dự án và sự tăng trưởng của cả người tham gia cung và cầu vẫn nhất quán. Khi giá token tăng, nhiều người tham gia và nhà đầu cơ bị thu hút, tạo ra một vòng lặp nắm bắt giá trị.

Một danh mục khác liên quan đến việc sử dụng sức mạnh tính toán phi tập trung để đào tạo AI, chẳng hạn như Gensyn và io.net (hỗ trợ cả đào tạo và suy luận AI). Trên thực tế, logic hoạt động của các dự án này về cơ bản không khác với các dự án suy luận AI. Họ vẫn dựa vào các ưu đãi mã thông báo để thu hút sự tham gia từ phía cung cấp để cung cấp sức mạnh tính toán, sau đó được sử dụng bởi phía cầu.

io.net, với tư cách là một mạng lưới điện toán phi tập trung, hiện tự hào có hơn 500.000 GPU, khiến nó trở thành một công cụ hoạt động nổi bật trong các dự án sức mạnh tính toán phi tập trung. Ngoài ra, nó đã tích hợp sức mạnh tính toán từ Render và Filecoin, thể hiện sự phát triển liên tục của hệ sinh thái của nó.

Hơn nữa, Gensyn tạo điều kiện phân bổ nhiệm vụ học máy và phần thưởng thông qua hợp đồng thông minh để cho phép đào tạo AI. Như minh họa trong sơ đồ bên dưới, chi phí hàng giờ cho công việc đào tạo machine learning trong Gensyn là khoảng 0,4 USD, thấp hơn đáng kể so với chi phí hơn 2 USD trên AWS và GCP.

Hệ sinh thái Gensyn liên quan đến bốn thực thể tham gia:

  • Người gửi: Đây là những người dùng theo nhu cầu, những người tiêu thụ nhiệm vụ và trả tiền cho các nhiệm vụ đào tạo AI.
  • Người thực thi: Người thực thi thực hiện các nhiệm vụ đào tạo mô hình và cung cấp bằng chứng về việc hoàn thành nhiệm vụ để xác minh.
  • Người xác minh: Người xác minh kết nối quá trình đào tạo không xác định với tính toán tuyến tính xác định. Họ so sánh các bằng chứng được cung cấp bởi người thực thi với các ngưỡng dự kiến.
  • Phóng viên: Phóng viên kiểm tra công việc của người xác minh và đưa ra các thách thức để kiếm phần thưởng khi xác định vấn đề.

Như chúng ta có thể thấy, Gensyn đặt mục tiêu trở thành một giao thức điện toán có khả năng mở rộng ồ ạt và tiết kiệm chi phí cho các mô hình học sâu toàn cầu. Tuy nhiên, nhìn vào lĩnh vực này, tại sao hầu hết các dự án lại chọn sức mạnh tính toán phi tập trung để suy luận AI thay vì đào tạo?

Chúng ta cũng hãy giúp những người bạn không quen thuộc với đào tạo và suy luận AI hiểu được sự khác biệt giữa hai loại:

  • Đào tạo AI: Nếu chúng ta ví trí tuệ nhân tạo như một sinh viên, thì đào tạo cũng tương tự như cung cấp cho AI một lượng lớn kiến thức và ví dụ, có thể hiểu là dữ liệu. AI học hỏi từ những ví dụ này. Bởi vì học tập liên quan đến việc hiểu và ghi nhớ một lượng lớn thông tin, quá trình này đòi hỏi một lượng đáng kể sức mạnh tính toán và thời gian.
  • AI Inference: Vậy suy luận là gì? Nó có thể được hiểu là sử dụng kiến thức đã học để giải quyết vấn đề hoặc làm bài kiểm tra. Trong quá trình suy luận, trí tuệ nhân tạo sử dụng kiến thức đã học để cung cấp câu trả lời, thay vì tiếp thu kiến thức mới. Do đó, các yêu cầu tính toán cho quá trình suy luận là tương đối nhỏ.

Có thể thấy rằng các yêu cầu về sức mạnh tính toán cho cả suy luận AI và đào tạo AI khác nhau đáng kể. Sự sẵn có của sức mạnh tính toán phi tập trung cho suy luận AI và đào tạo AI sẽ được phân tích sâu hơn trong phần thử thách sắp tới.

Hơn nữa, Ritual nhằm mục đích kết hợp các mạng phân tán với những người tạo mô hình để duy trì sự phân cấp và bảo mật. Sản phẩm đầu tiên của nó, Infernet, cho phép hợp đồng thông minh trên blockchain truy cập các mô hình AI off-chain, cho phép các hợp đồng đó truy cập AI theo cách duy trì xác minh, phân cấp và bảo vệ quyền riêng tư.

Điều phối viên của Infernet chịu trách nhiệm quản lý hành vi của các nút trong mạng và đáp ứng các yêu cầu tính toán từ người tiêu dùng. Khi người dùng sử dụng Infernet, các tác vụ như suy luận và bằng chứng được thực hiện off-chain, với đầu ra được trả lại cho điều phối viên và cuối cùng được truyền đến người tiêu dùng on-chain thông qua hợp đồng thông minh.

Ngoài các mạng lưới điện toán phi tập trung, còn có các mạng băng thông phi tập trung như Grass, nhằm cải thiện tốc độ và hiệu quả truyền dữ liệu. Nhìn chung, sự xuất hiện của các mạng lưới điện toán phi tập trung cung cấp một khả năng mới cho phía cung cấp sức mạnh tính toán AI, thúc đẩy AI tiến lên theo những hướng mới.

3.1.2 Mô hình thuật toán phi tập trung

Giống như đã đề cập trong chương thứ hai, ba yếu tố cốt lõi của AI là sức mạnh tính toán, thuật toán và dữ liệu. Vì sức mạnh tính toán có thể hình thành một mạng lưới cung cấp thông qua phân cấp, các thuật toán cũng có thể tuân theo một cách tiếp cận tương tự và tạo thành một mạng lưới cung cấp cho các mô hình thuật toán không?

Trước khi phân tích các dự án trong lĩnh vực này, trước tiên chúng ta hãy hiểu tầm quan trọng của các mô hình thuật toán phi tập trung. Nhiều người có thể tự hỏi, vì chúng ta đã có OpenAI, tại sao chúng ta cần một mạng thuật toán phi tập trung?

Về cơ bản, mạng thuật toán phi tập trung là một thị trường dịch vụ thuật toán AI phi tập trung kết nối nhiều mô hình AI khác nhau. Mỗi mô hình AI có chuyên môn và kỹ năng riêng. Khi người dùng đặt câu hỏi, thị trường sẽ chọn mô hình AI phù hợp nhất để trả lời câu hỏi. Chat-GPT, được phát triển bởi OpenAI, là một trong những mô hình AI như vậy có thể hiểu và tạo ra văn bản tương tự như con người.

Nói một cách đơn giản, ChatGPT giống như một sinh viên có khả năng cao giúp giải quyết các loại vấn đề khác nhau, trong khi mạng thuật toán phi tập trung giống như một trường học với nhiều sinh viên giúp giải quyết vấn đề. Mặc dù sinh viên hiện tại (ChatGPT) có năng lực cao, nhưng về long, có tiềm năng lớn cho một trường có thể tuyển dụng sinh viên từ khắp nơi trên thế giới.

Hiện nay, trong lĩnh vực mô hình thuật toán phi tập trung, cũng có một số dự án đang thử nghiệm và khám phá. Tiếp theo, chúng tôi sẽ sử dụng dự án đại diện Bittensor như một nghiên cứu điển hình để giúp hiểu sự phát triển của lĩnh vực thích hợp này.

Trong Bittensor, phía cung của các mô hình thuật toán (hoặc thợ đào) đóng góp các mô hình học máy của họ vào mạng. Các mô hình này có thể phân tích dữ liệu và cung cấp thông tin chi tiết. Các nhà cung cấp mô hình nhận mã thông báo tiền điện tử, được gọi là TAO, làm phần thưởng cho những đóng góp của họ.

Để đảm bảo chất lượng câu trả lời, Bittensor sử dụng cơ chế đồng thuận duy nhất để đạt được sự đồng thuận về câu trả lời tốt nhất. Khi một câu hỏi được đặt ra, nhiều thợ đào mô hình cung cấp câu trả lời. Sau đó, Người xác thực trong mạng bắt đầu làm việc để xác định câu trả lời tốt nhất, sau đó được gửi lại cho người dùng.

Mã thông báo TAO trong hệ sinh thái Bittensor đóng hai vai trò chính trong suốt quá trình. Một mặt, nó phục vụ như một động lực cho các thợ đào đóng góp các mô hình thuật toán cho mạng. Mặt khác, người dùng cần chi tiêu mã thông báo để đặt câu hỏi và có mạng hoàn thành nhiệm vụ.

Vì Bittensor được phân cấp, bất kỳ ai có quyền truy cập internet đều có thể tham gia mạng, với tư cách là người dùng đặt câu hỏi hoặc là người khai thác cung cấp câu trả lời. Điều này cho phép nhiều người khai thác sức mạnh của trí tuệ nhân tạo.

Tóm lại, các mạng mô hình thuật toán phi tập trung như Bittensor có tiềm năng tạo ra một cảnh quan cởi mở và minh bạch hơn. Trong hệ sinh thái này, các mô hình AI có thể được đào tạo, chia sẻ và sử dụng một cách an toàn và phi tập trung. Ngoài ra, các mạng khác như BasedAI đang cố gắng thực hiện những nỗ lực tương tự, với khía cạnh hấp dẫn của việc sử dụng Bằng chứng không có kiến thức (ZK) để bảo vệ quyền riêng tư dữ liệu tương tác của mô hình người dùng, sẽ được thảo luận thêm trong tiểu mục thứ tư.

Khi các nền tảng mô hình thuật toán phi tập trung phát triển, chúng sẽ cho phép các công ty nhỏ cạnh tranh với các tổ chức lớn trong việc sử dụng các công cụ AI tiên tiến, có khả năng có tác động đáng kể trong các ngành khác nhau.

3.1.3 Thu thập dữ liệu phi tập trung

Đối với việc đào tạo các mô hình AI, một nguồn cung cấp dữ liệu lớn là không thể thiếu. Tuy nhiên, hầu hết các công ty Web2 hiện vẫn độc quyền dữ liệu người dùng. Các nền tảng như X, Reddit, TikTok, Snapchat, Instagram và YouTube cấm thu thập dữ liệu để đào tạo AI, điều này đặt ra một trở ngại đáng kể cho sự phát triển của ngành công nghiệp AI.

Mặt khác, một số nền tảng Web2 bán dữ liệu người dùng cho các công ty AI mà không chia sẻ bất kỳ lợi nhuận nào với người dùng. Chẳng hạn, Reddit đã đạt được thỏa thuận trị giá 60 triệu USD với Google, cho phép Google đào tạo các mô hình AI bằng cách sử dụng các bài đăng của mình. Điều này dẫn đến quyền thu thập dữ liệu bị độc quyền bởi các công ty vốn lớn và dữ liệu lớn, đẩy ngành công nghiệp theo hướng thâm dụng vốn.

Để đối phó với tình huống này, một số dự án đang tận dụng các ưu đãi Web3 và mã thông báo để đạt được việc thu thập dữ liệu phi tập trung. Lấy PublicAI làm ví dụ: người dùng có thể tham gia vào hai vai trò:

  • Một danh mục là nhà cung cấp dữ liệu AI. Người dùng có thể tìm thấy nội dung có giá trị trên X, thẻ @PublicAI tài khoản chính thức với thông tin chi tiết của họ và sử dụng hashtag #AI hoặc #Web3 để phân loại nội dung, từ đó gửi nó đến trung tâm dữ liệu PublicAI để thu thập.
  • Danh mục khác là dữ liệu Người xác thực. Người dùng có thể đăng nhập vào trung tâm dữ liệu PublicAI và bình chọn dữ liệu có giá trị nhất để đào tạo AI.

Như một phần thưởng, người dùng có thể kiếm được mã thông báo thông qua những đóng góp này, thúc đẩy mối quan hệ đôi bên cùng có lợi giữa những người đóng góp dữ liệu và ngành công nghiệp AI.

Ngoài các dự án như PublicAI, đặc biệt thu thập dữ liệu để đào tạo AI, còn có nhiều dự án khác sử dụng ưu đãi mã thông báo để thu thập dữ liệu phi tập trung. Ví dụ, Ocean thu thập dữ liệu người dùng thông qua dữ liệu mã hóa kỹ thuật số để phục vụ AI, Hivemapper sử dụng camera xe hơi của người dùng để thu thập dữ liệu bản đồ, Dimo thu thập dữ liệu xe hơi và WiHi thu thập dữ liệu thời tiết. Các dự án này, thông qua thu thập dữ liệu phi tập trung, cũng đóng vai trò là nguồn dữ liệu tiềm năng cho đào tạo AI. Do đó, theo nghĩa rộng, chúng có thể được đưa vào mô hình Web3 hỗ trợ AI.

3.1.4 ZK bảo vệ quyền riêng tư của người dùng trong AI

Blockchain nghệ mang lại lợi ích phi tập trung và cũng giới thiệu một tính năng quan trọng: bằng chứng không có kiến thức. Công nghệ không có kiến thức cho phép xác minh thông tin trong khi vẫn duy trì quyền riêng tư.

Trong học máy truyền thống, dữ liệu thường cần được lưu trữ và xử lý tập trung, điều này có thể dẫn đến rủi ro về quyền riêng tư. Các phương pháp để bảo vệ quyền riêng tư dữ liệu, chẳng hạn như mã hóa hoặc ẩn danh dữ liệu, có thể hạn chế độ chính xác và hiệu suất của các mô hình học máy.

Công nghệ chứng minh không có kiến thức giúp giải quyết vấn đề nan giải này bằng cách giải quyết xung đột giữa bảo vệ quyền riêng tư và chia sẻ dữ liệu. Zero-Knowledge Machine Learning (ZKML) sử dụng công nghệ zero-knowledge proof để cho phép đào tạo và suy luận mô hình machine learning mà không làm lộ dữ liệu gốc. Bằng chứng không có kiến thức đảm bảo rằng các tính năng của dữ liệu và kết quả của mô hình có thể được xác minh là chính xác mà không tiết lộ nội dung dữ liệu thực tế.

Mục tiêu cốt lõi của ZKML là cân bằng giữa bảo vệ quyền riêng tư và chia sẻ dữ liệu. Nó có thể được áp dụng trong các tình huống khác nhau như phân tích dữ liệu chăm sóc sức khỏe, phân tích dữ liệu tài chính và hợp tác giữa các tổ chức. Bằng cách sử dụng ZKML, các cá nhân có thể bảo vệ quyền riêng tư của dữ liệu nhạy cảm của họ trong khi chia sẻ dữ liệu với những người khác để có được những hiểu biết sâu sắc hơn và cơ hội hợp tác mà không có nguy cơ vi phạm quyền riêng tư dữ liệu. Lĩnh vực này vẫn đang trong giai đoạn đầu, với hầu hết các dự án vẫn đang được thăm dò. Ví dụ, BasedAI đề xuất một cách tiếp cận phi tập trung bằng cách tích hợp liền mạch Fully Mã hóa đồng cấu (FHE) với Mô hình ngôn ngữ lớn (LLM) để duy trì tính bảo mật dữ liệu. Mô hình ngôn ngữ lớn không có kiến thức (ZK-LLM) nhúng quyền riêng tư vào cơ sở hạ tầng mạng phân tán của họ, đảm bảo rằng dữ liệu người dùng vẫn được bảo mật trong suốt quá trình hoạt động của mạng.

Dưới đây là giải thích ngắn gọn về Fully Mã hóa đồng cấu (FHE). FHE là một kỹ thuật mã hóa cho phép tính toán được thực hiện trên dữ liệu được mã hóa mà không cần phải giải mã nó. Điều này có nghĩa là các phép toán khác nhau (như cộng, nhân, v.v.) được thực hiện trên dữ liệu được mã hóa FHE mang lại kết quả tương tự như khi chúng được thực hiện trên dữ liệu không được mã hóa ban đầu, do đó bảo vệ quyền riêng tư dữ liệu của người dùng.

Ngoài các phương pháp nói trên, Web3 còn hỗ trợ AI thông qua các dự án như Cortex, cho phép thực thi on-chain các chương trình AI. Chạy các chương trình học máy trên các blockchain truyền thống phải đối mặt với một thách thức vì các máy ảo rất kém hiệu quả trong việc chạy bất kỳ mô hình học máy không tầm thường nào. Hầu hết tin rằng chạy AI trên blockchain là không thể. Tuy nhiên, Cortex Máy ảo (CVM) sử dụng GPU để thực thi các chương trình AI on-chain và tương thích với Máy ảo Ethereum (EVM). Nói cách khác, chuỗi Cortex có thể thực thi tất cả các DApp Ethereum và tích hợp học máy AI vào các DApp này. Điều này cho phép các mô hình học máy chạy theo cách phi tập trung, bất biến và minh bạch, với sự đồng thuận của mạng xác minh từng bước suy luận AI.

3.2 AI giúp Web3

Trong cuộc va chạm giữa AI và Web3, ngoài sự hỗ trợ của Web3 cho AI, sự hỗ trợ của AI cho ngành công nghiệp Web3 cũng đáng được chú ý. Đóng góp cốt lõi của trí tuệ nhân tạo là cải thiện năng suất, vì vậy có nhiều nỗ lực trong hợp đồng thông minh kiểm toán AI, phân tích và dự đoán dữ liệu, dịch vụ được cá nhân hóa, bảo vệ an ninh và quyền riêng tư, v.v.

3.2.1 Phân tích và dự đoán dữ liệu

Nhiều dự án Web3 đang tích hợp các dịch vụ AI hiện có (như ChatGPT) hoặc tự phát triển để cung cấp dịch vụ phân tích và dự đoán dữ liệu cho người dùng Web3. Các dịch vụ này bao gồm một phạm vi rộng, bao gồm các thuật toán AI cho các chiến lược đầu tư, các công cụ phân tích on-chain và dự báo giá cả và thị trường.

Ví dụ: Pond sử dụng thuật toán đồ thị AI để dự đoán các mã thông báo alpha có giá trị trong tương lai, cung cấp dịch vụ tư vấn đầu tư cho người dùng và tổ chức. BullBear AI đào tạo về dữ liệu lịch sử người dùng, lịch sử giá và xu hướng thị trường để cung cấp thông tin chính xác hỗ trợ dự đoán xu hướng giá, giúp người dùng đạt được lợi nhuận.

Các nền tảng như Numerai tổ chức các cuộc thi đầu tư, nơi những người tham gia sử dụng AI và các mô hình ngôn ngữ lớn để dự đoán thị trường chứng khoán. Họ đào tạo các mô hình về dữ liệu chất lượng cao do nền tảng cung cấp và gửi dự đoán hàng ngày. Numerai đánh giá các dự đoán này trong tháng tiếp theo và người tham gia có thể thế chấp NMR mã thông báo trên mô hình của họ để kiếm phần thưởng dựa trên hiệu suất.

Arkham, một nền tảng phân tích dữ liệu blockchain, cũng tích hợp AI vào các dịch vụ của mình. Arkham liên kết các địa chỉ blockchain với các thực thể như sàn giao dịch, quỹ và cá voi, hiển thị dữ liệu và phân tích chính để cung cấp cho người dùng lợi thế ra quyết định. Arkham Ultra khớp địa chỉ với các thực thể trong thế giới thực bằng cách sử dụng các thuật toán được phát triển trong ba năm với hỗ trợ từ những người sáng lập Palantir và OpenAI.

3.2.2 Dịch vụ cá nhân hóa

Các ứng dụng AI trong tìm kiếm và đề xuất đang thịnh hành trong các dự án Web2, phục vụ nhu cầu cá nhân hóa của người dùng. Các dự án Web3 tương tự tích hợp AI để nâng cao trải nghiệm người dùng.

Ví dụ, nền tảng phân tích dữ liệu nổi tiếng Dune gần đây đã giới thiệu công cụ Wand, sử dụng các mô hình ngôn ngữ lớn để viết các truy vấn SQL. Với Wand Create, người dùng có thể tạo các truy vấn SQL từ các câu hỏi ngôn ngữ tự nhiên, giúp những người không quen thuộc với SQL dễ dàng tìm kiếm dữ liệu.

Các

nền tảng nội dung như Followin tích hợp ChatGPT để tóm tắt quan điểm và cập nhật trong các lĩnh vực cụ thể. Bách khoa toàn thư Web3 IQ.wiki nhằm mục đích trở thành nguồn kiến thức khách quan, chất lượng cao về công nghệ blockchain và tiền điện tử. Nó tích hợp GPT-4 để tóm tắt các bài viết wiki, làm cho thông tin blockchain dễ tiếp cận hơn trên toàn thế giới. Công cụ tìm kiếm dựa trên LLM Kaito nhằm mục đích cách mạng hóa việc truy xuất thông tin Web3.

Trong lĩnh vực sáng tạo, các dự án như NFPrompt làm giảm chi phí tạo nội dung. NFPrompt cho phép người dùng tạo NFT dễ dàng hơn với AI, cung cấp nhiều dịch vụ sáng tạo được cá nhân hóa khác nhau.

3.2.3 AI kiểm toán hợp đồng thông minh

Kiểm tra hợp đồng thông minh là một nhiệm vụ quan trọng trong Web3 và AI có thể nâng cao hiệu quả và độ chính xác trong việc xác định các lỗ hổng mã.

Vitalik Buterin đã lưu ý rằng một trong những thách thức lớn nhất trong không gian tiền điện tử là lỗi trong mã của chúng tôi. AI hứa hẹn sẽ đơn giản hóa đáng kể việc sử dụng các công cụ xác minh chính thức để chứng minh tính đúng đắn của mã. Đạt được điều này có thể dẫn đến SEK EVM (Máy ảo Ethereum) gần như không có lỗi, tăng cường bảo mật không gian vì ít lỗi hơn làm tăng độ an toàn tổng thể.

Ví dụ: dự án 0x0.ai cung cấp kiểm toán viên hợp đồng thông minh được hỗ trợ bởi AI. Công cụ này sử dụng các thuật toán nâng cao để phân tích hợp đồng thông minh và xác định các lỗ hổng hoặc vấn đề tiềm ẩn có thể dẫn đến gian lận hoặc các rủi ro bảo mật khác. Kiểm toán viên sử dụng máy học để phát hiện các mẫu và sự bất thường trong mã, gắn cờ các vấn đề tiềm ẩn để xem xét thêm.

Có những trường hợp bản địa khác mà AI hỗ trợ Web3. PAAL giúp người dùng tạo các bot AI được cá nhân hóa có thể được triển khai trên Telegram và Discord để phục vụ người dùng Web3. Công cụ tổng hợp DEX đa chuỗi do AI điều khiển Hera sử dụng AI để cung cấp các đường dẫn giao dịch tốt nhất giữa bất kỳ cặp mã thông báo nào trên các mã thông báo khác nhau. Nhìn chung, đóng góp của AI cho Web3 chủ yếu ở cấp độ công cụ, tăng cường các quy trình và chức năng khác nhau.

Hạn chế và thách thức hiện tại của dự án AI + Web3

4.1 Những trở ngại thực tế trong Khả năng tính toán phi tập trung

Hiện tại, nhiều dự án Web3 hỗ trợ AI đang tập trung vào sức mạnh tính toán phi tập trung. Sử dụng các ưu đãi mã thông báo để thúc đẩy người dùng toàn cầu trở thành một phần của phía cung cấp năng lượng tính toán là một sự đổi mới rất thú vị. Tuy nhiên, mặt khác, có một số vấn đề thực tế cần được giải quyết:

So với các nhà cung cấp dịch vụ điện toán tập trung, các sản phẩm sức mạnh tính toán phi tập trung thường dựa vào các nút và người tham gia được phân phối trên toàn cầu để cung cấp tài nguyên máy tính. Do Trễ có thể xảy ra và sự không ổn định trong kết nối mạng giữa các nút này, hiệu suất và độ ổn định có thể kém hơn các sản phẩm sức mạnh tính toán tập trung.

Ngoài ra, sự sẵn có của các sản phẩm sức mạnh tính toán phi tập trung bị ảnh hưởng bởi mức độ khớp giữa cung và cầu. Nếu không có đủ nhà cung cấp hoặc nếu nhu cầu quá cao, nó có thể dẫn đến thiếu tài nguyên hoặc không có khả năng đáp ứng nhu cầu của người dùng.

Cuối cùng, so với các sản phẩm sức mạnh tính toán tập trung, các sản phẩm sức mạnh tính toán phi tập trung thường liên quan đến nhiều chi tiết kỹ thuật và độ phức tạp hơn. Người dùng có thể cần hiểu và xử lý các khía cạnh của mạng phân tán, thanh toán hợp đồng thông minh và tiền điện tử, điều này làm tăng chi phí hiểu và sử dụng người dùng.

Sau các cuộc thảo luận chuyên sâu với nhiều nhóm dự án sức mạnh tính toán phi tập trung, người ta thấy rằng sức mạnh tính toán phi tập trung hiện tại vẫn chủ yếu giới hạn ở suy luận AI hơn là đào tạo AI.

Tiếp theo, tôi sẽ sử dụng bốn câu hỏi để giúp mọi người hiểu lý do đằng sau điều này:

  1. Tại sao hầu hết các dự án điện toán phi tập trung chọn suy luận AI thay vì đào tạo AI?

  2. Điều gì khiến NVIDIA trở nên mạnh mẽ như vậy? Những lý do mà đào tạo sức mạnh tính toán phi tập trung là khó khăn là gì?

  3. Điều gì sẽ là kết thúc cho sức mạnh tính toán phi tập trung (Render, Akash, io.net, v.v.)?

  4. Điều gì sẽ là kết thúc cho các thuật toán phi tập trung (Bittensor)?

Hãy đi sâu vào chi tiết từng bước:

1) Quan sát lĩnh vực này, hầu hết các dự án điện toán phi tập trung chọn tập trung vào suy luận AI hơn là đào tạo, chủ yếu là do các yêu cầu khác nhau về sức mạnh tính toán và băng thông.

Để giúp mọi người hiểu rõ hơn, hãy so sánh AI với học sinh:

  • Đào tạo AI: Nếu chúng ta so sánh trí tuệ nhân tạo với một sinh viên, đào tạo tương tự như cung cấp cho AI một lượng lớn kiến thức và ví dụ, giống như những gì chúng ta thường gọi là dữ liệu. AI học hỏi từ những ví dụ này. Vì việc học liên quan đến việc hiểu và ghi nhớ một lượng lớn thông tin, quá trình này đòi hỏi sức mạnh tính toán và thời gian đáng kể.

  • AI Inference: Inference có thể hiểu là sử dụng kiến thức thu được để giải quyết vấn đề hoặc làm bài kiểm tra. Trong quá trình suy luận, AI sử dụng kiến thức đã học để trả lời các câu hỏi thay vì thu thập thông tin mới, do đó các yêu cầu tính toán tương đối thấp hơn.

Thật dễ dàng để thấy rằng sự khác biệt cơ bản về độ khó nằm ở chỗ đào tạo AI mô hình lớn đòi hỏi khối lượng dữ liệu khổng lồ và băng thông cực cao để truyền dữ liệu, khiến việc đạt được với sức mạnh tính toán phi tập trung trở nên rất khó khăn. Ngược lại, suy luận đòi hỏi ít dữ liệu và băng thông hơn nhiều, làm cho nó khả thi hơn.

Đối với các mô hình lớn, sự ổn định là rất quan trọng. Nếu đào tạo bị gián đoạn, nó phải khởi động lại, dẫn đến chi phí chìm cao. Mặt khác, có thể đạt được các yêu cầu về sức mạnh tính toán tương đối thấp hơn, chẳng hạn như suy luận AI hoặc các tình huống cụ thể nhất định liên quan đến đào tạo mô hình từ trung bình đến nhỏ. Trong các mạng điện toán phi tập trung, một số nhà cung cấp dịch vụ nút tương đối lớn có thể đáp ứng nhu cầu sức mạnh tính toán tương đối cao hơn này.

2) Vì vậy, đâu là nút thắt cổ chai trong dữ liệu và băng thông? Tại sao đào tạo phi tập trung khó đạt được?

Điều này liên quan đến hai yếu tố chính của đào tạo mô hình lớn: sức mạnh tính toán một thẻ và song song nhiều thẻ.

Sức mạnh tính toán một thẻ: Hiện tại, tất cả các trung tâm yêu cầu đào tạo mô hình lớn, được gọi là trung tâm siêu máy tính, có thể được so sánh với cơ thể con người, nơi đơn vị cơ bản, GPU, giống như một tế bào. Nếu sức mạnh tính toán của một ô đơn (GPU) mạnh, thì sức mạnh tính toán tổng thể (số lượng × tế bào đơn) cũng có thể rất mạnh.

Song song nhiều thẻ: Đào tạo một mô hình lớn thường liên quan đến hàng trăm tỷ gigabyte. Đối với các trung tâm siêu máy tính đào tạo các mô hình lớn, cần ít nhất hàng chục nghìn GPU A100. Điều này đòi hỏi phải huy động hàng ngàn thẻ để đào tạo. Tuy nhiên, đào tạo một mô hình lớn không phải là một quá trình nối tiếp đơn giản; nó không chỉ đào tạo trên thẻ A100 đầu tiên và sau đó chuyển sang thẻ thứ hai. Thay vào đó, các phần khác nhau của mô hình được đào tạo đồng thời trên các GPU khác nhau và phần đào tạo A có thể yêu cầu kết quả từ phần B, liên quan đến xử lý song song.

Sự thống trị của NVIDIA và giá trị thị trường ngày càng tăng, trong khi AMD và các công ty trong nước như Huawei và Horizon khó bắt kịp, xuất phát từ hai khía cạnh: môi trường phần mềm CUDA và giao tiếp đa thẻ NVLink.

Môi trường phần mềm CUDA: Liệu có một hệ sinh thái phần mềm phù hợp với phần cứng hay không là rất quan trọng, như hệ thống CUDA của NVIDIA. Xây dựng một hệ thống mới là một thách thức, giống như việc tạo ra một ngôn ngữ mới với chi phí thay thế cao.

Giao tiếp đa thẻ NVLink: Về cơ bản, giao tiếp nhiều thẻ liên quan đến đầu vào và đầu ra của thông tin. Làm thế nào để song song và truyền tải là rất quan trọng. Sự hiện diện của NVLink có nghĩa là thẻ NVIDIA và AMD không thể giao tiếp; Ngoài ra, NVLink giới hạn khoảng cách vật lý giữa các GPU, yêu cầu chúng phải ở trong cùng một trung tâm siêu máy tính. Điều này gây khó khăn cho sức mạnh tính toán phi tập trung trải rộng trên toàn cầu để tạo thành một cụm điện toán gắn kết để đào tạo mô hình lớn.

Điểm đầu tiên giải thích tại sao AMD và các công ty trong nước như Huawei và Horizon phải vật lộn để bắt kịp; điểm thứ hai giải thích tại sao đào tạo phi tập trung khó đạt được.

3) Điều gì sẽ là kết thúc cho sức mạnh tính toán phi tập trung? Sức mạnh tính toán phi tập trung hiện đang phải vật lộn với việc đào tạo mô hình lớn vì sự ổn định là tối quan trọng. Sự gián đoạn đòi hỏi phải đào tạo lại, dẫn đến chi phí chìm cao. Các yêu cầu cao đối với tính song song của nhiều thẻ bị giới hạn bởi các hạn chế về băng thông vật lý. NVLink của NVIDIA đạt được giao tiếp đa thẻ, nhưng trong một trung tâm siêu máy tính, NVLink giới hạn khoảng cách vật lý giữa các GPU. Do đó, sức mạnh tính toán phân tán không thể tạo thành một cụm tính toán để đào tạo mô hình lớn.

Tuy nhiên, đối với các nhu cầu có yêu cầu sức mạnh tính toán tương đối thấp hơn, chẳng hạn như suy luận AI hoặc một số tình huống cụ thể nhất định liên quan đến đào tạo mô hình vừa và nhỏ, các mạng điện toán phi tập trung với một số nhà cung cấp dịch vụ nút tương đối lớn có tiềm năng. Ngoài ra, các kịch bản như điện toán biên để kết xuất tương đối dễ thực hiện hơn.

4) Điều gì sẽ là kết thúc cho các mô hình thuật toán phi tập trung? Tương lai của các mô hình thuật toán phi tập trung phụ thuộc vào hướng đi cuối cùng của AI. Tôi tin rằng tương lai của AI có thể có 1-2 gã khổng lồ mô hình nguồn đóng (như ChatGPT) cùng với rất nhiều mô hình. Trong bối cảnh này, các sản phẩm lớp ứng dụng không cần phải liên kết với một mô hình lớn duy nhất mà cần hợp tác với nhiều mô hình lớn. Trong kịch bản này, mô hình của Bittensor cho thấy tiềm năng đáng kể.

Trong các dự án hiện tại kết hợp Web3 và AI, đặc biệt là những dự án mà AI hỗ trợ các sáng kiến Web3, hầu hết các dự án chỉ sử dụng AI một cách hời hợt mà không thể hiện sự tích hợp sâu giữa AI và tiền điện tử. Ứng dụng hời hợt này thể hiện rõ ở hai khía cạnh sau:

  • Đầu tiên, cho dù sử dụng AI để phân tích và dự đoán dữ liệu, trong các tình huống đề xuất và tìm kiếm hay để kiểm tra mã, có rất ít sự khác biệt so với việc tích hợp AI trong các dự án Web2. Các dự án này chỉ đơn giản là tận dụng AI để nâng cao hiệu quả và phân tích mà không thể hiện sự kết hợp nguyên bản của AI và tiền điện tử hoặc trình bày các giải pháp sáng tạo.
  • Thứ hai, nhiều nhóm Web3 kết hợp AI nhiều hơn như một mánh lới quảng cáo tiếp thị, hoàn toàn tận dụng khái niệm AI. Họ áp dụng công nghệ AI trong các lĩnh vực rất hạn chế và sau đó bắt đầu thúc đẩy xu hướng AI, tạo ra một mặt tiền tích hợp chặt chẽ với AI. Tuy nhiên, các dự án này thiếu sự đổi mới đáng kể.

Mặc dù các dự án Web3 và AI hiện tại có những hạn chế này, chúng ta nên nhận ra rằng đây mới chỉ là giai đoạn phát triển ban đầu. Trong tương lai, chúng ta có thể mong đợi nhiều nghiên cứu và đổi mới chuyên sâu hơn để đạt được sự tích hợp chặt chẽ hơn giữa AI và tiền điện tử, tạo ra các giải pháp bản địa và có ý nghĩa hơn trong các lĩnh vực như tài chính, tổ chức tự trị phi tập trung (DAO), thị trường dự đoán và NFT.

4.3 Token Kinh tế đóng vai trò là bộ đệm cho các câu chuyện dự án AI

Như đã đề cập ban đầu, các dự án AI phải đối mặt với những thách thức trong mô hình kinh doanh của họ, đặc biệt là khi ngày càng có nhiều mô hình lớn đang dần trở thành nguồn mở. Nhiều dự án AI + Web3, thường là các dự án AI thuần túy đang vật lộn để phát triển mạnh và bảo mật phí funding trong không gian Web2, chọn lớp phủ các câu chuyện và kinh tế mã thông báo từ Web3 để khuyến khích sự tham gia của người dùng.

Tuy nhiên, câu hỏi quan trọng là liệu việc tích hợp kinh tế mã thông báo có thực sự giúp các dự án AI giải quyết nhu cầu trong thế giới thực hay nó chỉ đơn giản là phục vụ như một câu chuyện hoặc đề xuất giá trị short hạn. Hiện tại, hầu hết các dự án AI + Web3 còn lâu mới đạt đến giai đoạn thực tế. Hy vọng rằng các nhóm có căn cứ và chu đáo hơn sẽ không chỉ sử dụng mã thông báo như một phương tiện để thổi phồng các dự án AI mà còn thực sự hoàn thành các trường hợp sử dụng thực tế.

Tóm tắt

Hiện tại, nhiều trường hợp và ứng dụng đã xuất hiện trong các dự án AI + Web3. Thứ nhất, công nghệ AI có thể cung cấp các trường hợp sử dụng hiệu quả và thông minh hơn cho Web3. Thông qua khả năng phân tích và dự đoán dữ liệu của AI, người dùng trong Web3 có thể có các công cụ tốt hơn cho các quyết định đầu tư và các tình huống khác. Ngoài ra, AI có thể kiểm toán mã hợp đồng thông minh, tối ưu hóa việc thực hiện hợp đồng và nâng cao hiệu suất và hiệu quả của blockchain. Hơn nữa, công nghệ AI có thể cung cấp các đề xuất chính xác và thông minh hơn và các dịch vụ được cá nhân hóa cho các ứng dụng phi tập trung, do đó cải thiện trải nghiệm người dùng.

Đồng thời, bản chất phi tập trung và có thể lập trình của Web3 cũng mang đến những cơ hội mới cho công nghệ AI. Thông qua các ưu đãi mã thông báo, các dự án sức mạnh tính toán phi tập trung cung cấp các giải pháp mới cho tình trạng tiến thoái lưỡng nan về sức mạnh tính toán AI không đủ. Các cơ chế lưu trữ hợp đồng thông minh và phân tán của Web3 cũng cung cấp không gian và tài nguyên rộng hơn để chia sẻ và đào tạo thuật toán AI. Cơ chế tự chủ và tin cậy người dùng của Web3 cũng mang đến những khả năng mới cho sự phát triển AI, cho phép người dùng tự chủ lựa chọn tham gia chia sẻ và đào tạo dữ liệu, từ đó nâng cao tính đa dạng và chất lượng dữ liệu và cải thiện hơn nữa hiệu suất và độ chính xác của các mô hình AI.

Mặc dù các dự án cross-over AI + Web3 hiện tại vẫn đang ở giai đoạn đầu và đối mặt với nhiều thách thức, nhưng chúng cũng mang lại nhiều lợi thế. Ví dụ, các sản phẩm điện toán phi tập trung có một số nhược điểm, nhưng chúng làm giảm sự phụ thuộc vào các tổ chức tập trung, cung cấp tính minh bạch và khả năng kiểm toán cao hơn, đồng thời cho phép sự tham gia và đổi mới rộng rãi hơn. Đối với các trường hợp sử dụng cụ thể và nhu cầu của người dùng, các sản phẩm sức mạnh tính toán phi tập trung có thể là một lựa chọn có giá trị. Điều tương tự cũng áp dụng cho việc thu thập dữ liệu; Các dự án thu thập dữ liệu phi tập trung mang lại những lợi thế như giảm sự phụ thuộc vào các nguồn dữ liệu đơn lẻ, cung cấp phạm vi dữ liệu rộng hơn và thúc đẩy sự đa dạng và toàn diện của dữ liệu. Trong thực tế, cần cân bằng giữa những ưu nhược điểm này và có biện pháp quản lý, kỹ thuật phù hợp để vượt qua thách thức, đảm bảo các dự án thu thập dữ liệu phi tập trung có tác động tích cực đến phát triển AI.

Nhìn chung, việc tích hợp AI + Web3 mang đến khả năng vô hạn cho sự đổi mới công nghệ và phát triển kinh tế trong tương lai. Bằng cách kết hợp khả năng phân tích và ra quyết định thông minh của AI với bản chất phi tập trung và tự chủ của Web3, người ta tin rằng chúng ta có thể xây dựng một hệ thống kinh tế và thậm chí xã hội thông minh hơn, cởi mở hơn và công bằng hơn.

Tuyên bố từ chối trách nhiệm:

  1. Bài viết này được in lại từ [Ryze Labs]. Tất cả bản quyền thuộc về tác giả gốc [Fred]. Nếu có ý kiến phản đối bản in lại này, vui lòng liên hệ với nhóm Gate Learn và họ sẽ xử lý kịp thời.
  2. Tuyên bố từ chối trách nhiệm: Các quan điểm và ý kiến được trình bày trong bài viết này chỉ là của tác giả và không cấu thành bất kỳ lời khuyên đầu tư nào.
  3. Bản dịch bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm Gate Learn. Trừ khi được đề cập, việc sao chép, phân phối hoặc đạo văn các bài báo đã dịch đều bị cấm.

Giới thiệu: Phát triển AI + Web3

Cách AI tương tác với Web3

Phân tích tình hình hiện tại của dự án AI + Web3

Hạn chế và thách thức hiện tại của dự án AI + Web3

Tóm tắt

Phân tích trong Độ sâu: AI và Web3 có thể tạo ra loại tia lửa nào?

Nâng caoJun 07, 2024
Bài viết này khám phá sự phát triển nhanh chóng của các công nghệ Trí tuệ nhân tạo (AI) và Web3 cũng như giá trị và tác động tiềm năng của việc tích hợp chúng. AI vượt trội trong việc nâng cao năng suất, trong khi Web3 chuyển đổi các mối quan hệ sản xuất thông qua phân cấp. Sự kết hợp của các công nghệ này mang lại các ứng dụng sáng tạo trong phân tích dữ liệu, dịch vụ người dùng được cá nhân hóa và bảo vệ quyền riêng tư và bảo mật.
Phân tích trong Độ sâu: AI và Web3 có thể tạo ra loại tia lửa nào?

Giới thiệu: Phát triển AI + Web3

Cách AI tương tác với Web3

Phân tích tình hình hiện tại của dự án AI + Web3

Hạn chế và thách thức hiện tại của dự án AI + Web3

Tóm tắt

Giới thiệu: Phát triển AI + Web3

Trong những năm gần đây, sự phát triển nhanh chóng của công nghệ Trí tuệ nhân tạo (AI) và Web3 đã thu hút sự chú ý rộng rãi trên toàn cầu. AI, một công nghệ mô phỏng và bắt chước trí thông minh của con người, đã đạt được những bước đột phá đáng kể trong các lĩnh vực như nhận dạng khuôn mặt, xử lý ngôn ngữ tự nhiên và học máy. Sự tiến bộ nhanh chóng của công nghệ AI đã mang lại sự chuyển đổi và đổi mới to lớn trong các ngành công nghiệp khác nhau.

Ngành công nghiệp AI đạt quy mô thị trường 200 tỷ USD vào năm 2023, với những gã khổng lồ trong ngành và những người chơi nổi bật như OpenAI, Character.AI và Midjourney nổi lên nhanh chóng và dẫn đầu sự bùng nổ AI.

Đồng thời, Web3, một mô hình internet mới nổi, đang dần thay đổi nhận thức và cách sử dụng internet của chúng ta. Dựa trên công nghệ blockchain phi tập trung, Web3 nhận ra việc chia sẻ và kiểm soát dữ liệu, quyền tự chủ của người dùng và thiết lập các cơ chế tin cậy thông qua các tính năng như hợp đồng thông minh, lưu trữ phân tán và xác minh danh tính phi tập trung. Ý tưởng cốt lõi của Web3 là giải phóng dữ liệu khỏi các cơ quan tập trung, cấp cho người dùng quyền kiểm soát và khả năng chia sẻ giá trị dữ liệu của họ.

Hiện tại, giá trị thị trường của ngành công nghiệp Web3 đã đạt 25 nghìn tỷ USD. Từ Bitcoin, Ethereum và Solana đến những người chơi cấp ứng dụng như Uniswap và Stepn, các câu chuyện và kịch bản mới liên tục xuất hiện, thu hút ngày càng nhiều người tham gia vào ngành công nghiệp Web3.

Rõ ràng là sự tích hợp của AI và Web3 là tâm điểm cho các nhà xây dựng và nhà đầu tư mạo hiểm từ cả phương Đông và phương Tây. Khám phá cách kết hợp hiệu quả hai công nghệ này là một nỗ lực rất đáng giá.

Bài viết này sẽ tập trung vào tình trạng phát triển AI + Web3 hiện tại, khám phá giá trị tiềm năng và tác động của việc tích hợp chúng. Trước tiên chúng tôi sẽ giới thiệu các khái niệm và đặc điểm cơ bản của AI và Web3, sau đó thảo luận về mối quan hệ tương tác của chúng. Sau đó, chúng tôi sẽ phân tích tình trạng hiện tại của các dự án AI + Web3 và đi sâu vào những hạn chế và thách thức mà chúng phải đối mặt. Thông qua nghiên cứu này, chúng tôi mong muốn cung cấp các tài liệu tham khảo và hiểu biết có giá trị cho các nhà đầu tư và các chuyên gia trong ngành.

Cách AI tương tác với Web3

Sự phát triển của AI và Web3 có thể được xem là hai mặt của thang đo: AI mang lại những cải tiến về năng suất, trong khi Web3 cách mạng hóa các mối quan hệ sản xuất. Vậy, AI và Web3 có thể tạo ra loại tia lửa nào khi chúng va chạm? Trước tiên, chúng tôi sẽ phân tích những thách thức và cải tiến tiềm năng trong ngành công nghiệp AI và Web3, sau đó khám phá cách chúng có thể giúp giải quyết các vấn đề của nhau.

  1. Những thách thức và cải tiến tiềm năng trong ngành công nghiệp AI
  2. Những thách thức và những cải tiến tiềm năng trong ngành Web3

2.1 Những thách thức trong ngành AI

Để khám phá những thách thức mà ngành công nghiệp AI phải đối mặt, trước tiên chúng ta phải hiểu bản chất của nó. Cốt lõi của ngành công nghiệp AI xoay quanh ba yếu tố chính: sức mạnh tính toán, thuật toán và dữ liệu.

  1. Đầu tiên, sức mạnh tính toán: Sức mạnh tính toán đề cập đến khả năng thực hiện tính toán và xử lý quy mô lớn. Các tác vụ AI thường yêu cầu xử lý một lượng lớn dữ liệu và thực hiện các tính toán phức tạp, chẳng hạn như đào tạo các mô hình mạng nơ-ron sâu. Sức mạnh tính toán cao có thể đẩy nhanh quá trình đào tạo và suy luận mô hình, nâng cao hiệu suất và hiệu quả của các hệ thống AI. Trong những năm gần đây, những tiến bộ trong công nghệ phần cứng, chẳng hạn như bộ xử lý đồ họa (GPU) và chip AI chuyên dụng (như TPU), đã thúc đẩy đáng kể sức mạnh tính toán, thúc đẩy sự phát triển của ngành công nghiệp AI. Nvidia, một nhà cung cấp GPU lớn, đã chứng kiến giá cổ phiếu của mình tăng vọt trong những năm gần đây, chiếm thị phần lớn và kiếm được lợi nhuận đáng kể.
  2. Thuật toán là gì: Thuật toán là thành phần cốt lõi của hệ thống AI. Chúng là các phương pháp toán học và thống kê được sử dụng để giải quyết vấn đề và thực hiện các nhiệm vụ. Các thuật toán AI có thể được phân loại thành các thuật toán học máy truyền thống và thuật toán học sâu, với các thuật toán học sâu đã có những bước đột phá đáng kể trong những năm gần đây. Việc lựa chọn và thiết kế các thuật toán là rất quan trọng đối với hiệu suất và hiệu quả của các hệ thống AI. Cải tiến và đổi mới liên tục trong các thuật toán có thể nâng cao độ chính xác, mạnh mẽ và khả năng khái quát hóa của các hệ thống AI. Các thuật toán khác nhau mang lại kết quả khác nhau, vì vậy những tiến bộ trong thuật toán là điều cần thiết cho hiệu suất tác vụ.
  3. Tại sao dữ liệu lại quan trọng: Nhiệm vụ cốt lõi của các hệ thống AI là trích xuất các mẫu và quy tắc từ dữ liệu thông qua học tập và đào tạo. Dữ liệu tạo thành nền tảng cho việc đào tạo và tối ưu hóa các mô hình. Với các mẫu dữ liệu quy mô lớn, các hệ thống AI có thể tìm hiểu các mô hình chính xác và thông minh hơn. Bộ dữ liệu phong phú cung cấp thông tin toàn diện và đa dạng, cho phép các mô hình khái quát hóa tốt hơn cho dữ liệu không nhìn thấy và giúp các hệ thống AI hiểu rõ hơn và giải quyết các vấn đề trong thế giới thực.

Sau khi hiểu ba yếu tố cốt lõi của AI hiện tại, hãy xem xét những khó khăn và thách thức mà AI phải đối mặt trong các lĩnh vực này.

Đầu tiên, về sức mạnh tính toán, các tác vụ AI thường đòi hỏi một lượng lớn tài nguyên tính toán để đào tạo và suy luận mô hình, đặc biệt là đối với các mô hình học sâu. Tuy nhiên, có được và quản lý sức mạnh tính toán quy mô lớn là một thách thức tốn kém và phức tạp. Chi phí, tiêu thụ năng lượng và bảo trì thiết bị máy tính hiệu suất cao là những vấn đề quan trọng. Điều này đặc biệt khó khăn đối với các công ty khởi nghiệp và các nhà phát triển cá nhân, những người có được đủ sức mạnh tính toán có thể khó khăn.

Về thuật toán, mặc dù các thuật toán deep learning đã đạt được những thành công đáng kể trong nhiều lĩnh vực, nhưng vẫn còn những thách thức và khó khăn. Ví dụ, đào tạo mạng nơ-ron sâu đòi hỏi một lượng lớn dữ liệu và tài nguyên tính toán. Ngoài ra, đối với một số nhiệm vụ nhất định, khả năng diễn giải và giải thích của các mô hình có thể không đủ. Sự mạnh mẽ và khả năng khái quát hóa của các thuật toán cũng là những vấn đề quan trọng, vì hiệu suất mô hình trên dữ liệu không nhìn thấy có thể không ổn định. Tìm ra thuật toán tốt nhất để cung cấp hiệu suất tối ưu trong số nhiều thuật toán là một khám phá liên tục.

Về mặt dữ liệu, dữ liệu là động lực đằng sau AI, nhưng việc có được dữ liệu đa dạng, chất lượng cao vẫn là một thách thức. Dữ liệu trong một số lĩnh vực, chẳng hạn như dữ liệu sức khỏe nhạy cảm trong lĩnh vực y tế, có thể khó có được. Hơn nữa, chất lượng, độ chính xác và ghi nhãn dữ liệu là những vấn đề quan trọng, vì dữ liệu không đầy đủ hoặc sai lệch có thể dẫn đến hành vi hoặc sai lệch của mô hình. Bảo vệ quyền riêng tư và bảo mật dữ liệu cũng là một cân nhắc đáng kể.

Hơn nữa, có những vấn đề liên quan đến khả năng diễn giải và tính minh bạch. Bản chất "hộp đen" của các mô hình AI là mối quan tâm của công chúng. Trong một số ứng dụng nhất định, chẳng hạn như tài chính, chăm sóc sức khỏe và tư pháp, quá trình ra quyết định của các mô hình cần phải được giải thích và theo dõi. Tuy nhiên, các mô hình deep learning hiện tại thường thiếu minh bạch. Giải thích quá trình ra quyết định của các mô hình và cung cấp các giải thích đáng tin cậy vẫn còn nhiều thách thức.

Ngoài ra, mô hình kinh doanh của nhiều dự án khởi nghiệp AI chưa rõ ràng lắm, điều này cũng gây nhầm lẫn cho nhiều doanh nhân AI.

2.2 Những thách thức trong ngành Web3

Trong ngành công nghiệp Web3, có rất nhiều thách thức cần được giải quyết, trải dài từ phân tích dữ liệu và trải nghiệm người dùng đến các lỗ hổng hợp đồng thông minh và các cuộc tấn công của tin tặc. AI, như một công cụ để nâng cao năng suất, nắm giữ tiềm năng đáng kể trong các lĩnh vực này.

Thứ nhất, có chỗ để cải thiện khả năng phân tích dữ liệu và dự đoán. Các ứng dụng AI trong phân tích và dự đoán dữ liệu đã có tác động đáng kể đến ngành công nghiệp Web3. Thông qua phân tích và khai thác thông minh bằng thuật toán AI, nền tảng Web3 có thể trích xuất thông tin có giá trị từ lượng dữ liệu khổng lồ và đưa ra dự đoán và quyết định chính xác hơn. Điều này đặc biệt quan trọng đối với việc đánh giá rủi ro, dự báo thị trường và quản lý tài sản trong tài chính phi tập trung (DeFi).

Ngoài ra, có tiềm năng nâng cao trải nghiệm người dùng và các dịch vụ cá nhân hóa. Các ứng dụng AI cho phép các nền tảng Web3 cung cấp trải nghiệm người dùng tốt hơn và các dịch vụ được cá nhân hóa. Bằng cách phân tích và mô hình hóa dữ liệu người dùng, nền tảng Web3 có thể cung cấp các đề xuất được cá nhân hóa, dịch vụ tùy chỉnh và trải nghiệm tương tác thông minh. Điều này giúp tăng mức độ tương tác và hài lòng của người dùng, thúc đẩy sự phát triển của hệ sinh thái Web3. Chẳng hạn, nhiều giao thức Web3 tích hợp các công cụ AI như ChatGPT để phục vụ người dùng tốt hơn.

Về bảo mật và bảo vệ quyền riêng tư, các ứng dụng AI cũng có tác động sâu sắc đến ngành công nghiệp Web3. Công nghệ AI có thể được sử dụng để phát hiện và bảo vệ chống lại các cuộc tấn công mạng, xác định hành vi bất thường và cung cấp các biện pháp bảo mật mạnh mẽ hơn. Ngoài ra, AI có thể được áp dụng để bảo vệ quyền riêng tư dữ liệu, bảo vệ thông tin cá nhân của người dùng trên nền tảng Web3 thông qua các kỹ thuật như mã hóa dữ liệu và điện toán quyền riêng tư. Về kiểm toán hợp đồng thông minh, vì các lỗ hổng và rủi ro bảo mật có thể tồn tại trong quá trình viết và kiểm toán hợp đồng thông minh, công nghệ AI có thể được sử dụng để kiểm toán hợp đồng tự động và phát hiện lỗ hổng, tăng cường tính bảo mật và độ tin cậy của hợp đồng.

Rõ ràng là AI có thể đóng góp đáng kể vào việc giải quyết những thách thức và cải tiến tiềm năng trong ngành công nghiệp Web3 trên nhiều khía cạnh khác nhau.

Phân tích tình hình hiện tại của dự án AI + Web3

Kết hợp các dự án AI và Web3 chủ yếu tập trung vào hai khía cạnh chính: tận dụng công nghệ blockchain để tăng cường các dự án AI và sử dụng công nghệ AI để phục vụ cải tiến các dự án Web3. Nhiều dự án đã xuất hiện dọc theo con đường này, bao gồm Io.net, Gensyn, Ritual, trong số những dự án khác. Phân tích sau đây sẽ đi sâu vào các tên miền phụ khác nhau nơi AI hỗ trợ Web3 và nơi Web3 tăng cường AI.

3.1 Web3 giúp AI

3.1.1 Khả năng tính toán phi tập trung

Kể từ khi OpenAI ra mắt ChatGPT vào cuối năm 2022, nó đã châm ngòi cho một cơn sốt trong lĩnh vực AI. Trong vòng năm ngày kể từ khi phát hành, cơ sở người dùng đã đạt một triệu, vượt qua tỷ lệ tải xuống của Instagram, mất khoảng hai tháng rưỡi để đạt được cột mốc tương tự. Sau đó, ChatGPT đã có sự tăng trưởng nhanh chóng, với người dùng hoạt động hàng tháng đạt 100 triệu trong vòng hai tháng và người dùng hoạt động hàng tuần đạt 100 triệu vào tháng 11/2023. Với sự ra đời của ChatGPT, lĩnh vực AI nhanh chóng chuyển đổi từ một lĩnh vực thích hợp sang một ngành được đánh giá cao.

Theo báo cáo của Trendforce, ChatGPT yêu cầu 30.000 GPU NVIDIA A100 để hoạt động và các mô hình trong tương lai như GPT-5 sẽ đòi hỏi nhiều sức mạnh tính toán hơn nữa. Điều này đã gây ra một cuộc chạy đua vũ trang giữa các công ty AI khác nhau, vì sở hữu đủ sức mạnh tính toán là rất quan trọng để duy trì lợi thế cạnh tranh trong lĩnh vực AI, dẫn đầu thiếu GPU.

Trước khi AI tăng lên, nhà cung cấp GPU lớn, NVIDIA, chủ yếu phục vụ khách hàng từ ba dịch vụ đám mây chính: AWS, Azure và GCP. Với sự tăng lên của trí tuệ nhân tạo, nhiều người mua mới đã xuất hiện, bao gồm các công ty công nghệ lớn như Meta, Oracle, cũng như các nền tảng dữ liệu khác và các công ty khởi nghiệp AI, tất cả đều tham gia cuộc đua dự trữ GPU để đào tạo các mô hình AI. Các công ty công nghệ lớn như Meta và Tesla đã tăng đáng kể việc mua các mô hình AI tùy chỉnh và nghiên cứu nội bộ. Các công ty mô hình cơ bản như Anthropic và các nền tảng dữ liệu như Snowflake và Databricks cũng đã mua thêm GPU để hỗ trợ khách hàng của họ cung cấp dịch vụ AI.

Như Semi Analysis đã đề cập vào năm ngoái, tồn tại sự phân chia giữa các công ty "giàu GPU" và "nghèo GPU", chỉ một số ít sở hữu hơn 20.000 GPU A100 / H100, cho phép các thành viên trong nhóm sử dụng từ 100 đến 1000 GPU cho các dự án. Các công ty này là nhà cung cấp đám mây hoặc đã xây dựng các mô hình ngôn ngữ lớn (LLM) của riêng họ, bao gồm OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, trong số những công ty khác.

Tuy nhiên, phần lớn các công ty giảm vào danh mục "GPU kém", phải vật lộn với GPU ít hơn đáng kể và dành một lượng thời gian và công sức đáng kể cho các tác vụ khó khăn hơn để thúc đẩy hệ sinh thái. Hơn nữa, tình trạng này không chỉ giới hạn ở các công ty khởi nghiệp. Một số công ty AI nổi tiếng nhất, chẳng hạn như Hugging Face, Databricks (MosaicML), Together và thậm chí cả Snowflake, có số lượng A100 / H100 ít hơn 20.000. Mặc dù có tài năng kỹ thuật đẳng cấp thế giới, các công ty này bị hạn chế bởi nguồn cung GPU hạn chế, khiến họ gặp bất lợi so với các công ty lớn hơn trong cuộc cạnh tranh AI.

Sự thiếu hụt này không chỉ giới hạn ở danh mục "GPU kém"; thậm chí đến cuối năm 2023, người chơi AI dẫn đầu, OpenAI, đã phải tạm thời đóng đăng ký trả phí do không thể có đủ GPU và phải mua thêm nguồn cung GPU .

Rõ ràng là sự phát triển nhanh chóng của AI đã dẫn đến sự không phù hợp nghiêm trọng giữa cung và cầu của GPU, tạo ra sự thiếu hụt nguồn cung sắp xảy ra.

Để giải quyết vấn đề này, một số dự án Web3 đã bắt đầu khám phá các giải pháp sức mạnh tính toán phi tập trung, tận dụng các đặc điểm độc đáo của công nghệ Web3. Các dự án này bao gồm Akash, Render, Gensyn, trong số những dự án khác. Đặc điểm chung giữa các dự án này là sử dụng mã thông báo để khuyến khích người dùng cung cấp sức mạnh tính toán GPU nhàn rỗi, từ đó trở thành phía cung cấp sức mạnh tính toán cho hỗ trợ khách hàng AI.

Hồ sơ phía cung chủ yếu bao gồm ba khía cạnh: nhà cung cấp dịch vụ đám mây, thợ đào tiền điện tử và doanh nghiệp. Các nhà cung cấp dịch vụ đám mây bao gồm các nhà cung cấp dịch vụ đám mây lớn (như AWS, Azure, GCP) và các nhà cung cấp dịch vụ đám mây GPU (như Coreweave, Lambda, Crusoe), nơi người dùng có thể bán lại sức mạnh tính toán nhàn rỗi từ các nhà cung cấp này để tạo thu nhập. Với Ethereum chuyển đổi từ PoW sang PoS, sức mạnh tính toán GPU nhàn rỗi đã trở thành một bên cung cấp tiềm năng quan trọng cho các thợ đào tiền điện tử. Ngoài ra, các doanh nghiệp lớn như Tesla và Meta, những công ty đã mua số lượng lớn GPU cho mục đích chiến lược, cũng có thể đóng góp sức mạnh tính toán GPU nhàn rỗi của họ như một phần của phía cung.

Hiện tại, những người chơi trong lĩnh vực này thường có thể được chia thành hai loại: những người sử dụng sức mạnh tính toán phi tập trung để suy luận AI và những người sử dụng nó để đào tạo AI. Danh mục đầu tiên bao gồm các dự án như Render (mặc dù tập trung vào kết xuất, nó cũng có thể được sử dụng cho điện toán AI), Akash, Aethir, trong khi danh mục thứ hai bao gồm các dự án như io.net (hỗ trợ cả suy luận và đào tạo) và Gensyn. Sự khác biệt chính giữa hai nằm ở các yêu cầu khác nhau về sức mạnh tính toán.

Trước tiên chúng ta hãy thảo luận về các dự án tập trung vào suy luận AI. Các dự án này thu hút người dùng cung cấp sức mạnh tính toán thông qua các ưu đãi mã thông báo và sau đó cung cấp dịch vụ mạng điện toán cho phía cầu, do đó tạo điều kiện thuận lợi cho việc khớp cung và cầu sức mạnh tính toán nhàn rỗi. Thông tin chi tiết về các dự án như vậy được đề cập trong báo cáo nghiên cứu của DePIN từ Phòng thí nghiệm Ryze của chúng tôi, vui lòng đọc chúng.

Điểm cốt lõi nằm ở cơ chế khuyến khích mã thông báo, trong đó dự án đầu tiên thu hút các nhà cung cấp và sau đó là người dùng, từ đó đạt được cơ chế khởi động nguội và hoạt động cốt lõi của dự án, cho phép mở rộng và phát triển hơn nữa. Trong chu kỳ này, phía cung nhận được phần thưởng mã thông báo có giá trị hơn, trong khi phía cầu được hưởng các dịch vụ hiệu quả hơn về chi phí. Giá trị của các mã thông báo của dự án và sự tăng trưởng của cả người tham gia cung và cầu vẫn nhất quán. Khi giá token tăng, nhiều người tham gia và nhà đầu cơ bị thu hút, tạo ra một vòng lặp nắm bắt giá trị.

Một danh mục khác liên quan đến việc sử dụng sức mạnh tính toán phi tập trung để đào tạo AI, chẳng hạn như Gensyn và io.net (hỗ trợ cả đào tạo và suy luận AI). Trên thực tế, logic hoạt động của các dự án này về cơ bản không khác với các dự án suy luận AI. Họ vẫn dựa vào các ưu đãi mã thông báo để thu hút sự tham gia từ phía cung cấp để cung cấp sức mạnh tính toán, sau đó được sử dụng bởi phía cầu.

io.net, với tư cách là một mạng lưới điện toán phi tập trung, hiện tự hào có hơn 500.000 GPU, khiến nó trở thành một công cụ hoạt động nổi bật trong các dự án sức mạnh tính toán phi tập trung. Ngoài ra, nó đã tích hợp sức mạnh tính toán từ Render và Filecoin, thể hiện sự phát triển liên tục của hệ sinh thái của nó.

Hơn nữa, Gensyn tạo điều kiện phân bổ nhiệm vụ học máy và phần thưởng thông qua hợp đồng thông minh để cho phép đào tạo AI. Như minh họa trong sơ đồ bên dưới, chi phí hàng giờ cho công việc đào tạo machine learning trong Gensyn là khoảng 0,4 USD, thấp hơn đáng kể so với chi phí hơn 2 USD trên AWS và GCP.

Hệ sinh thái Gensyn liên quan đến bốn thực thể tham gia:

  • Người gửi: Đây là những người dùng theo nhu cầu, những người tiêu thụ nhiệm vụ và trả tiền cho các nhiệm vụ đào tạo AI.
  • Người thực thi: Người thực thi thực hiện các nhiệm vụ đào tạo mô hình và cung cấp bằng chứng về việc hoàn thành nhiệm vụ để xác minh.
  • Người xác minh: Người xác minh kết nối quá trình đào tạo không xác định với tính toán tuyến tính xác định. Họ so sánh các bằng chứng được cung cấp bởi người thực thi với các ngưỡng dự kiến.
  • Phóng viên: Phóng viên kiểm tra công việc của người xác minh và đưa ra các thách thức để kiếm phần thưởng khi xác định vấn đề.

Như chúng ta có thể thấy, Gensyn đặt mục tiêu trở thành một giao thức điện toán có khả năng mở rộng ồ ạt và tiết kiệm chi phí cho các mô hình học sâu toàn cầu. Tuy nhiên, nhìn vào lĩnh vực này, tại sao hầu hết các dự án lại chọn sức mạnh tính toán phi tập trung để suy luận AI thay vì đào tạo?

Chúng ta cũng hãy giúp những người bạn không quen thuộc với đào tạo và suy luận AI hiểu được sự khác biệt giữa hai loại:

  • Đào tạo AI: Nếu chúng ta ví trí tuệ nhân tạo như một sinh viên, thì đào tạo cũng tương tự như cung cấp cho AI một lượng lớn kiến thức và ví dụ, có thể hiểu là dữ liệu. AI học hỏi từ những ví dụ này. Bởi vì học tập liên quan đến việc hiểu và ghi nhớ một lượng lớn thông tin, quá trình này đòi hỏi một lượng đáng kể sức mạnh tính toán và thời gian.
  • AI Inference: Vậy suy luận là gì? Nó có thể được hiểu là sử dụng kiến thức đã học để giải quyết vấn đề hoặc làm bài kiểm tra. Trong quá trình suy luận, trí tuệ nhân tạo sử dụng kiến thức đã học để cung cấp câu trả lời, thay vì tiếp thu kiến thức mới. Do đó, các yêu cầu tính toán cho quá trình suy luận là tương đối nhỏ.

Có thể thấy rằng các yêu cầu về sức mạnh tính toán cho cả suy luận AI và đào tạo AI khác nhau đáng kể. Sự sẵn có của sức mạnh tính toán phi tập trung cho suy luận AI và đào tạo AI sẽ được phân tích sâu hơn trong phần thử thách sắp tới.

Hơn nữa, Ritual nhằm mục đích kết hợp các mạng phân tán với những người tạo mô hình để duy trì sự phân cấp và bảo mật. Sản phẩm đầu tiên của nó, Infernet, cho phép hợp đồng thông minh trên blockchain truy cập các mô hình AI off-chain, cho phép các hợp đồng đó truy cập AI theo cách duy trì xác minh, phân cấp và bảo vệ quyền riêng tư.

Điều phối viên của Infernet chịu trách nhiệm quản lý hành vi của các nút trong mạng và đáp ứng các yêu cầu tính toán từ người tiêu dùng. Khi người dùng sử dụng Infernet, các tác vụ như suy luận và bằng chứng được thực hiện off-chain, với đầu ra được trả lại cho điều phối viên và cuối cùng được truyền đến người tiêu dùng on-chain thông qua hợp đồng thông minh.

Ngoài các mạng lưới điện toán phi tập trung, còn có các mạng băng thông phi tập trung như Grass, nhằm cải thiện tốc độ và hiệu quả truyền dữ liệu. Nhìn chung, sự xuất hiện của các mạng lưới điện toán phi tập trung cung cấp một khả năng mới cho phía cung cấp sức mạnh tính toán AI, thúc đẩy AI tiến lên theo những hướng mới.

3.1.2 Mô hình thuật toán phi tập trung

Giống như đã đề cập trong chương thứ hai, ba yếu tố cốt lõi của AI là sức mạnh tính toán, thuật toán và dữ liệu. Vì sức mạnh tính toán có thể hình thành một mạng lưới cung cấp thông qua phân cấp, các thuật toán cũng có thể tuân theo một cách tiếp cận tương tự và tạo thành một mạng lưới cung cấp cho các mô hình thuật toán không?

Trước khi phân tích các dự án trong lĩnh vực này, trước tiên chúng ta hãy hiểu tầm quan trọng của các mô hình thuật toán phi tập trung. Nhiều người có thể tự hỏi, vì chúng ta đã có OpenAI, tại sao chúng ta cần một mạng thuật toán phi tập trung?

Về cơ bản, mạng thuật toán phi tập trung là một thị trường dịch vụ thuật toán AI phi tập trung kết nối nhiều mô hình AI khác nhau. Mỗi mô hình AI có chuyên môn và kỹ năng riêng. Khi người dùng đặt câu hỏi, thị trường sẽ chọn mô hình AI phù hợp nhất để trả lời câu hỏi. Chat-GPT, được phát triển bởi OpenAI, là một trong những mô hình AI như vậy có thể hiểu và tạo ra văn bản tương tự như con người.

Nói một cách đơn giản, ChatGPT giống như một sinh viên có khả năng cao giúp giải quyết các loại vấn đề khác nhau, trong khi mạng thuật toán phi tập trung giống như một trường học với nhiều sinh viên giúp giải quyết vấn đề. Mặc dù sinh viên hiện tại (ChatGPT) có năng lực cao, nhưng về long, có tiềm năng lớn cho một trường có thể tuyển dụng sinh viên từ khắp nơi trên thế giới.

Hiện nay, trong lĩnh vực mô hình thuật toán phi tập trung, cũng có một số dự án đang thử nghiệm và khám phá. Tiếp theo, chúng tôi sẽ sử dụng dự án đại diện Bittensor như một nghiên cứu điển hình để giúp hiểu sự phát triển của lĩnh vực thích hợp này.

Trong Bittensor, phía cung của các mô hình thuật toán (hoặc thợ đào) đóng góp các mô hình học máy của họ vào mạng. Các mô hình này có thể phân tích dữ liệu và cung cấp thông tin chi tiết. Các nhà cung cấp mô hình nhận mã thông báo tiền điện tử, được gọi là TAO, làm phần thưởng cho những đóng góp của họ.

Để đảm bảo chất lượng câu trả lời, Bittensor sử dụng cơ chế đồng thuận duy nhất để đạt được sự đồng thuận về câu trả lời tốt nhất. Khi một câu hỏi được đặt ra, nhiều thợ đào mô hình cung cấp câu trả lời. Sau đó, Người xác thực trong mạng bắt đầu làm việc để xác định câu trả lời tốt nhất, sau đó được gửi lại cho người dùng.

Mã thông báo TAO trong hệ sinh thái Bittensor đóng hai vai trò chính trong suốt quá trình. Một mặt, nó phục vụ như một động lực cho các thợ đào đóng góp các mô hình thuật toán cho mạng. Mặt khác, người dùng cần chi tiêu mã thông báo để đặt câu hỏi và có mạng hoàn thành nhiệm vụ.

Vì Bittensor được phân cấp, bất kỳ ai có quyền truy cập internet đều có thể tham gia mạng, với tư cách là người dùng đặt câu hỏi hoặc là người khai thác cung cấp câu trả lời. Điều này cho phép nhiều người khai thác sức mạnh của trí tuệ nhân tạo.

Tóm lại, các mạng mô hình thuật toán phi tập trung như Bittensor có tiềm năng tạo ra một cảnh quan cởi mở và minh bạch hơn. Trong hệ sinh thái này, các mô hình AI có thể được đào tạo, chia sẻ và sử dụng một cách an toàn và phi tập trung. Ngoài ra, các mạng khác như BasedAI đang cố gắng thực hiện những nỗ lực tương tự, với khía cạnh hấp dẫn của việc sử dụng Bằng chứng không có kiến thức (ZK) để bảo vệ quyền riêng tư dữ liệu tương tác của mô hình người dùng, sẽ được thảo luận thêm trong tiểu mục thứ tư.

Khi các nền tảng mô hình thuật toán phi tập trung phát triển, chúng sẽ cho phép các công ty nhỏ cạnh tranh với các tổ chức lớn trong việc sử dụng các công cụ AI tiên tiến, có khả năng có tác động đáng kể trong các ngành khác nhau.

3.1.3 Thu thập dữ liệu phi tập trung

Đối với việc đào tạo các mô hình AI, một nguồn cung cấp dữ liệu lớn là không thể thiếu. Tuy nhiên, hầu hết các công ty Web2 hiện vẫn độc quyền dữ liệu người dùng. Các nền tảng như X, Reddit, TikTok, Snapchat, Instagram và YouTube cấm thu thập dữ liệu để đào tạo AI, điều này đặt ra một trở ngại đáng kể cho sự phát triển của ngành công nghiệp AI.

Mặt khác, một số nền tảng Web2 bán dữ liệu người dùng cho các công ty AI mà không chia sẻ bất kỳ lợi nhuận nào với người dùng. Chẳng hạn, Reddit đã đạt được thỏa thuận trị giá 60 triệu USD với Google, cho phép Google đào tạo các mô hình AI bằng cách sử dụng các bài đăng của mình. Điều này dẫn đến quyền thu thập dữ liệu bị độc quyền bởi các công ty vốn lớn và dữ liệu lớn, đẩy ngành công nghiệp theo hướng thâm dụng vốn.

Để đối phó với tình huống này, một số dự án đang tận dụng các ưu đãi Web3 và mã thông báo để đạt được việc thu thập dữ liệu phi tập trung. Lấy PublicAI làm ví dụ: người dùng có thể tham gia vào hai vai trò:

  • Một danh mục là nhà cung cấp dữ liệu AI. Người dùng có thể tìm thấy nội dung có giá trị trên X, thẻ @PublicAI tài khoản chính thức với thông tin chi tiết của họ và sử dụng hashtag #AI hoặc #Web3 để phân loại nội dung, từ đó gửi nó đến trung tâm dữ liệu PublicAI để thu thập.
  • Danh mục khác là dữ liệu Người xác thực. Người dùng có thể đăng nhập vào trung tâm dữ liệu PublicAI và bình chọn dữ liệu có giá trị nhất để đào tạo AI.

Như một phần thưởng, người dùng có thể kiếm được mã thông báo thông qua những đóng góp này, thúc đẩy mối quan hệ đôi bên cùng có lợi giữa những người đóng góp dữ liệu và ngành công nghiệp AI.

Ngoài các dự án như PublicAI, đặc biệt thu thập dữ liệu để đào tạo AI, còn có nhiều dự án khác sử dụng ưu đãi mã thông báo để thu thập dữ liệu phi tập trung. Ví dụ, Ocean thu thập dữ liệu người dùng thông qua dữ liệu mã hóa kỹ thuật số để phục vụ AI, Hivemapper sử dụng camera xe hơi của người dùng để thu thập dữ liệu bản đồ, Dimo thu thập dữ liệu xe hơi và WiHi thu thập dữ liệu thời tiết. Các dự án này, thông qua thu thập dữ liệu phi tập trung, cũng đóng vai trò là nguồn dữ liệu tiềm năng cho đào tạo AI. Do đó, theo nghĩa rộng, chúng có thể được đưa vào mô hình Web3 hỗ trợ AI.

3.1.4 ZK bảo vệ quyền riêng tư của người dùng trong AI

Blockchain nghệ mang lại lợi ích phi tập trung và cũng giới thiệu một tính năng quan trọng: bằng chứng không có kiến thức. Công nghệ không có kiến thức cho phép xác minh thông tin trong khi vẫn duy trì quyền riêng tư.

Trong học máy truyền thống, dữ liệu thường cần được lưu trữ và xử lý tập trung, điều này có thể dẫn đến rủi ro về quyền riêng tư. Các phương pháp để bảo vệ quyền riêng tư dữ liệu, chẳng hạn như mã hóa hoặc ẩn danh dữ liệu, có thể hạn chế độ chính xác và hiệu suất của các mô hình học máy.

Công nghệ chứng minh không có kiến thức giúp giải quyết vấn đề nan giải này bằng cách giải quyết xung đột giữa bảo vệ quyền riêng tư và chia sẻ dữ liệu. Zero-Knowledge Machine Learning (ZKML) sử dụng công nghệ zero-knowledge proof để cho phép đào tạo và suy luận mô hình machine learning mà không làm lộ dữ liệu gốc. Bằng chứng không có kiến thức đảm bảo rằng các tính năng của dữ liệu và kết quả của mô hình có thể được xác minh là chính xác mà không tiết lộ nội dung dữ liệu thực tế.

Mục tiêu cốt lõi của ZKML là cân bằng giữa bảo vệ quyền riêng tư và chia sẻ dữ liệu. Nó có thể được áp dụng trong các tình huống khác nhau như phân tích dữ liệu chăm sóc sức khỏe, phân tích dữ liệu tài chính và hợp tác giữa các tổ chức. Bằng cách sử dụng ZKML, các cá nhân có thể bảo vệ quyền riêng tư của dữ liệu nhạy cảm của họ trong khi chia sẻ dữ liệu với những người khác để có được những hiểu biết sâu sắc hơn và cơ hội hợp tác mà không có nguy cơ vi phạm quyền riêng tư dữ liệu. Lĩnh vực này vẫn đang trong giai đoạn đầu, với hầu hết các dự án vẫn đang được thăm dò. Ví dụ, BasedAI đề xuất một cách tiếp cận phi tập trung bằng cách tích hợp liền mạch Fully Mã hóa đồng cấu (FHE) với Mô hình ngôn ngữ lớn (LLM) để duy trì tính bảo mật dữ liệu. Mô hình ngôn ngữ lớn không có kiến thức (ZK-LLM) nhúng quyền riêng tư vào cơ sở hạ tầng mạng phân tán của họ, đảm bảo rằng dữ liệu người dùng vẫn được bảo mật trong suốt quá trình hoạt động của mạng.

Dưới đây là giải thích ngắn gọn về Fully Mã hóa đồng cấu (FHE). FHE là một kỹ thuật mã hóa cho phép tính toán được thực hiện trên dữ liệu được mã hóa mà không cần phải giải mã nó. Điều này có nghĩa là các phép toán khác nhau (như cộng, nhân, v.v.) được thực hiện trên dữ liệu được mã hóa FHE mang lại kết quả tương tự như khi chúng được thực hiện trên dữ liệu không được mã hóa ban đầu, do đó bảo vệ quyền riêng tư dữ liệu của người dùng.

Ngoài các phương pháp nói trên, Web3 còn hỗ trợ AI thông qua các dự án như Cortex, cho phép thực thi on-chain các chương trình AI. Chạy các chương trình học máy trên các blockchain truyền thống phải đối mặt với một thách thức vì các máy ảo rất kém hiệu quả trong việc chạy bất kỳ mô hình học máy không tầm thường nào. Hầu hết tin rằng chạy AI trên blockchain là không thể. Tuy nhiên, Cortex Máy ảo (CVM) sử dụng GPU để thực thi các chương trình AI on-chain và tương thích với Máy ảo Ethereum (EVM). Nói cách khác, chuỗi Cortex có thể thực thi tất cả các DApp Ethereum và tích hợp học máy AI vào các DApp này. Điều này cho phép các mô hình học máy chạy theo cách phi tập trung, bất biến và minh bạch, với sự đồng thuận của mạng xác minh từng bước suy luận AI.

3.2 AI giúp Web3

Trong cuộc va chạm giữa AI và Web3, ngoài sự hỗ trợ của Web3 cho AI, sự hỗ trợ của AI cho ngành công nghiệp Web3 cũng đáng được chú ý. Đóng góp cốt lõi của trí tuệ nhân tạo là cải thiện năng suất, vì vậy có nhiều nỗ lực trong hợp đồng thông minh kiểm toán AI, phân tích và dự đoán dữ liệu, dịch vụ được cá nhân hóa, bảo vệ an ninh và quyền riêng tư, v.v.

3.2.1 Phân tích và dự đoán dữ liệu

Nhiều dự án Web3 đang tích hợp các dịch vụ AI hiện có (như ChatGPT) hoặc tự phát triển để cung cấp dịch vụ phân tích và dự đoán dữ liệu cho người dùng Web3. Các dịch vụ này bao gồm một phạm vi rộng, bao gồm các thuật toán AI cho các chiến lược đầu tư, các công cụ phân tích on-chain và dự báo giá cả và thị trường.

Ví dụ: Pond sử dụng thuật toán đồ thị AI để dự đoán các mã thông báo alpha có giá trị trong tương lai, cung cấp dịch vụ tư vấn đầu tư cho người dùng và tổ chức. BullBear AI đào tạo về dữ liệu lịch sử người dùng, lịch sử giá và xu hướng thị trường để cung cấp thông tin chính xác hỗ trợ dự đoán xu hướng giá, giúp người dùng đạt được lợi nhuận.

Các nền tảng như Numerai tổ chức các cuộc thi đầu tư, nơi những người tham gia sử dụng AI và các mô hình ngôn ngữ lớn để dự đoán thị trường chứng khoán. Họ đào tạo các mô hình về dữ liệu chất lượng cao do nền tảng cung cấp và gửi dự đoán hàng ngày. Numerai đánh giá các dự đoán này trong tháng tiếp theo và người tham gia có thể thế chấp NMR mã thông báo trên mô hình của họ để kiếm phần thưởng dựa trên hiệu suất.

Arkham, một nền tảng phân tích dữ liệu blockchain, cũng tích hợp AI vào các dịch vụ của mình. Arkham liên kết các địa chỉ blockchain với các thực thể như sàn giao dịch, quỹ và cá voi, hiển thị dữ liệu và phân tích chính để cung cấp cho người dùng lợi thế ra quyết định. Arkham Ultra khớp địa chỉ với các thực thể trong thế giới thực bằng cách sử dụng các thuật toán được phát triển trong ba năm với hỗ trợ từ những người sáng lập Palantir và OpenAI.

3.2.2 Dịch vụ cá nhân hóa

Các ứng dụng AI trong tìm kiếm và đề xuất đang thịnh hành trong các dự án Web2, phục vụ nhu cầu cá nhân hóa của người dùng. Các dự án Web3 tương tự tích hợp AI để nâng cao trải nghiệm người dùng.

Ví dụ, nền tảng phân tích dữ liệu nổi tiếng Dune gần đây đã giới thiệu công cụ Wand, sử dụng các mô hình ngôn ngữ lớn để viết các truy vấn SQL. Với Wand Create, người dùng có thể tạo các truy vấn SQL từ các câu hỏi ngôn ngữ tự nhiên, giúp những người không quen thuộc với SQL dễ dàng tìm kiếm dữ liệu.

Các

nền tảng nội dung như Followin tích hợp ChatGPT để tóm tắt quan điểm và cập nhật trong các lĩnh vực cụ thể. Bách khoa toàn thư Web3 IQ.wiki nhằm mục đích trở thành nguồn kiến thức khách quan, chất lượng cao về công nghệ blockchain và tiền điện tử. Nó tích hợp GPT-4 để tóm tắt các bài viết wiki, làm cho thông tin blockchain dễ tiếp cận hơn trên toàn thế giới. Công cụ tìm kiếm dựa trên LLM Kaito nhằm mục đích cách mạng hóa việc truy xuất thông tin Web3.

Trong lĩnh vực sáng tạo, các dự án như NFPrompt làm giảm chi phí tạo nội dung. NFPrompt cho phép người dùng tạo NFT dễ dàng hơn với AI, cung cấp nhiều dịch vụ sáng tạo được cá nhân hóa khác nhau.

3.2.3 AI kiểm toán hợp đồng thông minh

Kiểm tra hợp đồng thông minh là một nhiệm vụ quan trọng trong Web3 và AI có thể nâng cao hiệu quả và độ chính xác trong việc xác định các lỗ hổng mã.

Vitalik Buterin đã lưu ý rằng một trong những thách thức lớn nhất trong không gian tiền điện tử là lỗi trong mã của chúng tôi. AI hứa hẹn sẽ đơn giản hóa đáng kể việc sử dụng các công cụ xác minh chính thức để chứng minh tính đúng đắn của mã. Đạt được điều này có thể dẫn đến SEK EVM (Máy ảo Ethereum) gần như không có lỗi, tăng cường bảo mật không gian vì ít lỗi hơn làm tăng độ an toàn tổng thể.

Ví dụ: dự án 0x0.ai cung cấp kiểm toán viên hợp đồng thông minh được hỗ trợ bởi AI. Công cụ này sử dụng các thuật toán nâng cao để phân tích hợp đồng thông minh và xác định các lỗ hổng hoặc vấn đề tiềm ẩn có thể dẫn đến gian lận hoặc các rủi ro bảo mật khác. Kiểm toán viên sử dụng máy học để phát hiện các mẫu và sự bất thường trong mã, gắn cờ các vấn đề tiềm ẩn để xem xét thêm.

Có những trường hợp bản địa khác mà AI hỗ trợ Web3. PAAL giúp người dùng tạo các bot AI được cá nhân hóa có thể được triển khai trên Telegram và Discord để phục vụ người dùng Web3. Công cụ tổng hợp DEX đa chuỗi do AI điều khiển Hera sử dụng AI để cung cấp các đường dẫn giao dịch tốt nhất giữa bất kỳ cặp mã thông báo nào trên các mã thông báo khác nhau. Nhìn chung, đóng góp của AI cho Web3 chủ yếu ở cấp độ công cụ, tăng cường các quy trình và chức năng khác nhau.

Hạn chế và thách thức hiện tại của dự án AI + Web3

4.1 Những trở ngại thực tế trong Khả năng tính toán phi tập trung

Hiện tại, nhiều dự án Web3 hỗ trợ AI đang tập trung vào sức mạnh tính toán phi tập trung. Sử dụng các ưu đãi mã thông báo để thúc đẩy người dùng toàn cầu trở thành một phần của phía cung cấp năng lượng tính toán là một sự đổi mới rất thú vị. Tuy nhiên, mặt khác, có một số vấn đề thực tế cần được giải quyết:

So với các nhà cung cấp dịch vụ điện toán tập trung, các sản phẩm sức mạnh tính toán phi tập trung thường dựa vào các nút và người tham gia được phân phối trên toàn cầu để cung cấp tài nguyên máy tính. Do Trễ có thể xảy ra và sự không ổn định trong kết nối mạng giữa các nút này, hiệu suất và độ ổn định có thể kém hơn các sản phẩm sức mạnh tính toán tập trung.

Ngoài ra, sự sẵn có của các sản phẩm sức mạnh tính toán phi tập trung bị ảnh hưởng bởi mức độ khớp giữa cung và cầu. Nếu không có đủ nhà cung cấp hoặc nếu nhu cầu quá cao, nó có thể dẫn đến thiếu tài nguyên hoặc không có khả năng đáp ứng nhu cầu của người dùng.

Cuối cùng, so với các sản phẩm sức mạnh tính toán tập trung, các sản phẩm sức mạnh tính toán phi tập trung thường liên quan đến nhiều chi tiết kỹ thuật và độ phức tạp hơn. Người dùng có thể cần hiểu và xử lý các khía cạnh của mạng phân tán, thanh toán hợp đồng thông minh và tiền điện tử, điều này làm tăng chi phí hiểu và sử dụng người dùng.

Sau các cuộc thảo luận chuyên sâu với nhiều nhóm dự án sức mạnh tính toán phi tập trung, người ta thấy rằng sức mạnh tính toán phi tập trung hiện tại vẫn chủ yếu giới hạn ở suy luận AI hơn là đào tạo AI.

Tiếp theo, tôi sẽ sử dụng bốn câu hỏi để giúp mọi người hiểu lý do đằng sau điều này:

  1. Tại sao hầu hết các dự án điện toán phi tập trung chọn suy luận AI thay vì đào tạo AI?

  2. Điều gì khiến NVIDIA trở nên mạnh mẽ như vậy? Những lý do mà đào tạo sức mạnh tính toán phi tập trung là khó khăn là gì?

  3. Điều gì sẽ là kết thúc cho sức mạnh tính toán phi tập trung (Render, Akash, io.net, v.v.)?

  4. Điều gì sẽ là kết thúc cho các thuật toán phi tập trung (Bittensor)?

Hãy đi sâu vào chi tiết từng bước:

1) Quan sát lĩnh vực này, hầu hết các dự án điện toán phi tập trung chọn tập trung vào suy luận AI hơn là đào tạo, chủ yếu là do các yêu cầu khác nhau về sức mạnh tính toán và băng thông.

Để giúp mọi người hiểu rõ hơn, hãy so sánh AI với học sinh:

  • Đào tạo AI: Nếu chúng ta so sánh trí tuệ nhân tạo với một sinh viên, đào tạo tương tự như cung cấp cho AI một lượng lớn kiến thức và ví dụ, giống như những gì chúng ta thường gọi là dữ liệu. AI học hỏi từ những ví dụ này. Vì việc học liên quan đến việc hiểu và ghi nhớ một lượng lớn thông tin, quá trình này đòi hỏi sức mạnh tính toán và thời gian đáng kể.

  • AI Inference: Inference có thể hiểu là sử dụng kiến thức thu được để giải quyết vấn đề hoặc làm bài kiểm tra. Trong quá trình suy luận, AI sử dụng kiến thức đã học để trả lời các câu hỏi thay vì thu thập thông tin mới, do đó các yêu cầu tính toán tương đối thấp hơn.

Thật dễ dàng để thấy rằng sự khác biệt cơ bản về độ khó nằm ở chỗ đào tạo AI mô hình lớn đòi hỏi khối lượng dữ liệu khổng lồ và băng thông cực cao để truyền dữ liệu, khiến việc đạt được với sức mạnh tính toán phi tập trung trở nên rất khó khăn. Ngược lại, suy luận đòi hỏi ít dữ liệu và băng thông hơn nhiều, làm cho nó khả thi hơn.

Đối với các mô hình lớn, sự ổn định là rất quan trọng. Nếu đào tạo bị gián đoạn, nó phải khởi động lại, dẫn đến chi phí chìm cao. Mặt khác, có thể đạt được các yêu cầu về sức mạnh tính toán tương đối thấp hơn, chẳng hạn như suy luận AI hoặc các tình huống cụ thể nhất định liên quan đến đào tạo mô hình từ trung bình đến nhỏ. Trong các mạng điện toán phi tập trung, một số nhà cung cấp dịch vụ nút tương đối lớn có thể đáp ứng nhu cầu sức mạnh tính toán tương đối cao hơn này.

2) Vì vậy, đâu là nút thắt cổ chai trong dữ liệu và băng thông? Tại sao đào tạo phi tập trung khó đạt được?

Điều này liên quan đến hai yếu tố chính của đào tạo mô hình lớn: sức mạnh tính toán một thẻ và song song nhiều thẻ.

Sức mạnh tính toán một thẻ: Hiện tại, tất cả các trung tâm yêu cầu đào tạo mô hình lớn, được gọi là trung tâm siêu máy tính, có thể được so sánh với cơ thể con người, nơi đơn vị cơ bản, GPU, giống như một tế bào. Nếu sức mạnh tính toán của một ô đơn (GPU) mạnh, thì sức mạnh tính toán tổng thể (số lượng × tế bào đơn) cũng có thể rất mạnh.

Song song nhiều thẻ: Đào tạo một mô hình lớn thường liên quan đến hàng trăm tỷ gigabyte. Đối với các trung tâm siêu máy tính đào tạo các mô hình lớn, cần ít nhất hàng chục nghìn GPU A100. Điều này đòi hỏi phải huy động hàng ngàn thẻ để đào tạo. Tuy nhiên, đào tạo một mô hình lớn không phải là một quá trình nối tiếp đơn giản; nó không chỉ đào tạo trên thẻ A100 đầu tiên và sau đó chuyển sang thẻ thứ hai. Thay vào đó, các phần khác nhau của mô hình được đào tạo đồng thời trên các GPU khác nhau và phần đào tạo A có thể yêu cầu kết quả từ phần B, liên quan đến xử lý song song.

Sự thống trị của NVIDIA và giá trị thị trường ngày càng tăng, trong khi AMD và các công ty trong nước như Huawei và Horizon khó bắt kịp, xuất phát từ hai khía cạnh: môi trường phần mềm CUDA và giao tiếp đa thẻ NVLink.

Môi trường phần mềm CUDA: Liệu có một hệ sinh thái phần mềm phù hợp với phần cứng hay không là rất quan trọng, như hệ thống CUDA của NVIDIA. Xây dựng một hệ thống mới là một thách thức, giống như việc tạo ra một ngôn ngữ mới với chi phí thay thế cao.

Giao tiếp đa thẻ NVLink: Về cơ bản, giao tiếp nhiều thẻ liên quan đến đầu vào và đầu ra của thông tin. Làm thế nào để song song và truyền tải là rất quan trọng. Sự hiện diện của NVLink có nghĩa là thẻ NVIDIA và AMD không thể giao tiếp; Ngoài ra, NVLink giới hạn khoảng cách vật lý giữa các GPU, yêu cầu chúng phải ở trong cùng một trung tâm siêu máy tính. Điều này gây khó khăn cho sức mạnh tính toán phi tập trung trải rộng trên toàn cầu để tạo thành một cụm điện toán gắn kết để đào tạo mô hình lớn.

Điểm đầu tiên giải thích tại sao AMD và các công ty trong nước như Huawei và Horizon phải vật lộn để bắt kịp; điểm thứ hai giải thích tại sao đào tạo phi tập trung khó đạt được.

3) Điều gì sẽ là kết thúc cho sức mạnh tính toán phi tập trung? Sức mạnh tính toán phi tập trung hiện đang phải vật lộn với việc đào tạo mô hình lớn vì sự ổn định là tối quan trọng. Sự gián đoạn đòi hỏi phải đào tạo lại, dẫn đến chi phí chìm cao. Các yêu cầu cao đối với tính song song của nhiều thẻ bị giới hạn bởi các hạn chế về băng thông vật lý. NVLink của NVIDIA đạt được giao tiếp đa thẻ, nhưng trong một trung tâm siêu máy tính, NVLink giới hạn khoảng cách vật lý giữa các GPU. Do đó, sức mạnh tính toán phân tán không thể tạo thành một cụm tính toán để đào tạo mô hình lớn.

Tuy nhiên, đối với các nhu cầu có yêu cầu sức mạnh tính toán tương đối thấp hơn, chẳng hạn như suy luận AI hoặc một số tình huống cụ thể nhất định liên quan đến đào tạo mô hình vừa và nhỏ, các mạng điện toán phi tập trung với một số nhà cung cấp dịch vụ nút tương đối lớn có tiềm năng. Ngoài ra, các kịch bản như điện toán biên để kết xuất tương đối dễ thực hiện hơn.

4) Điều gì sẽ là kết thúc cho các mô hình thuật toán phi tập trung? Tương lai của các mô hình thuật toán phi tập trung phụ thuộc vào hướng đi cuối cùng của AI. Tôi tin rằng tương lai của AI có thể có 1-2 gã khổng lồ mô hình nguồn đóng (như ChatGPT) cùng với rất nhiều mô hình. Trong bối cảnh này, các sản phẩm lớp ứng dụng không cần phải liên kết với một mô hình lớn duy nhất mà cần hợp tác với nhiều mô hình lớn. Trong kịch bản này, mô hình của Bittensor cho thấy tiềm năng đáng kể.

Trong các dự án hiện tại kết hợp Web3 và AI, đặc biệt là những dự án mà AI hỗ trợ các sáng kiến Web3, hầu hết các dự án chỉ sử dụng AI một cách hời hợt mà không thể hiện sự tích hợp sâu giữa AI và tiền điện tử. Ứng dụng hời hợt này thể hiện rõ ở hai khía cạnh sau:

  • Đầu tiên, cho dù sử dụng AI để phân tích và dự đoán dữ liệu, trong các tình huống đề xuất và tìm kiếm hay để kiểm tra mã, có rất ít sự khác biệt so với việc tích hợp AI trong các dự án Web2. Các dự án này chỉ đơn giản là tận dụng AI để nâng cao hiệu quả và phân tích mà không thể hiện sự kết hợp nguyên bản của AI và tiền điện tử hoặc trình bày các giải pháp sáng tạo.
  • Thứ hai, nhiều nhóm Web3 kết hợp AI nhiều hơn như một mánh lới quảng cáo tiếp thị, hoàn toàn tận dụng khái niệm AI. Họ áp dụng công nghệ AI trong các lĩnh vực rất hạn chế và sau đó bắt đầu thúc đẩy xu hướng AI, tạo ra một mặt tiền tích hợp chặt chẽ với AI. Tuy nhiên, các dự án này thiếu sự đổi mới đáng kể.

Mặc dù các dự án Web3 và AI hiện tại có những hạn chế này, chúng ta nên nhận ra rằng đây mới chỉ là giai đoạn phát triển ban đầu. Trong tương lai, chúng ta có thể mong đợi nhiều nghiên cứu và đổi mới chuyên sâu hơn để đạt được sự tích hợp chặt chẽ hơn giữa AI và tiền điện tử, tạo ra các giải pháp bản địa và có ý nghĩa hơn trong các lĩnh vực như tài chính, tổ chức tự trị phi tập trung (DAO), thị trường dự đoán và NFT.

4.3 Token Kinh tế đóng vai trò là bộ đệm cho các câu chuyện dự án AI

Như đã đề cập ban đầu, các dự án AI phải đối mặt với những thách thức trong mô hình kinh doanh của họ, đặc biệt là khi ngày càng có nhiều mô hình lớn đang dần trở thành nguồn mở. Nhiều dự án AI + Web3, thường là các dự án AI thuần túy đang vật lộn để phát triển mạnh và bảo mật phí funding trong không gian Web2, chọn lớp phủ các câu chuyện và kinh tế mã thông báo từ Web3 để khuyến khích sự tham gia của người dùng.

Tuy nhiên, câu hỏi quan trọng là liệu việc tích hợp kinh tế mã thông báo có thực sự giúp các dự án AI giải quyết nhu cầu trong thế giới thực hay nó chỉ đơn giản là phục vụ như một câu chuyện hoặc đề xuất giá trị short hạn. Hiện tại, hầu hết các dự án AI + Web3 còn lâu mới đạt đến giai đoạn thực tế. Hy vọng rằng các nhóm có căn cứ và chu đáo hơn sẽ không chỉ sử dụng mã thông báo như một phương tiện để thổi phồng các dự án AI mà còn thực sự hoàn thành các trường hợp sử dụng thực tế.

Tóm tắt

Hiện tại, nhiều trường hợp và ứng dụng đã xuất hiện trong các dự án AI + Web3. Thứ nhất, công nghệ AI có thể cung cấp các trường hợp sử dụng hiệu quả và thông minh hơn cho Web3. Thông qua khả năng phân tích và dự đoán dữ liệu của AI, người dùng trong Web3 có thể có các công cụ tốt hơn cho các quyết định đầu tư và các tình huống khác. Ngoài ra, AI có thể kiểm toán mã hợp đồng thông minh, tối ưu hóa việc thực hiện hợp đồng và nâng cao hiệu suất và hiệu quả của blockchain. Hơn nữa, công nghệ AI có thể cung cấp các đề xuất chính xác và thông minh hơn và các dịch vụ được cá nhân hóa cho các ứng dụng phi tập trung, do đó cải thiện trải nghiệm người dùng.

Đồng thời, bản chất phi tập trung và có thể lập trình của Web3 cũng mang đến những cơ hội mới cho công nghệ AI. Thông qua các ưu đãi mã thông báo, các dự án sức mạnh tính toán phi tập trung cung cấp các giải pháp mới cho tình trạng tiến thoái lưỡng nan về sức mạnh tính toán AI không đủ. Các cơ chế lưu trữ hợp đồng thông minh và phân tán của Web3 cũng cung cấp không gian và tài nguyên rộng hơn để chia sẻ và đào tạo thuật toán AI. Cơ chế tự chủ và tin cậy người dùng của Web3 cũng mang đến những khả năng mới cho sự phát triển AI, cho phép người dùng tự chủ lựa chọn tham gia chia sẻ và đào tạo dữ liệu, từ đó nâng cao tính đa dạng và chất lượng dữ liệu và cải thiện hơn nữa hiệu suất và độ chính xác của các mô hình AI.

Mặc dù các dự án cross-over AI + Web3 hiện tại vẫn đang ở giai đoạn đầu và đối mặt với nhiều thách thức, nhưng chúng cũng mang lại nhiều lợi thế. Ví dụ, các sản phẩm điện toán phi tập trung có một số nhược điểm, nhưng chúng làm giảm sự phụ thuộc vào các tổ chức tập trung, cung cấp tính minh bạch và khả năng kiểm toán cao hơn, đồng thời cho phép sự tham gia và đổi mới rộng rãi hơn. Đối với các trường hợp sử dụng cụ thể và nhu cầu của người dùng, các sản phẩm sức mạnh tính toán phi tập trung có thể là một lựa chọn có giá trị. Điều tương tự cũng áp dụng cho việc thu thập dữ liệu; Các dự án thu thập dữ liệu phi tập trung mang lại những lợi thế như giảm sự phụ thuộc vào các nguồn dữ liệu đơn lẻ, cung cấp phạm vi dữ liệu rộng hơn và thúc đẩy sự đa dạng và toàn diện của dữ liệu. Trong thực tế, cần cân bằng giữa những ưu nhược điểm này và có biện pháp quản lý, kỹ thuật phù hợp để vượt qua thách thức, đảm bảo các dự án thu thập dữ liệu phi tập trung có tác động tích cực đến phát triển AI.

Nhìn chung, việc tích hợp AI + Web3 mang đến khả năng vô hạn cho sự đổi mới công nghệ và phát triển kinh tế trong tương lai. Bằng cách kết hợp khả năng phân tích và ra quyết định thông minh của AI với bản chất phi tập trung và tự chủ của Web3, người ta tin rằng chúng ta có thể xây dựng một hệ thống kinh tế và thậm chí xã hội thông minh hơn, cởi mở hơn và công bằng hơn.

Tuyên bố từ chối trách nhiệm:

  1. Bài viết này được in lại từ [Ryze Labs]. Tất cả bản quyền thuộc về tác giả gốc [Fred]. Nếu có ý kiến phản đối bản in lại này, vui lòng liên hệ với nhóm Gate Learn và họ sẽ xử lý kịp thời.
  2. Tuyên bố từ chối trách nhiệm: Các quan điểm và ý kiến được trình bày trong bài viết này chỉ là của tác giả và không cấu thành bất kỳ lời khuyên đầu tư nào.
  3. Bản dịch bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm Gate Learn. Trừ khi được đề cập, việc sao chép, phân phối hoặc đạo văn các bài báo đã dịch đều bị cấm.
Bắt đầu giao dịch
Đăng ký và giao dịch để nhận phần thưởng USDTEST trị giá
$100
$5500