AIxDePIN: Những cơ hội mới nào sẽ nảy sinh từ sự va chạm của hai đường đua nóng này?

Người mới bắt đầuJan 26, 2024
Bài viết này giải thích những thay đổi mà DePIN có thể mang lại cho AI, với tiềm năng giúp việc đào tạo AI hiệu quả hơn và đạt được mức độ phổ biến AI.
AIxDePIN: Những cơ hội mới nào sẽ nảy sinh từ sự va chạm của hai đường đua nóng này?

Bằng cách khai thác sức mạnh của thuật toán, sức mạnh tính toán và dữ liệu, sự tiến bộ của công nghệ AI đang xác định lại ranh giới của việc xử lý dữ liệu và ra quyết định thông minh. Đồng thời, DePIN thể hiện sự thay đổi mô hình từ cơ sở hạ tầng tập trung sang các mạng dựa trên blockchain phi tập trung.

Khi thế giới đẩy nhanh tốc độ chuyển đổi kỹ thuật số, AI và DePIN (cơ sở hạ tầng vật lý phi tập trung) đã trở thành những công nghệ nền tảng thúc đẩy sự chuyển đổi trong các ngành công nghiệp. Sự kết hợp giữa AI và DePIN không chỉ thúc đẩy quá trình lặp lại công nghệ nhanh chóng và ứng dụng rộng rãi mà còn mở ra mô hình dịch vụ an toàn, minh bạch và hiệu quả hơn, mang lại những thay đổi sâu sắc cho nền kinh tế toàn cầu.

DePIN: Phân quyền chuyển từ ảo sang hiện thực, trụ cột của nền kinh tế kỹ thuật số

DePIN là tên viết tắt của Cơ sở hạ tầng vật lý phi tập trung. Theo nghĩa hẹp, DePIN chủ yếu đề cập đến mạng phân tán của cơ sở hạ tầng vật lý truyền thống được hỗ trợ bởi công nghệ sổ cái phân tán, như mạng điện, mạng truyền thông, mạng định vị, v.v. Nói rộng ra, tất cả các mạng phân tán được hỗ trợ bởi các thiết bị vật lý đều có thể được gọi là DePIN, như mạng lưu trữ và mạng máy tính.

Nguồn hình ảnh: Messari

Nếu Crypto đã mang lại những thay đổi phi tập trung ở cấp độ tài chính thì DePIN là một giải pháp phi tập trung trong nền kinh tế thực. Có thể nói máy khai thác PoW là một loại DePIN. Vì vậy, DePIN đã trở thành trụ cột cốt lõi của Web3 ngay từ ngày đầu.

Ba yếu tố của AI— Thuật toán, sức mạnh tính toán và dữ liệu. DePIN độc quyền sở hữu hai

Sự phát triển của trí tuệ nhân tạo thường được coi là dựa vào ba yếu tố chính: thuật toán, sức mạnh tính toán và dữ liệu. Thuật toán đề cập đến các mô hình toán học và logic chương trình điều khiển hệ thống AI, sức mạnh tính toán đề cập đến các tài nguyên điện toán cần thiết để thực thi các thuật toán này và dữ liệu là cơ sở để đào tạo và tối ưu hóa các mô hình AI.

Trong ba yếu tố nào là quan trọng nhất? Trước khi chatGPT xuất hiện, mọi người thường coi nó như một thuật toán, nếu không thì các hội nghị học thuật và tạp chí sẽ không tràn ngập các thuật toán tinh chỉnh lần lượt. Nhưng khi chatGPT và mô hình ngôn ngữ lớn LLM hỗ trợ trí thông minh của nó được ra mắt, mọi người bắt đầu nhận ra tầm quan trọng của hai mô hình sau. Sức mạnh tính toán khổng lồ là điều kiện tiên quyết cho sự ra đời của các mô hình. Chất lượng và tính đa dạng của dữ liệu rất quan trọng để xây dựng một hệ thống AI mạnh mẽ và hiệu quả. So sánh, các yêu cầu về thuật toán không còn khắt khe như trước nữa.

Trong kỷ nguyên của các mô hình lớn, AI đã chuyển đổi từ tinh chỉnh sang mạnh mẽ, với nhu cầu ngày càng tăng về sức mạnh tính toán và dữ liệu. DePIN tình cờ có thể cung cấp điều đó. Các ưu đãi mã thông báo sẽ thúc đẩy thị trường dài hạn, nơi sức mạnh tính toán và lưu trữ khổng lồ ở cấp độ người tiêu dùng sẽ trở thành nguồn dinh dưỡng tốt nhất cho các mô hình lớn.

Phân cấp AI không phải là một lựa chọn mà là một điều cần thiết

Tất nhiên, ai đó có thể hỏi, tại sao lại chọn DePIN thay vì các dịch vụ tập trung khi cả sức mạnh tính toán và dữ liệu đều có sẵn trong trung tâm dữ liệu AWS, hơn nữa, AWS vượt trội hơn DePIN về độ ổn định và trải nghiệm người dùng?

Tuyên bố này tất nhiên có lý do của nó. Suy cho cùng, nhìn vào tình hình hiện tại, hầu như tất cả các mô hình lớn đều được phát triển trực tiếp hoặc gián tiếp bởi các công ty internet lớn. Đứng sau chatGPT là Microsoft và đằng sau Gemini là Google. Ở Trung Quốc, hầu hết các công ty internet lớn đều có mô hình lớn. Tại sao vậy? Đó là bởi vì chỉ những công ty internet lớn mới có sức mạnh tính toán được hỗ trợ bởi dữ liệu chất lượng cao và nguồn tài chính mạnh. Nhưng điều này không đúng. Mọi người không còn muốn bị những gã khổng lồ internet thao túng.

Một mặt, AI tập trung tiềm ẩn rủi ro về bảo mật và quyền riêng tư dữ liệu, đồng thời có thể bị kiểm duyệt và kiểm soát. Mặt khác, AI do những gã khổng lồ Internet sản xuất sẽ tăng cường hơn nữa sự phụ thuộc của con người, dẫn đến sự tập trung thị trường và gia tăng các rào cản đối với sự đổi mới.

từ: https://www.gensyn.ai/

Nhân loại không còn cần một Martin Luther trong kỷ nguyên AI nữa. Mọi người nên có quyền nói chuyện trực tiếp với Chúa.

DePIN từ góc độ kinh doanh: Giảm chi phí và tăng hiệu quả là chìa khóa

Ngay cả khi gạt cuộc tranh luận giữa giá trị phi tập trung và tập trung sang một bên, từ góc độ kinh doanh, vẫn có những lợi thế khi sử dụng DePIN cho AI.

Đầu tiên, điều quan trọng cần nhận ra là mặc dù những gã khổng lồ internet kiểm soát một lượng lớn tài nguyên card đồ họa cao cấp, nhưng sự kết hợp giữa card đồ họa cấp người tiêu dùng trong tay các cá nhân vẫn có thể tạo thành một mạng lưới sức mạnh tính toán đáng kể, được gọi là mạng đuôi dài. tác dụng của sức mạnh tính toán. Những card đồ họa dành cho người tiêu dùng này thường có tốc độ chạy không tải cao. Miễn là các ưu đãi do DePIN cung cấp vượt quá chi phí điện, người dùng sẽ có động lực đóng góp sức mạnh tính toán của mình cho mạng. Ngoài ra, với việc người dùng tự quản lý cơ sở hạ tầng vật lý, mạng DePIN không phải chịu chi phí vận hành mà các nhà cung cấp tập trung không thể tránh khỏi và chỉ có thể tập trung vào thiết kế giao thức.

Đối với dữ liệu, mạng DePIN có thể mở khóa khả năng sử dụng tiềm năng của dữ liệu và giảm chi phí truyền tải thông qua tính toán biên và các phương pháp khác. Hơn nữa, hầu hết các mạng lưu trữ phân tán đều có khả năng chống trùng lặp tự động, giúp giảm nhu cầu làm sạch dữ liệu trên diện rộng trong đào tạo AI.

Cuối cùng, nền kinh tế tiền điện tử do DePIN mang lại giúp nâng cao khả năng chịu lỗi của hệ thống và có khả năng đạt được tình huống đôi bên cùng có lợi cho nhà cung cấp, người tiêu dùng và nền tảng.

Hình ảnh từ: UCLA

Trong trường hợp bạn không tin, nghiên cứu mới nhất của UCLA cho thấy sử dụng điện toán phi tập trung đạt được hiệu suất tốt hơn 2,75 lần so với các cụm GPU truyền thống có cùng mức chi phí. Cụ thể, nó nhanh hơn 1,22 lần và rẻ hơn 4,83 lần.

Con đường khó khăn phía trước: AIxDePIN sẽ gặp phải những thách thức gì?

Chúng ta chọn lên mặt trăng và làm những việc khác trong thập kỷ này không phải vì chúng dễ mà vì chúng khó. - John Fitzgerald Kennedy

Việc sử dụng bộ lưu trữ phân tán và điện toán phân tán của DePIN để xây dựng các mô hình AI mà không có sự tin cậy vẫn đặt ra nhiều thách thức.

Xác minh công việc

Về cơ bản, cả tính toán mô hình học sâu và khai thác PoW đều là các hình thức tính toán chung, với sự thay đổi tín hiệu cơ bản giữa các mạch cổng. Ở cấp độ vĩ mô, khai thác PoW là “tính toán vô ích”, cố gắng tìm giá trị băm có tiền tố n số 0 thông qua vô số phép tính hàm băm và tạo số ngẫu nhiên. Mặt khác, tính toán deep learning là “tính toán hữu ích”, tính toán các giá trị tham số của từng lớp trong deep learning thông qua lan truyền tiến và lùi, từ đó xây dựng một mô hình AI hiệu quả.

Thực tế là “các phép tính vô dụng” như khai thác PoW sử dụng hàm băm. Tính toán hình ảnh từ hình ảnh gốc thì dễ nhưng tính hình ảnh gốc từ hình ảnh lại khó, vì vậy bất kỳ ai cũng có thể dễ dàng và nhanh chóng xác minh tính hợp lệ của phép tính; Để tính toán mô hình deep learning, do có cấu trúc phân cấp nên đầu ra của mỗi lớp được dùng làm đầu vào của lớp tiếp theo. Vì vậy, việc xác minh tính hợp lệ của phép tính đòi hỏi phải thực hiện tất cả các công việc trước đó và không thể xác minh một cách đơn giản và hiệu quả.

Hình ảnh từ: AWS

Việc xác minh công việc là rất quan trọng, nếu không, nhà cung cấp phép tính hoàn toàn không thể thực hiện phép tính và gửi kết quả được tạo ngẫu nhiên.

Một ý tưởng là yêu cầu các máy chủ khác nhau thực hiện các nhiệm vụ tính toán giống nhau và xác minh tính hiệu quả của công việc bằng cách lặp lại quá trình thực thi và kiểm tra xem nó có giống nhau hay không. Tuy nhiên, phần lớn các tính toán mô hình là không xác định và không thể sao chép các kết quả tương tự ngay cả trong cùng một môi trường điện toán và chỉ có thể giống nhau theo nghĩa thống kê. Ngoài ra, việc tính hai lần sẽ dẫn đến chi phí tăng nhanh, điều này không phù hợp với mục tiêu chính của DePIN là giảm chi phí và tăng hiệu quả.

Một loại ý tưởng khác là cơ chế Lạc quan, giả định một cách lạc quan rằng kết quả được tính toán chính xác và cho phép mọi người xác minh kết quả tính toán. Nếu phát hiện thấy bất kỳ lỗi nào, Bằng chứng gian lận có thể được gửi. Giao thức trừng phạt kẻ lừa đảo và khen thưởng người tố cáo.

Song song hóa

Như đã đề cập trước đó, DePIN chủ yếu tận dụng thị trường sức mạnh tính toán tiêu dùng dài hạn, có nghĩa là sức mạnh tính toán được cung cấp bởi một thiết bị duy nhất là tương đối hạn chế. Đối với các mô hình AI lớn, việc đào tạo trên một thiết bị sẽ mất rất nhiều thời gian và phải sử dụng song song để rút ngắn thời gian đào tạo.

Khó khăn chính trong việc song song hóa đào tạo deep learning nằm ở sự phụ thuộc giữa các nhiệm vụ trước đó và nhiệm vụ tiếp theo, điều này khiến cho việc song song hóa khó đạt được.

Hiện nay, việc song song hóa đào tạo deep learning chủ yếu được chia thành song song dữ liệu và song song mô hình.

Song song dữ liệu đề cập đến việc phân phối dữ liệu trên nhiều máy. Mỗi máy lưu tất cả các tham số của một mô hình, sử dụng dữ liệu cục bộ để đào tạo và cuối cùng tổng hợp các tham số của từng máy. Song song dữ liệu hoạt động tốt khi lượng dữ liệu lớn, nhưng yêu cầu giao tiếp đồng bộ để tổng hợp các tham số.

Song song mô hình có nghĩa là khi kích thước của mô hình quá lớn không thể nhét vừa một máy duy nhất, mô hình có thể được chia ra trên nhiều máy và mỗi máy lưu lại một phần tham số của mô hình. Việc truyền tiến và lùi yêu cầu giao tiếp giữa các máy khác nhau. Tính song song của mô hình có lợi thế khi mô hình lớn, nhưng chi phí truyền thông trong quá trình truyền tiến và truyền ngược lại lớn.

Thông tin độ dốc giữa các lớp khác nhau có thể được chia thành cập nhật đồng bộ và cập nhật không đồng bộ. Cập nhật đồng bộ đơn giản và trực tiếp nhưng sẽ làm tăng thời gian chờ đợi; thuật toán cập nhật không đồng bộ có thời gian chờ ngắn nhưng sẽ gây ra các vấn đề về độ ổn định.

Hình ảnh từ: Đại học Stanford, Học sâu song song và phân tán

Sự riêng tư

Xu hướng toàn cầu về bảo vệ quyền riêng tư cá nhân đang gia tăng và các chính phủ trên thế giới đang tăng cường bảo vệ quyền riêng tư dữ liệu cá nhân. Mặc dù AI sử dụng rộng rãi các bộ dữ liệu công cộng, nhưng điều thực sự khác biệt giữa các mô hình AI khác nhau là dữ liệu người dùng độc quyền của mỗi doanh nghiệp.

Làm cách nào để có được lợi ích từ dữ liệu độc quyền trong quá trình đào tạo mà không làm lộ quyền riêng tư? Làm thế nào để đảm bảo các thông số của mô hình AI được xây dựng không bị rò rỉ?

Đây là hai khía cạnh của quyền riêng tư, quyền riêng tư dữ liệu và quyền riêng tư của mô hình. Quyền riêng tư dữ liệu bảo vệ người dùng, trong khi quyền riêng tư của mô hình bảo vệ tổ chức xây dựng mô hình. Trong tình hình hiện tại, quyền riêng tư dữ liệu quan trọng hơn nhiều so với quyền riêng tư của mô hình.

Một loạt các giải pháp đang được cố gắng giải quyết vấn đề riêng tư. Học tập liên kết đảm bảo quyền riêng tư của dữ liệu bằng cách đào tạo tại nguồn dữ liệu, lưu giữ dữ liệu cục bộ và truyền các tham số mô hình; và bằng chứng không có kiến thức có thể trở thành một ngôi sao đang lên.

Phân tích trường hợp: Các dự án chất lượng cao trên thị trường là gì?

gensyn

Gensyn là mạng điện toán phân tán được thiết kế để đào tạo các mô hình AI. Mạng sử dụng chuỗi khối một lớp dựa trên Polkadot để xác minh việc thực hiện đúng các nhiệm vụ học sâu và kích hoạt thanh toán thông qua các lệnh. Được thành lập vào năm 2020, nó đã tiết lộ vòng tài trợ Series A trị giá 43 triệu USD vào tháng 6 năm 2023, trong đó a16z dẫn đầu khoản đầu tư.

Gensyn sử dụng siêu dữ liệu của quy trình tối ưu hóa dựa trên độ dốc để xây dựng chứng chỉ của công việc được thực hiện, được thực thi nhất quán bởi giao thức chính xác đa chi tiết, dựa trên biểu đồ và trình đánh giá chéo để cho phép các công việc xác thực được chạy lại và so sánh về tính nhất quán, và cuối cùng là bằng dây chuyền Hãy tự mình xác nhận để đảm bảo tính hợp lệ của phép tính. Để tăng cường hơn nữa độ tin cậy của việc xác minh công việc, Gensyn giới thiệu đặt cược để tạo động lực.

Có bốn loại người tham gia trong hệ thống: người gửi, người giải quyết, người xác minh và người tố cáo.

• Người gửi là người dùng cuối của hệ thống, họ cung cấp các nhiệm vụ được tính toán và được trả tiền cho các đơn vị công việc đã hoàn thành.
• Người giải quyết là nhân viên chính của hệ thống, thực hiện đào tạo mô hình và tạo ra bằng chứng để người xác minh kiểm tra.
• Trình xác nhận là chìa khóa để liên kết quá trình đào tạo không xác định với tính toán tuyến tính xác định, sao chép bằng chứng giải từng phần và so sánh khoảng cách với ngưỡng dự kiến.
• Người tố giác là tuyến phòng thủ cuối cùng, kiểm tra công việc của người xác minh và đưa ra thử thách, nhận phần thưởng sau khi vượt qua thử thách.

Người giải quyết cần đưa ra cam kết và người tố cáo sẽ kiểm tra công việc của người giải quyết. Nếu phát hiện ra việc ác, anh ta sẽ thách thức nó. Sau khi thử thách được vượt qua, số token mà người giải quyết đặt cược sẽ bị phạt và người tố cáo sẽ được thưởng.

Theo dự đoán của Gensyn, giải pháp này được kỳ vọng sẽ giảm chi phí đào tạo xuống còn 1/5 so với các nhà cung cấp tập trung.

Nguồn: Gensyn

FedML

FedML là một nền tảng học máy cộng tác phi tập trung dành cho AI phi tập trung và cộng tác, ở mọi nơi và ở mọi quy mô. Cụ thể hơn, FedML cung cấp hệ sinh thái MLOps để đào tạo, triển khai, giám sát và liên tục cải tiến các mô hình học máy trong khi cộng tác trên dữ liệu, mô hình và tài nguyên máy tính kết hợp theo cách bảo vệ quyền riêng tư. Được thành lập vào năm 2022, FedML đã tiết lộ vòng hạt giống trị giá 6 triệu đô la vào tháng 3 năm 2023.

FedML bao gồm hai thành phần chính: FedML-API và FedML-core, lần lượt đại diện cho API cấp cao và API cấp thấp.

FedML-core bao gồm hai mô-đun độc lập: truyền thông phân tán và đào tạo mô hình. Mô-đun giao tiếp chịu trách nhiệm về giao tiếp cơ bản giữa các nhân viên/khách hàng khác nhau và dựa trên MPI; mô-đun đào tạo mô hình dựa trên PyTorch.

FedML-API được xây dựng trên lõi FedML. Với FedML-core, các thuật toán phân tán mới có thể được triển khai dễ dàng bằng cách áp dụng các giao diện lập trình hướng tới khách hàng.

Công việc mới nhất của nhóm FedML chứng minh rằng việc sử dụng FedML Nexus AI để suy luận mô hình AI trên GPU RTX 4090 cấp độ người tiêu dùng rẻ hơn 20 lần và nhanh hơn 1,88 lần so với sử dụng A100.

từ: FedML

Triển vọng tương lai: DePIN mang đến sự dân chủ hóa AI

Một ngày nào đó, AI sẽ phát triển hơn nữa thành AGI và sức mạnh tính toán sẽ trở thành loại tiền tệ phổ biến trên thực tế. DePIN sẽ thực hiện trước quá trình này.

Sự giao thoa và hợp tác giữa AI và DePIN đã mở ra một điểm phát triển công nghệ hoàn toàn mới, mang đến những cơ hội to lớn cho sự phát triển của trí tuệ nhân tạo. DePIN cung cấp cho AI sức mạnh tính toán và dữ liệu phân tán khổng lồ, giúp đào tạo các mô hình quy mô lớn hơn và đạt được trí thông minh mạnh mẽ hơn. Đồng thời, DePIN cũng cho phép AI phát triển theo hướng cởi mở, an toàn và đáng tin cậy hơn, giảm sự phụ thuộc vào một cơ sở hạ tầng tập trung duy nhất.

Trong tương lai, AI và DePIN sẽ tiếp tục phát triển đồng bộ. Mạng phân tán sẽ cung cấp nền tảng vững chắc cho việc đào tạo các mô hình siêu lớn, điều này sẽ đóng vai trò quan trọng trong các ứng dụng DePIN. Trong khi bảo vệ quyền riêng tư và bảo mật, AI cũng sẽ góp phần tối ưu hóa các giao thức và thuật toán mạng DePIN. Chúng tôi mong muốn AI và DePIN mang đến một thế giới kỹ thuật số hiệu quả, công bằng và đáng tin cậy hơn.

Tuyên bố từ chối trách nhiệm:

  1. Bài viết này được in lại từ []. Mọi bản quyền đều thuộc về tác giả gốc [**]. Nếu có ý kiến phản đối việc tái bản này, vui lòng liên hệ với nhóm Gate Learn , họ sẽ xử lý kịp thời.
  2. Tuyên bố từ chối trách nhiệm pháp lý: Th
    Các quan điểm và ý kiến trình bày trong bài viết này chỉ là của tác giả và không cấu thành bất kỳ lời khuyên đầu tư nào.
  3. Việc dịch bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm Gate Learn. Trừ khi được đề cập, việc sao chép, phân phối hoặc đạo văn các bài viết đã dịch đều bị cấm.

AIxDePIN: Những cơ hội mới nào sẽ nảy sinh từ sự va chạm của hai đường đua nóng này?

Người mới bắt đầuJan 26, 2024
Bài viết này giải thích những thay đổi mà DePIN có thể mang lại cho AI, với tiềm năng giúp việc đào tạo AI hiệu quả hơn và đạt được mức độ phổ biến AI.
AIxDePIN: Những cơ hội mới nào sẽ nảy sinh từ sự va chạm của hai đường đua nóng này?

Bằng cách khai thác sức mạnh của thuật toán, sức mạnh tính toán và dữ liệu, sự tiến bộ của công nghệ AI đang xác định lại ranh giới của việc xử lý dữ liệu và ra quyết định thông minh. Đồng thời, DePIN thể hiện sự thay đổi mô hình từ cơ sở hạ tầng tập trung sang các mạng dựa trên blockchain phi tập trung.

Khi thế giới đẩy nhanh tốc độ chuyển đổi kỹ thuật số, AI và DePIN (cơ sở hạ tầng vật lý phi tập trung) đã trở thành những công nghệ nền tảng thúc đẩy sự chuyển đổi trong các ngành công nghiệp. Sự kết hợp giữa AI và DePIN không chỉ thúc đẩy quá trình lặp lại công nghệ nhanh chóng và ứng dụng rộng rãi mà còn mở ra mô hình dịch vụ an toàn, minh bạch và hiệu quả hơn, mang lại những thay đổi sâu sắc cho nền kinh tế toàn cầu.

DePIN: Phân quyền chuyển từ ảo sang hiện thực, trụ cột của nền kinh tế kỹ thuật số

DePIN là tên viết tắt của Cơ sở hạ tầng vật lý phi tập trung. Theo nghĩa hẹp, DePIN chủ yếu đề cập đến mạng phân tán của cơ sở hạ tầng vật lý truyền thống được hỗ trợ bởi công nghệ sổ cái phân tán, như mạng điện, mạng truyền thông, mạng định vị, v.v. Nói rộng ra, tất cả các mạng phân tán được hỗ trợ bởi các thiết bị vật lý đều có thể được gọi là DePIN, như mạng lưu trữ và mạng máy tính.

Nguồn hình ảnh: Messari

Nếu Crypto đã mang lại những thay đổi phi tập trung ở cấp độ tài chính thì DePIN là một giải pháp phi tập trung trong nền kinh tế thực. Có thể nói máy khai thác PoW là một loại DePIN. Vì vậy, DePIN đã trở thành trụ cột cốt lõi của Web3 ngay từ ngày đầu.

Ba yếu tố của AI— Thuật toán, sức mạnh tính toán và dữ liệu. DePIN độc quyền sở hữu hai

Sự phát triển của trí tuệ nhân tạo thường được coi là dựa vào ba yếu tố chính: thuật toán, sức mạnh tính toán và dữ liệu. Thuật toán đề cập đến các mô hình toán học và logic chương trình điều khiển hệ thống AI, sức mạnh tính toán đề cập đến các tài nguyên điện toán cần thiết để thực thi các thuật toán này và dữ liệu là cơ sở để đào tạo và tối ưu hóa các mô hình AI.

Trong ba yếu tố nào là quan trọng nhất? Trước khi chatGPT xuất hiện, mọi người thường coi nó như một thuật toán, nếu không thì các hội nghị học thuật và tạp chí sẽ không tràn ngập các thuật toán tinh chỉnh lần lượt. Nhưng khi chatGPT và mô hình ngôn ngữ lớn LLM hỗ trợ trí thông minh của nó được ra mắt, mọi người bắt đầu nhận ra tầm quan trọng của hai mô hình sau. Sức mạnh tính toán khổng lồ là điều kiện tiên quyết cho sự ra đời của các mô hình. Chất lượng và tính đa dạng của dữ liệu rất quan trọng để xây dựng một hệ thống AI mạnh mẽ và hiệu quả. So sánh, các yêu cầu về thuật toán không còn khắt khe như trước nữa.

Trong kỷ nguyên của các mô hình lớn, AI đã chuyển đổi từ tinh chỉnh sang mạnh mẽ, với nhu cầu ngày càng tăng về sức mạnh tính toán và dữ liệu. DePIN tình cờ có thể cung cấp điều đó. Các ưu đãi mã thông báo sẽ thúc đẩy thị trường dài hạn, nơi sức mạnh tính toán và lưu trữ khổng lồ ở cấp độ người tiêu dùng sẽ trở thành nguồn dinh dưỡng tốt nhất cho các mô hình lớn.

Phân cấp AI không phải là một lựa chọn mà là một điều cần thiết

Tất nhiên, ai đó có thể hỏi, tại sao lại chọn DePIN thay vì các dịch vụ tập trung khi cả sức mạnh tính toán và dữ liệu đều có sẵn trong trung tâm dữ liệu AWS, hơn nữa, AWS vượt trội hơn DePIN về độ ổn định và trải nghiệm người dùng?

Tuyên bố này tất nhiên có lý do của nó. Suy cho cùng, nhìn vào tình hình hiện tại, hầu như tất cả các mô hình lớn đều được phát triển trực tiếp hoặc gián tiếp bởi các công ty internet lớn. Đứng sau chatGPT là Microsoft và đằng sau Gemini là Google. Ở Trung Quốc, hầu hết các công ty internet lớn đều có mô hình lớn. Tại sao vậy? Đó là bởi vì chỉ những công ty internet lớn mới có sức mạnh tính toán được hỗ trợ bởi dữ liệu chất lượng cao và nguồn tài chính mạnh. Nhưng điều này không đúng. Mọi người không còn muốn bị những gã khổng lồ internet thao túng.

Một mặt, AI tập trung tiềm ẩn rủi ro về bảo mật và quyền riêng tư dữ liệu, đồng thời có thể bị kiểm duyệt và kiểm soát. Mặt khác, AI do những gã khổng lồ Internet sản xuất sẽ tăng cường hơn nữa sự phụ thuộc của con người, dẫn đến sự tập trung thị trường và gia tăng các rào cản đối với sự đổi mới.

từ: https://www.gensyn.ai/

Nhân loại không còn cần một Martin Luther trong kỷ nguyên AI nữa. Mọi người nên có quyền nói chuyện trực tiếp với Chúa.

DePIN từ góc độ kinh doanh: Giảm chi phí và tăng hiệu quả là chìa khóa

Ngay cả khi gạt cuộc tranh luận giữa giá trị phi tập trung và tập trung sang một bên, từ góc độ kinh doanh, vẫn có những lợi thế khi sử dụng DePIN cho AI.

Đầu tiên, điều quan trọng cần nhận ra là mặc dù những gã khổng lồ internet kiểm soát một lượng lớn tài nguyên card đồ họa cao cấp, nhưng sự kết hợp giữa card đồ họa cấp người tiêu dùng trong tay các cá nhân vẫn có thể tạo thành một mạng lưới sức mạnh tính toán đáng kể, được gọi là mạng đuôi dài. tác dụng của sức mạnh tính toán. Những card đồ họa dành cho người tiêu dùng này thường có tốc độ chạy không tải cao. Miễn là các ưu đãi do DePIN cung cấp vượt quá chi phí điện, người dùng sẽ có động lực đóng góp sức mạnh tính toán của mình cho mạng. Ngoài ra, với việc người dùng tự quản lý cơ sở hạ tầng vật lý, mạng DePIN không phải chịu chi phí vận hành mà các nhà cung cấp tập trung không thể tránh khỏi và chỉ có thể tập trung vào thiết kế giao thức.

Đối với dữ liệu, mạng DePIN có thể mở khóa khả năng sử dụng tiềm năng của dữ liệu và giảm chi phí truyền tải thông qua tính toán biên và các phương pháp khác. Hơn nữa, hầu hết các mạng lưu trữ phân tán đều có khả năng chống trùng lặp tự động, giúp giảm nhu cầu làm sạch dữ liệu trên diện rộng trong đào tạo AI.

Cuối cùng, nền kinh tế tiền điện tử do DePIN mang lại giúp nâng cao khả năng chịu lỗi của hệ thống và có khả năng đạt được tình huống đôi bên cùng có lợi cho nhà cung cấp, người tiêu dùng và nền tảng.

Hình ảnh từ: UCLA

Trong trường hợp bạn không tin, nghiên cứu mới nhất của UCLA cho thấy sử dụng điện toán phi tập trung đạt được hiệu suất tốt hơn 2,75 lần so với các cụm GPU truyền thống có cùng mức chi phí. Cụ thể, nó nhanh hơn 1,22 lần và rẻ hơn 4,83 lần.

Con đường khó khăn phía trước: AIxDePIN sẽ gặp phải những thách thức gì?

Chúng ta chọn lên mặt trăng và làm những việc khác trong thập kỷ này không phải vì chúng dễ mà vì chúng khó. - John Fitzgerald Kennedy

Việc sử dụng bộ lưu trữ phân tán và điện toán phân tán của DePIN để xây dựng các mô hình AI mà không có sự tin cậy vẫn đặt ra nhiều thách thức.

Xác minh công việc

Về cơ bản, cả tính toán mô hình học sâu và khai thác PoW đều là các hình thức tính toán chung, với sự thay đổi tín hiệu cơ bản giữa các mạch cổng. Ở cấp độ vĩ mô, khai thác PoW là “tính toán vô ích”, cố gắng tìm giá trị băm có tiền tố n số 0 thông qua vô số phép tính hàm băm và tạo số ngẫu nhiên. Mặt khác, tính toán deep learning là “tính toán hữu ích”, tính toán các giá trị tham số của từng lớp trong deep learning thông qua lan truyền tiến và lùi, từ đó xây dựng một mô hình AI hiệu quả.

Thực tế là “các phép tính vô dụng” như khai thác PoW sử dụng hàm băm. Tính toán hình ảnh từ hình ảnh gốc thì dễ nhưng tính hình ảnh gốc từ hình ảnh lại khó, vì vậy bất kỳ ai cũng có thể dễ dàng và nhanh chóng xác minh tính hợp lệ của phép tính; Để tính toán mô hình deep learning, do có cấu trúc phân cấp nên đầu ra của mỗi lớp được dùng làm đầu vào của lớp tiếp theo. Vì vậy, việc xác minh tính hợp lệ của phép tính đòi hỏi phải thực hiện tất cả các công việc trước đó và không thể xác minh một cách đơn giản và hiệu quả.

Hình ảnh từ: AWS

Việc xác minh công việc là rất quan trọng, nếu không, nhà cung cấp phép tính hoàn toàn không thể thực hiện phép tính và gửi kết quả được tạo ngẫu nhiên.

Một ý tưởng là yêu cầu các máy chủ khác nhau thực hiện các nhiệm vụ tính toán giống nhau và xác minh tính hiệu quả của công việc bằng cách lặp lại quá trình thực thi và kiểm tra xem nó có giống nhau hay không. Tuy nhiên, phần lớn các tính toán mô hình là không xác định và không thể sao chép các kết quả tương tự ngay cả trong cùng một môi trường điện toán và chỉ có thể giống nhau theo nghĩa thống kê. Ngoài ra, việc tính hai lần sẽ dẫn đến chi phí tăng nhanh, điều này không phù hợp với mục tiêu chính của DePIN là giảm chi phí và tăng hiệu quả.

Một loại ý tưởng khác là cơ chế Lạc quan, giả định một cách lạc quan rằng kết quả được tính toán chính xác và cho phép mọi người xác minh kết quả tính toán. Nếu phát hiện thấy bất kỳ lỗi nào, Bằng chứng gian lận có thể được gửi. Giao thức trừng phạt kẻ lừa đảo và khen thưởng người tố cáo.

Song song hóa

Như đã đề cập trước đó, DePIN chủ yếu tận dụng thị trường sức mạnh tính toán tiêu dùng dài hạn, có nghĩa là sức mạnh tính toán được cung cấp bởi một thiết bị duy nhất là tương đối hạn chế. Đối với các mô hình AI lớn, việc đào tạo trên một thiết bị sẽ mất rất nhiều thời gian và phải sử dụng song song để rút ngắn thời gian đào tạo.

Khó khăn chính trong việc song song hóa đào tạo deep learning nằm ở sự phụ thuộc giữa các nhiệm vụ trước đó và nhiệm vụ tiếp theo, điều này khiến cho việc song song hóa khó đạt được.

Hiện nay, việc song song hóa đào tạo deep learning chủ yếu được chia thành song song dữ liệu và song song mô hình.

Song song dữ liệu đề cập đến việc phân phối dữ liệu trên nhiều máy. Mỗi máy lưu tất cả các tham số của một mô hình, sử dụng dữ liệu cục bộ để đào tạo và cuối cùng tổng hợp các tham số của từng máy. Song song dữ liệu hoạt động tốt khi lượng dữ liệu lớn, nhưng yêu cầu giao tiếp đồng bộ để tổng hợp các tham số.

Song song mô hình có nghĩa là khi kích thước của mô hình quá lớn không thể nhét vừa một máy duy nhất, mô hình có thể được chia ra trên nhiều máy và mỗi máy lưu lại một phần tham số của mô hình. Việc truyền tiến và lùi yêu cầu giao tiếp giữa các máy khác nhau. Tính song song của mô hình có lợi thế khi mô hình lớn, nhưng chi phí truyền thông trong quá trình truyền tiến và truyền ngược lại lớn.

Thông tin độ dốc giữa các lớp khác nhau có thể được chia thành cập nhật đồng bộ và cập nhật không đồng bộ. Cập nhật đồng bộ đơn giản và trực tiếp nhưng sẽ làm tăng thời gian chờ đợi; thuật toán cập nhật không đồng bộ có thời gian chờ ngắn nhưng sẽ gây ra các vấn đề về độ ổn định.

Hình ảnh từ: Đại học Stanford, Học sâu song song và phân tán

Sự riêng tư

Xu hướng toàn cầu về bảo vệ quyền riêng tư cá nhân đang gia tăng và các chính phủ trên thế giới đang tăng cường bảo vệ quyền riêng tư dữ liệu cá nhân. Mặc dù AI sử dụng rộng rãi các bộ dữ liệu công cộng, nhưng điều thực sự khác biệt giữa các mô hình AI khác nhau là dữ liệu người dùng độc quyền của mỗi doanh nghiệp.

Làm cách nào để có được lợi ích từ dữ liệu độc quyền trong quá trình đào tạo mà không làm lộ quyền riêng tư? Làm thế nào để đảm bảo các thông số của mô hình AI được xây dựng không bị rò rỉ?

Đây là hai khía cạnh của quyền riêng tư, quyền riêng tư dữ liệu và quyền riêng tư của mô hình. Quyền riêng tư dữ liệu bảo vệ người dùng, trong khi quyền riêng tư của mô hình bảo vệ tổ chức xây dựng mô hình. Trong tình hình hiện tại, quyền riêng tư dữ liệu quan trọng hơn nhiều so với quyền riêng tư của mô hình.

Một loạt các giải pháp đang được cố gắng giải quyết vấn đề riêng tư. Học tập liên kết đảm bảo quyền riêng tư của dữ liệu bằng cách đào tạo tại nguồn dữ liệu, lưu giữ dữ liệu cục bộ và truyền các tham số mô hình; và bằng chứng không có kiến thức có thể trở thành một ngôi sao đang lên.

Phân tích trường hợp: Các dự án chất lượng cao trên thị trường là gì?

gensyn

Gensyn là mạng điện toán phân tán được thiết kế để đào tạo các mô hình AI. Mạng sử dụng chuỗi khối một lớp dựa trên Polkadot để xác minh việc thực hiện đúng các nhiệm vụ học sâu và kích hoạt thanh toán thông qua các lệnh. Được thành lập vào năm 2020, nó đã tiết lộ vòng tài trợ Series A trị giá 43 triệu USD vào tháng 6 năm 2023, trong đó a16z dẫn đầu khoản đầu tư.

Gensyn sử dụng siêu dữ liệu của quy trình tối ưu hóa dựa trên độ dốc để xây dựng chứng chỉ của công việc được thực hiện, được thực thi nhất quán bởi giao thức chính xác đa chi tiết, dựa trên biểu đồ và trình đánh giá chéo để cho phép các công việc xác thực được chạy lại và so sánh về tính nhất quán, và cuối cùng là bằng dây chuyền Hãy tự mình xác nhận để đảm bảo tính hợp lệ của phép tính. Để tăng cường hơn nữa độ tin cậy của việc xác minh công việc, Gensyn giới thiệu đặt cược để tạo động lực.

Có bốn loại người tham gia trong hệ thống: người gửi, người giải quyết, người xác minh và người tố cáo.

• Người gửi là người dùng cuối của hệ thống, họ cung cấp các nhiệm vụ được tính toán và được trả tiền cho các đơn vị công việc đã hoàn thành.
• Người giải quyết là nhân viên chính của hệ thống, thực hiện đào tạo mô hình và tạo ra bằng chứng để người xác minh kiểm tra.
• Trình xác nhận là chìa khóa để liên kết quá trình đào tạo không xác định với tính toán tuyến tính xác định, sao chép bằng chứng giải từng phần và so sánh khoảng cách với ngưỡng dự kiến.
• Người tố giác là tuyến phòng thủ cuối cùng, kiểm tra công việc của người xác minh và đưa ra thử thách, nhận phần thưởng sau khi vượt qua thử thách.

Người giải quyết cần đưa ra cam kết và người tố cáo sẽ kiểm tra công việc của người giải quyết. Nếu phát hiện ra việc ác, anh ta sẽ thách thức nó. Sau khi thử thách được vượt qua, số token mà người giải quyết đặt cược sẽ bị phạt và người tố cáo sẽ được thưởng.

Theo dự đoán của Gensyn, giải pháp này được kỳ vọng sẽ giảm chi phí đào tạo xuống còn 1/5 so với các nhà cung cấp tập trung.

Nguồn: Gensyn

FedML

FedML là một nền tảng học máy cộng tác phi tập trung dành cho AI phi tập trung và cộng tác, ở mọi nơi và ở mọi quy mô. Cụ thể hơn, FedML cung cấp hệ sinh thái MLOps để đào tạo, triển khai, giám sát và liên tục cải tiến các mô hình học máy trong khi cộng tác trên dữ liệu, mô hình và tài nguyên máy tính kết hợp theo cách bảo vệ quyền riêng tư. Được thành lập vào năm 2022, FedML đã tiết lộ vòng hạt giống trị giá 6 triệu đô la vào tháng 3 năm 2023.

FedML bao gồm hai thành phần chính: FedML-API và FedML-core, lần lượt đại diện cho API cấp cao và API cấp thấp.

FedML-core bao gồm hai mô-đun độc lập: truyền thông phân tán và đào tạo mô hình. Mô-đun giao tiếp chịu trách nhiệm về giao tiếp cơ bản giữa các nhân viên/khách hàng khác nhau và dựa trên MPI; mô-đun đào tạo mô hình dựa trên PyTorch.

FedML-API được xây dựng trên lõi FedML. Với FedML-core, các thuật toán phân tán mới có thể được triển khai dễ dàng bằng cách áp dụng các giao diện lập trình hướng tới khách hàng.

Công việc mới nhất của nhóm FedML chứng minh rằng việc sử dụng FedML Nexus AI để suy luận mô hình AI trên GPU RTX 4090 cấp độ người tiêu dùng rẻ hơn 20 lần và nhanh hơn 1,88 lần so với sử dụng A100.

từ: FedML

Triển vọng tương lai: DePIN mang đến sự dân chủ hóa AI

Một ngày nào đó, AI sẽ phát triển hơn nữa thành AGI và sức mạnh tính toán sẽ trở thành loại tiền tệ phổ biến trên thực tế. DePIN sẽ thực hiện trước quá trình này.

Sự giao thoa và hợp tác giữa AI và DePIN đã mở ra một điểm phát triển công nghệ hoàn toàn mới, mang đến những cơ hội to lớn cho sự phát triển của trí tuệ nhân tạo. DePIN cung cấp cho AI sức mạnh tính toán và dữ liệu phân tán khổng lồ, giúp đào tạo các mô hình quy mô lớn hơn và đạt được trí thông minh mạnh mẽ hơn. Đồng thời, DePIN cũng cho phép AI phát triển theo hướng cởi mở, an toàn và đáng tin cậy hơn, giảm sự phụ thuộc vào một cơ sở hạ tầng tập trung duy nhất.

Trong tương lai, AI và DePIN sẽ tiếp tục phát triển đồng bộ. Mạng phân tán sẽ cung cấp nền tảng vững chắc cho việc đào tạo các mô hình siêu lớn, điều này sẽ đóng vai trò quan trọng trong các ứng dụng DePIN. Trong khi bảo vệ quyền riêng tư và bảo mật, AI cũng sẽ góp phần tối ưu hóa các giao thức và thuật toán mạng DePIN. Chúng tôi mong muốn AI và DePIN mang đến một thế giới kỹ thuật số hiệu quả, công bằng và đáng tin cậy hơn.

Tuyên bố từ chối trách nhiệm:

  1. Bài viết này được in lại từ []. Mọi bản quyền đều thuộc về tác giả gốc [**]. Nếu có ý kiến phản đối việc tái bản này, vui lòng liên hệ với nhóm Gate Learn , họ sẽ xử lý kịp thời.
  2. Tuyên bố từ chối trách nhiệm pháp lý: Th
    Các quan điểm và ý kiến trình bày trong bài viết này chỉ là của tác giả và không cấu thành bất kỳ lời khuyên đầu tư nào.
  3. Việc dịch bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm Gate Learn. Trừ khi được đề cập, việc sao chép, phân phối hoặc đạo văn các bài viết đã dịch đều bị cấm.
Bắt đầu giao dịch
Đăng ký và giao dịch để nhận phần thưởng USDTEST trị giá
$100
$5500