Analisis Kedalaman: Percikan Seperti Apa yang Dapat Dibuat AI dan Web3?

Lanjutan6/7/2024, 5:04:48 AM
Artikel ini membahas perkembangan pesat teknologi Artificial Intelligence (AI) dan Web3 serta potensi nilai dan dampak integrasinya. AI unggul dalam meningkatkan produktivitas, sementara Web3 mengubah hubungan produksi melalui desentralisasi. Kombinasi teknologi ini menghadirkan aplikasi inovatif dalam analisis data, layanan pengguna yang dipersonalisasi, serta perlindungan keamanan dan privasi.

Pendahuluan: Pengembangan AI+Web3

Dalam beberapa tahun terakhir, perkembangan pesat teknologi Artificial Intelligence (AI) dan Web3 telah mengumpulkan perhatian global yang luas. AI, teknologi yang mensimulasikan dan meniru kecerdasan manusia, telah mencapai terobosan signifikan di bidang-bidang seperti pengenalan wajah, pemrosesan bahasa alami, dan pembelajaran mesin. Kemajuan pesat teknologi AI telah membawa transformasi dan inovasi luar biasa di berbagai industri.

Industri AI mencapai ukuran pasar $200 miliar pada tahun 2023, dengan raksasa industri dan pemain terkemuka seperti OpenAI, Character.AI, dan Midjourney muncul dengan cepat dan utama ledakan AI.

Secara bersamaan, Web3, model internet yang muncul, secara bertahap mengubah persepsi dan penggunaan internet kita. Berdasarkan teknologi blockchain terdesentralisasi, Web3 mewujudkan berbagi dan kontrol data, otonomi pengguna, dan pembentukan mekanisme kepercayaan melalui fitur-fitur seperti smart contract, penyimpanan terdistribusi, dan verifikasi identitas terdesentralisasi. Ide inti Web3 adalah untuk membebaskan data dari otoritas terpusat, memberikan kontrol kepada pengguna dan kemampuan untuk berbagi nilai data mereka.

Saat ini, nilai pasar industri Web3 telah mencapai $25 triliun. Dari Bitcoin, Ethereum, dan Solana hingga pemain tingkat aplikasi seperti Uniswap dan Stepn, narasi dan skenario baru terus bermunculan, menarik semakin banyak orang untuk bergabung dengan industri Web3.

Jelas bahwa integrasi AI dan Web3 adalah titik fokus bagi pembangun dan pemodal ventura dari Timur dan Barat. Menjelajahi cara menggabungkan kedua teknologi ini secara efektif adalah upaya yang sangat berharga.

Artikel ini akan fokus pada keadaan pengembangan AI+Web3 saat ini, mengeksplorasi potensi nilai dan dampak integrasinya. Pertama-tama kami akan memperkenalkan konsep dasar dan karakteristik AI dan Web3, kemudian membahas keterkaitan mereka. Setelah ini, kami akan menganalisis keadaan proyek AI+Web3 saat ini dan mempelajari keterbatasan dan tantangan yang mereka hadapi. Melalui penelitian ini, kami bertujuan untuk memberikan referensi dan wawasan berharga bagi investor dan profesional industri.

Bagaimana AI Berinteraksi dengan Web3

Perkembangan AI dan Web3 dapat dilihat sebagai dua sisi skala: AI membawa peningkatan produktivitas, sementara Web3 merevolusi hubungan produksi. Jadi, percikan api seperti apa yang bisa diciptakan AI dan Web3 ketika mereka bertabrakan? Pertama-tama kami akan menganalisis tantangan dan potensi peningkatan dalam industri AI dan Web3, dan kemudian mengeksplorasi bagaimana mereka dapat membantu menyelesaikan masalah satu sama lain.

  1. Tantangan dan Potensi Peningkatan dalam Industri AI
  2. Tantangan dan Potensi Peningkatan dalam Industri Web3

2.1 Tantangan dalam Industri AI

Untuk mengeksplorasi tantangan yang dihadapi oleh industri AI, pertama-tama kita harus memahami esensinya. Inti dari industri AI berkisar pada tiga elemen kunci: daya komputasi, algoritma, dan data.

  1. Pertama, daya komputasi: Daya komputasi mengacu pada kemampuan untuk melakukan perhitungan dan pemrosesan skala besar. Tugas AI biasanya memerlukan penanganan data dalam jumlah besar dan melakukan perhitungan kompleks, seperti melatih model jaringan saraf dalam. Daya komputasi yang tinggi dapat mempercepat pelatihan model dan proses inferensi, meningkatkan kinerja dan efisiensi sistem AI. Dalam beberapa tahun terakhir, kemajuan dalam teknologi perangkat keras, seperti unit pemrosesan grafis (GPU) dan chip AI khusus (seperti TPU), telah secara signifikan meningkatkan daya komputasi, mendorong pengembangan industri AI. Nvidia, penyedia GPU utama, telah melihat harga sahamnya melonjak dalam beberapa tahun terakhir, menangkap pangsa pasar yang besar dan menghasilkan keuntungan besar.
  2. Apa itu algoritma: Algoritma adalah komponen inti dari sistem AI. Mereka adalah metode matematika dan statistik yang digunakan untuk memecahkan masalah dan melakukan tugas. Algoritma AI dapat dikategorikan ke dalam algoritma pembelajaran mesin tradisional dan algoritma pembelajaran mendalam, dengan algoritma pembelajaran mendalam telah membuat terobosan signifikan dalam beberapa tahun terakhir. Pilihan dan desain algoritma sangat penting untuk kinerja dan efektivitas sistem AI. Peningkatan berkelanjutan dan inovasi dalam algoritma dapat meningkatkan akurasi, ketahanan, dan kemampuan generalisasi sistem AI. Algoritma yang berbeda menghasilkan hasil yang berbeda, sehingga kemajuan dalam algoritma sangat penting untuk kinerja tugas.
  3. Mengapa data itu penting: Tugas inti sistem AI adalah mengekstrak pola dan aturan dari data melalui pembelajaran dan pelatihan. Data membentuk dasar untuk melatih dan mengoptimalkan model. Dengan sampel data skala besar, sistem AI dapat mempelajari model yang lebih akurat dan cerdas. Kumpulan data yang kaya memberikan informasi yang komprehensif dan beragam, memungkinkan model untuk menggeneralisasi lebih baik ke data yang tidak terlihat dan membantu sistem AI lebih memahami dan memecahkan masalah dunia nyata.

Setelah memahami tiga elemen inti AI saat ini, mari kita periksa kesulitan dan tantangan yang dihadapi AI di bidang ini.

Pertama, dalam hal daya komputasi, tugas AI biasanya membutuhkan sejumlah besar sumber daya komputasi untuk pelatihan model dan inferensi, terutama untuk model pembelajaran mendalam. Namun, mendapatkan dan mengelola daya komputasi skala besar adalah tantangan yang mahal dan kompleks. Biaya, konsumsi energi, dan pemeliharaan peralatan komputasi berkinerja tinggi adalah masalah yang signifikan. Ini sangat menantang bagi startup dan pengembang individu, yang sulit memperoleh daya komputasi yang memadai.

Dalam hal algoritma, terlepas dari keberhasilan signifikan algoritme pembelajaran mendalam di banyak bidang, masih ada tantangan dan kesulitan. Misalnya, melatih jaringan saraf dalam membutuhkan sejumlah besar data dan sumber daya komputasi. Selain itu, untuk tugas-tugas tertentu, interpretabilitas dan kemampuan menjelaskan model mungkin tidak cukup. Kemampuan ketahanan dan generalisasi algoritma juga merupakan masalah penting, karena kinerja model pada data yang tidak terlihat bisa tidak stabil. Menemukan algoritma terbaik untuk memberikan kinerja optimal di antara banyak algoritma adalah eksplorasi yang sedang berlangsung.

Dalam hal data, data adalah kekuatan pendorong di belakang AI, tetapi memperoleh data berkualitas tinggi dan beragam tetap menjadi tantangan. Data di beberapa bidang, seperti data kesehatan sensitif di sektor medis, bisa sulit diperoleh. Selain itu, kualitas, akurasi, dan pelabelan data adalah masalah penting, karena data yang tidak lengkap atau bias dapat menyebabkan perilaku atau bias model yang salah. Melindungi privasi dan keamanan data juga merupakan pertimbangan penting.

Selain itu, ada masalah yang berkaitan dengan interpretabilitas dan transparansi. Sifat "kotak hitam" dari model AI adalah perhatian publik. Dalam aplikasi tertentu, seperti keuangan, perawatan kesehatan, dan keadilan, proses pengambilan keputusan model perlu ditafsirkan dan dilacak. Namun, model deep learning yang ada seringkali kurang transparan. Menjelaskan proses pengambilan keputusan model dan memberikan penjelasan yang andal tetap menantang.

Selain itu, model bisnis dari banyak proyek startup AI tidak begitu jelas, yang juga menyebabkan kebingungan bagi banyak pengusaha AI.

2.2 Tantangan dalam Industri Web3

Dalam industri Web3, ada banyak tantangan yang perlu ditangani, mulai dari analisis data dan pengalaman pengguna hingga kerentanan kontrak pintar dan serangan peretas. AI, sebagai alat untuk meningkatkan produktivitas, memiliki potensi yang signifikan di bidang ini.

Pertama, ada ruang untuk perbaikan dalam analisis data dan kemampuan prediktif. Aplikasi AI dalam analisis dan prediksi data memiliki dampak signifikan pada industri Web3. Melalui analisis cerdas dan penambangan oleh algoritme AI, platform Web3 dapat mengekstrak informasi berharga dari sejumlah besar data dan membuat prediksi dan keputusan yang lebih akurat. Ini sangat penting untuk penilaian risiko, peramalan pasar, dan manajemen aset dalam keuangan terdesentralisasi (DeFi).

Selain itu, ada potensi untuk meningkatkan pengalaman pengguna dan layanan personalisasi. Aplikasi AI memungkinkan platform Web3 menawarkan pengalaman pengguna yang lebih baik dan layanan yang dipersonalisasi. Dengan menganalisis dan memodelkan data pengguna, platform Web3 dapat memberikan rekomendasi yang dipersonalisasi, layanan yang disesuaikan, dan pengalaman interaksi cerdas. Ini membantu meningkatkan keterlibatan dan kepuasan pengguna, mendorong pengembangan ekosistem Web3. Misalnya, banyak protokol Web3 mengintegrasikan alat AI seperti ChatGPT untuk melayani pengguna dengan lebih baik.

Dalam hal keamanan dan perlindungan privasi, aplikasi AI juga memiliki dampak besar pada industri Web3. Teknologi AI dapat digunakan untuk mendeteksi dan mempertahankan diri dari serangan jaringan, mengidentifikasi perilaku abnormal, dan memberikan langkah-langkah keamanan yang lebih kuat. Selain itu, AI dapat diterapkan pada perlindungan privasi data, menjaga informasi pribadi pengguna di platform Web3 melalui teknik seperti enkripsi data dan komputasi privasi. Mengenai audit kontrak cerdas, karena kerentanan dan risiko keamanan mungkin ada dalam proses penulisan dan audit smart contract, teknologi AI dapat digunakan untuk audit kontrak otomatis dan deteksi kerentanan, meningkatkan keamanan dan keandalan kontrak.

Jelas bahwa AI dapat berkontribusi secara signifikan untuk mengatasi tantangan dan potensi peningkatan dalam industri Web3 di berbagai aspek.

Analisis Situasi Saat Ini Proyek AI+Web3

Menggabungkan proyek AI dan Web3 terutama berfokus pada dua aspek utama: memanfaatkan teknologi blockchain untuk meningkatkan proyek AI dan memanfaatkan teknologi AI untuk melayani peningkatan proyek Web3. Banyak proyek telah muncul di sepanjang jalan ini, termasuk Io.net, Gensyn, Ritual, antara lain. Analisis berikut akan menyelidiki subdomain yang berbeda di mana AI membantu Web3 dan di mana Web3 meningkatkan AI.

3.1 Web3 Membantu AI

3.1.1 Daya Komputasi Terdesentralisasi

Sejak peluncuran ChatGPT oleh OpenAI pada akhir tahun 2022, itu memicu hiruk-pikuk di bidang AI. Dalam lima hari setelah dirilis, basis pengguna mencapai satu juta, melampaui tingkat unduhan Instagram, yang membutuhkan waktu sekitar dua setengah bulan untuk mencapai tonggak sejarah yang sama. Selanjutnya, ChatGPT mengalami pertumbuhan pesat, dengan pengguna aktif bulanan mencapai 100 juta dalam waktu dua bulan dan pengguna aktif mingguan mencapai 100 juta pada November 2023. Dengan munculnya ChatGPT, sektor AI dengan cepat beralih dari bidang khusus ke industri yang sangat dihormati.

Menurut laporan Trendforce, ChatGPT membutuhkan 30.000 GPU NVIDIA A100 untuk beroperasi, dan model masa depan seperti GPT-5 akan membutuhkan lebih banyak daya komputasi. Ini telah memicu perlombaan senjata di antara berbagai perusahaan AI, karena memiliki daya komputasi yang cukup sangat penting untuk mempertahankan keunggulan kompetitif di arena AI, utama kekurangan GPU.

Sebelum naik AI, penyedia GPU utama, NVIDIA, terutama melayani klien dari tiga layanan cloud utama: AWS, Azure, dan GCP. Dengan naik kecerdasan buatan, banyak pembeli baru muncul, termasuk perusahaan teknologi besar seperti Meta, Oracle, serta platform data lainnya dan startup AI, semuanya bergabung dalam perlombaan untuk menimbun GPU untuk melatih model AI. Perusahaan teknologi besar seperti Meta dan Tesla secara signifikan meningkatkan pembelian model AI yang disesuaikan dan penelitian internal. Perusahaan model dasar seperti Anthropic dan platform data seperti Snowflake dan Databricks juga membeli lebih banyak GPU untuk membantu klien mereka dalam menyediakan layanan AI.

Seperti yang disebutkan oleh Semi Analysis tahun lalu, ada kesenjangan antara perusahaan "kaya GPU" dan "miskin GPU", dengan hanya sedikit yang memiliki lebih dari 20.000 GPU A100 / H100, yang memungkinkan anggota tim untuk memanfaatkan antara 100 hingga 1000 GPU untuk proyek. Perusahaan-perusahaan ini adalah penyedia cloud atau telah membangun model bahasa besar (LLM) mereka sendiri, termasuk OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, antara lain.

Namun, sebagian besar perusahaan turun ke dalam kategori "GPU miskin", berjuang dengan GPU yang jauh lebih sedikit dan menghabiskan banyak waktu dan upaya untuk tugas-tugas yang lebih sulit untuk memajukan ekosistem. Apalagi situasi ini tidak terbatas pada startup. Beberapa perusahaan AI paling terkenal, seperti Hugging Face, Databricks (MosaicML), Together, dan bahkan Snowflake, memiliki jumlah A100 / H100 kurang dari 20.000. Meskipun memiliki bakat teknis kelas dunia, perusahaan-perusahaan ini dibatasi oleh pasokan GPU yang terbatas, menempatkan mereka pada posisi yang kurang menguntungkan dibandingkan dengan perusahaan besar dalam persaingan AI.

Kekurangan ini tidak terbatas pada kategori "miskin GPU"; bahkan pada akhir tahun 2023, pemain AI utama, OpenAI, harus menutup sementara pendaftaran berbayar karena ketidakmampuan untuk mendapatkan GPU yang cukup dan harus mendapatkan lebih banyak pasokan GPU.

Jelas bahwa perkembangan pesat AI telah menyebabkan ketidakcocokan serius antara permintaan dan penawaran GPU, menciptakan kekurangan pasokan yang akan segera terjadi.

Untuk mengatasi masalah ini, beberapa proyek Web3 telah mulai mengeksplorasi solusi daya komputasi terdesentralisasi, memanfaatkan karakteristik unik teknologi Web3. Proyek-proyek ini termasuk Akash, Render, Gensyn, antara lain. Fitur umum di antara proyek-proyek ini adalah penggunaan token untuk memberi insentif kepada pengguna untuk menyediakan daya komputasi GPU yang menganggur, sehingga menjadi sisi pasokan daya komputasi untuk dukungan klien AI.

Profil sisi penawaran terutama terdiri dari tiga aspek: penyedia layanan cloud, penambang cryptocurrency, dan perusahaan. Penyedia layanan cloud mencakup penyedia layanan cloud utama (seperti AWS, Azure, GCP) dan penyedia layanan cloud GPU (seperti Coreweave, Lambda, Crusoe), di mana pengguna dapat menjual kembali daya komputasi idle dari penyedia ini untuk menghasilkan pendapatan. Dengan transisi Ethereum dari PoW ke PoS, daya komputasi GPU yang menganggur telah menjadi sisi pasokan potensial yang penting bagi penambang cryptocurrency. Selain itu, perusahaan besar seperti Tesla dan Meta, yang telah membeli GPU dalam jumlah besar untuk tujuan strategis, juga dapat menyumbangkan daya komputasi GPU menganggur mereka sebagai bagian dari sisi pasokan.

Saat ini, pemain di bidang ini umumnya dapat dibagi menjadi dua kategori: mereka yang menggunakan daya komputasi terdesentralisasi untuk inferensi AI dan mereka yang menggunakannya untuk pelatihan AI. Kategori pertama mencakup proyek-proyek seperti Render (meskipun berfokus pada rendering, itu juga dapat digunakan untuk komputasi AI), Akash, Aethir, sedangkan kategori yang terakhir mencakup proyek-proyek seperti io.net (mendukung inferensi dan pelatihan) dan Gensyn. Perbedaan utama antara keduanya terletak pada persyaratan yang berbeda untuk daya komputasi.

Pertama-tama mari kita bahas proyek yang berfokus pada inferensi AI. Proyek-proyek ini menarik pengguna untuk menyediakan daya komputasi melalui insentif token dan kemudian menyediakan layanan jaringan daya komputasi ke sisi permintaan, sehingga memfasilitasi sesuai catu daya dan permintaan komputasi idle. Rincian tentang proyek-proyek tersebut tercakup dalam laporan penelitian oleh DePIN dari Ryze Labs kami, jangan ragu untuk membacanya.

Poin intinya terletak pada mekanisme insentif token, di mana proyek pertama-tama menarik pemasok dan kemudian pengguna, sehingga mencapai cold start dan mekanisme operasi inti proyek, memungkinkan ekspansi dan pengembangan lebih lanjut. Dalam siklus ini, sisi penawaran menerima hadiah token yang lebih berharga, sementara sisi permintaan menikmati layanan yang lebih hemat biaya. Nilai token proyek dan pertumbuhan peserta penawaran dan permintaan tetap konsisten. Ketika harga token naik, lebih banyak peserta dan spekulan tertarik, menciptakan lingkaran penangkapan nilai.

Kategori lain melibatkan penggunaan daya komputasi terdesentralisasi untuk pelatihan AI, seperti Gensyn dan io.net (yang dukungan pelatihan AI dan inferensi). Faktanya, logika operasional proyek-proyek ini pada dasarnya tidak berbeda dari proyek inferensi AI. Mereka masih mengandalkan insentif token untuk menarik partisipasi dari sisi penawaran untuk menyediakan daya komputasi, yang kemudian dimanfaatkan oleh sisi permintaan.

io.net, sebagai jaringan daya komputasi terdesentralisasi, saat ini menawarkan lebih dari 500.000 GPU, menjadikannya pemain yang menonjol dalam proyek daya komputasi terdesentralisasi. Selain itu, ia memiliki daya komputasi terintegrasi dari Render dan Filecoin, menunjukkan pengembangan ekosistemnya yang berkelanjutan.

Selain itu, Gensyn memfasilitasi alokasi tugas dan penghargaan pembelajaran mesin melalui smart contract untuk memungkinkan pelatihan AI. Seperti yang diilustrasikan dalam diagram di bawah ini, biaya per jam untuk pekerjaan pelatihan machine learning di Gensyn adalah sekitar 0,4 USD, yang jauh lebih rendah daripada biaya lebih dari 2 USD untuk AWS dan GCP.

Ekosistem Gensyn melibatkan empat entitas yang berpartisipasi:

  • Pengirim: Ini adalah pengguna sisi permintaan yang mengkonsumsi tugas dan membayar tugas pelatihan AI.
  • Pelaksana: Pelaksana melaksanakan tugas pelatihan model dan memberikan bukti penyelesaian tugas untuk verifikasi.
  • Verifikator: Verifikator menghubungkan proses pelatihan non-deterministik dengan komputasi linier deterministik. Mereka membandingkan bukti yang diberikan oleh eksekutor dengan ambang batas yang diharapkan.
  • Reporter: Reporter memeriksa pekerjaan verifikator dan mengajukan tantangan untuk mendapatkan imbalan setelah mengidentifikasi masalah.

Seperti yang dapat kita lihat, Gensyn bertujuan untuk menjadi protokol komputasi yang sangat skalabel dan hemat biaya untuk model pembelajaran mendalam global. Namun, melihat bidang ini, mengapa sebagian besar proyek memilih daya komputasi terdesentralisasi untuk inferensi AI daripada pelatihan?

Mari kita juga membantu teman-teman yang tidak terbiasa dengan pelatihan AI dan inferensi memahami perbedaan antara keduanya:

  • Pelatihan AI: Jika kita menyamakan kecerdasan buatan dengan seorang siswa, maka pelatihan mirip dengan menyediakan AI dengan sejumlah besar pengetahuan dan contoh, yang dapat dipahami sebagai data. AI belajar dari contoh-contoh ini. Karena belajar melibatkan pemahaman dan menghafal sejumlah besar informasi, proses ini membutuhkan sejumlah besar daya komputasi dan waktu.
  • Inferensi AI: Jadi apa kesimpulannya? Ini dapat dipahami sebagai menggunakan pengetahuan yang dipelajari untuk memecahkan masalah atau mengikuti ujian. Selama inferensi, kecerdasan buatan menggunakan pengetahuan yang dipelajari untuk memberikan jawaban, daripada memperoleh pengetahuan baru. Oleh karena itu, persyaratan komputasi untuk proses inferensi relatif kecil.

Dapat dilihat bahwa persyaratan daya komputasi untuk inferensi AI dan pelatihan AI berbeda secara signifikan. Ketersediaan daya komputasi terdesentralisasi untuk inferensi AI dan pelatihan AI akan dianalisis lebih lanjut di bagian tantangan yang akan datang.

Selanjutnya, Ritual bertujuan untuk menggabungkan jaringan terdistribusi dengan pembuat model untuk menjaga desentralisasi dan keamanan. Produk pertamanya, Infernet, memungkinkan smart contract di blockchain untuk mengakses model AI off-chain, memungkinkan kontrak tersebut untuk mengakses AI dengan cara yang mempertahankan verifikasi, desentralisasi, dan perlindungan privasi.

Koordinator Infernet bertanggung jawab untuk mengelola perilaku node dalam jaringan dan menanggapi permintaan komputasi dari konsumen. Ketika pengguna menggunakan Infernet, tugas-tugas seperti inferensi dan bukti dilakukan off-chain, dengan output dikembalikan ke koordinator dan akhirnya dikirim ke konsumen on-chain melalui smart contract.

Selain jaringan daya komputasi terdesentralisasi, ada juga jaringan bandwidth terdesentralisasi seperti Grass, yang bertujuan untuk meningkatkan kecepatan dan efisiensi transmisi data. Secara keseluruhan, munculnya jaringan daya komputasi terdesentralisasi memberikan kemungkinan baru untuk sisi pasokan daya komputasi AI, mendorong AI maju ke arah yang baru.

3.1.2 Model algoritma terdesentralisasi

Sama seperti yang disebutkan dalam bab kedua, tiga elemen inti AI adalah daya komputasi, algoritma, dan data. Karena daya komputasi dapat membentuk jaringan pasokan melalui desentralisasi, dapatkah algoritma juga mengikuti pendekatan serupa dan membentuk jaringan pasokan untuk model algoritma?

Sebelum menganalisis proyek di bidang ini, pertama-tama mari kita pahami pentingnya model algoritma terdesentralisasi. Banyak orang mungkin bertanya-tanya, karena kita sudah memiliki OpenAI, mengapa kita membutuhkan jaringan algoritma yang terdesentralisasi?

Pada dasarnya, jaringan algoritma terdesentralisasi adalah pasar layanan algoritma AI terdesentralisasi yang menghubungkan banyak model AI yang berbeda. Setiap model AI memiliki keahlian dan keterampilannya sendiri. Ketika pengguna mengajukan pertanyaan, pasar memilih model AI yang paling cocok untuk menjawab pertanyaan. Chat-GPT, yang dikembangkan oleh OpenAI, adalah salah satu model AI yang dapat memahami dan menghasilkan teks yang mirip dengan manusia.

Secara sederhana, ChatGPT seperti siswa yang sangat cakap membantu memecahkan berbagai jenis masalah, sementara jaringan algoritma terdesentralisasi seperti sekolah dengan banyak siswa membantu memecahkan masalah. Meskipun siswa saat ini (ChatGPT) sangat mampu, dalam jangka long, ada potensi besar bagi sekolah yang dapat merekrut siswa dari seluruh dunia.

Saat ini, di bidang model algoritma desentralisasi, ada juga beberapa proyek yang bereksperimen dan mengeksplorasi. Selanjutnya, kami akan menggunakan proyek perwakilan Bittensor sebagai studi kasus untuk membantu memahami perkembangan bidang niche ini.

Di Bittensor, sisi penawaran model algoritma (atau penambang) menyumbangkan model pembelajaran mesin mereka ke jaringan. Model ini dapat menganalisis data dan memberikan wawasan. Penyedia model menerima token cryptocurrency, yang dikenal sebagai TAO, sebagai hadiah atas kontribusi mereka.

Untuk memastikan kualitas jawaban, Bittensor menggunakan mekanisme konsensus unik untuk mencapai konsensus tentang jawaban terbaik. Ketika sebuah pertanyaan diajukan, beberapa penambang model memberikan jawaban. Kemudian, validator di jaringan mulai bekerja untuk menentukan jawaban terbaik, yang kemudian dikirim kembali ke pengguna.

Token yang TAO dalam ekosistem Bittensor memainkan dua peran utama selama proses berlangsung. Di satu sisi, ini berfungsi sebagai insentif bagi penambang untuk menyumbangkan model algoritma ke jaringan. Di sisi lain, pengguna perlu menghabiskan token untuk mengajukan pertanyaan dan menyelesaikan tugas jaringan.

Karena Bittensor terdesentralisasi, siapa pun yang memiliki akses internet dapat bergabung dengan jaringan, baik sebagai pengguna yang mengajukan pertanyaan atau sebagai penambang yang memberikan jawaban. Ini memungkinkan lebih banyak orang untuk memanfaatkan kekuatan kecerdasan buatan.

Singkatnya, jaringan model algoritma terdesentralisasi seperti Bittensor memiliki potensi untuk menciptakan lanskap yang lebih terbuka dan transparan. Dalam ekosistem ini, model AI dapat dilatih, dibagikan, dan digunakan dengan cara yang aman dan terdesentralisasi. Selain itu, jaringan lain seperti BasedAI sedang mencoba upaya serupa, dengan aspek menarik menggunakan Zero-Knowledge Proofs (ZK) untuk melindungi privasi data interaktif model pengguna, yang akan dibahas lebih lanjut di subbagian keempat.

Ketika platform model algoritma terdesentralisasi berkembang, mereka akan memungkinkan perusahaan kecil untuk bersaing dengan organisasi besar dalam menggunakan alat AI mutakhir, yang berpotensi memiliki dampak signifikan di berbagai industri.

3.1.3 Pengumpulan Data Terdesentralisasi

Untuk pelatihan model AI, pasokan data yang besar sangat diperlukan. Namun, sebagian besar perusahaan Web2 saat ini masih memonopoli data pengguna. Platform seperti X, Reddit, TikTok, Snapchat, Instagram, dan YouTube melarang pengumpulan data untuk pelatihan AI, yang menimbulkan hambatan signifikan bagi pengembangan industri AI.

Di sisi lain, beberapa platform Web2 menjual data pengguna ke perusahaan AI tanpa berbagi keuntungan dengan pengguna. Misalnya, Reddit mencapai kesepakatan $ 60 juta dengan Google, memungkinkan Google untuk melatih model AI menggunakan pos-posnya. Hal ini mengakibatkan hak pengumpulan data dimonopoli oleh perusahaan modal besar dan data besar, mendorong industri menuju arah padat modal.

Menanggapi situasi ini, beberapa proyek memanfaatkan Web3 dan insentif token untuk mencapai pengumpulan data yang terdesentralisasi. Ambil PublicAI sebagai contoh: pengguna dapat berpartisipasi dalam dua peran:

  • Salah satu kategorinya adalah penyedia data AI. Pengguna dapat menemukan konten berharga di X, tag @PublicAI akun resmi dengan wawasan mereka, dan menggunakan tagar #AI atau #Web3 untuk mengkategorikan konten, sehingga mengirimkannya ke pusat data PublicAI untuk dikumpulkan.
  • Kategori lainnya adalah data validator. Pengguna dapat masuk ke pusat data PublicAI dan memberikan suara pada data yang paling berharga untuk pelatihan AI.

Sebagai hadiah, pengguna dapat memperoleh token melalui kontribusi ini, membina hubungan win-win antara kontributor data dan industri AI.

Selain proyek seperti PublicAI, yang secara khusus mengumpulkan data untuk pelatihan AI, ada banyak proyek lain yang menggunakan insentif token untuk pengumpulan data terdesentralisasi. Misalnya, Ocean mengumpulkan data pengguna melalui data tokenisasi untuk melayani AI, Hivemapper menggunakan kamera mobil pengguna untuk mengumpulkan data peta, Dimo mengumpulkan data mobil, dan WiHi mengumpulkan data cuaca. Proyek-proyek ini, melalui pengumpulan data terdesentralisasi, juga berfungsi sebagai sumber data potensial untuk pelatihan AI. Dengan demikian, dalam arti luas, mereka dapat dimasukkan dalam paradigma Web3 yang membantu AI.

3.1.4 ZK Melindungi Privasi Pengguna di AI

Teknologi Blockchain menawarkan manfaat desentralisasi dan juga memperkenalkan fitur penting: bukti tanpa pengetahuan. Teknologi tanpa pengetahuan memungkinkan verifikasi informasi sambil menjaga privasi.

Dalam pembelajaran mesin tradisional, data biasanya perlu disimpan dan diproses secara terpusat, yang dapat menyebabkan risiko privasi. Metode untuk melindungi privasi data, seperti enkripsi atau anonimisasi data, dapat membatasi akurasi dan performa model pembelajaran mesin.

Teknologi zero-knowledge proof membantu mengatasi dilema ini dengan mengatasi konflik antara perlindungan privasi dan berbagi data. Zero-Knowledge Machine Learning (ZKML) menggunakan teknologi zero-knowledge proof untuk memungkinkan pelatihan dan inferensi model machine learning tanpa mengekspos data asli. Bukti tanpa pengetahuan memastikan bahwa fitur data dan hasil model dapat diverifikasi sebagai benar tanpa mengungkapkan konten data aktual.

Tujuan utama ZKML adalah menyeimbangkan perlindungan privasi dan berbagi data. Ini dapat diterapkan dalam berbagai skenario seperti analisis data perawatan kesehatan, analisis data keuangan, dan kolaborasi lintas organisasi. Dengan menggunakan ZKML, individu dapat melindungi privasi data sensitif mereka sambil berbagi data dengan orang lain untuk mendapatkan wawasan yang lebih luas dan peluang kolaboratif tanpa risiko pelanggaran privasi data. Bidang ini masih dalam tahap awal, dengan sebagian besar proyek masih dalam eksplorasi. Misalnya, BasedAI mengusulkan pendekatan terdesentralisasi dengan mengintegrasikan Fully Enkripsi Homomorphic (FHE) dengan Large Language Model (LLM) secara mulus untuk menjaga kerahasiaan data. Zero-Knowledge Large Language Models (ZK-LLMs) menanamkan privasi ke dalam infrastruktur jaringan terdistribusi mereka, memastikan bahwa data pengguna tetap rahasia selama operasi jaringan.

Berikut penjelasan singkat mengenai Fully Enkripsi Homomorphic (FHE). FHE adalah teknik enkripsi yang memungkinkan perhitungan dilakukan pada data terenkripsi tanpa perlu mendekripsinya. Ini berarti bahwa berbagai operasi matematika (seperti penambahan, perkalian, dll.) yang dilakukan pada data terenkripsi FHE menghasilkan hasil yang sama seolah-olah dilakukan pada data asli yang tidak terenkripsi, sehingga melindungi privasi data pengguna.

Selain metode yang disebutkan di atas, Web3 juga mendukung AI melalui proyek-proyek seperti Cortex, yang memungkinkan on-chain eksekusi program AI. Menjalankan program pembelajaran mesin pada blockchain tradisional menghadapi tantangan karena mesin virtual sangat tidak efisien dalam menjalankan model pembelajaran mesin yang tidak sepele. Sebagian besar percaya menjalankan AI di blockchain tidak mungkin. Namun, Cortex Virtual Machine (CVM) menggunakan GPU untuk menjalankan program AI on-chain dan kompatibel dengan Ethereum Virtual Machine (EVM). Dengan kata lain, rantai Cortex dapat mengeksekusi semua DApps Ethereum dan mengintegrasikan pembelajaran mesin AI ke dalam DApps ini. Hal ini memungkinkan model pembelajaran mesin berjalan dengan cara yang terdesentralisasi, tidak berubah, dan transparan, dengan konsensus jaringan yang memverifikasi setiap langkah inferensi AI.

3.2 AI Membantu Web3

Dalam tabrakan antara AI dan Web3, selain bantuan Web3 untuk AI, bantuan AI untuk industri Web3 juga patut diperhatikan. Kontribusi inti dari kecerdasan buatan adalah peningkatan produktivitas, sehingga ada banyak upaya dalam smart contract audit AI, analisis dan prediksi data, layanan yang dipersonalisasi, perlindungan keamanan dan privasi, dll.

3.2.1 Analisis dan Prediksi Data

Banyak proyek Web3 mengintegrasikan layanan AI yang ada (seperti ChatGPT) atau mengembangkannya sendiri untuk menyediakan analisis data dan layanan prediksi bagi pengguna Web3. Layanan ini mencakup berbagai macam, termasuk algoritma AI untuk strategi investasi, alat analisis on-chain, dan perkiraan harga dan pasar.

Misalnya, Pond menggunakan algoritma grafik AI untuk memprediksi token alfa masa depan yang berharga, menawarkan layanan konsultasi investasi kepada pengguna dan institusi. BullBear AI melatih data historis pengguna, riwayat harga, dan tren pasar untuk memberikan informasi akurat yang mendukung prediksi tren harga, membantu pengguna mencapai keuntungan.

Platform seperti Numerai menyelenggarakan kompetisi investasi di mana peserta menggunakan AI dan model bahasa besar untuk memprediksi pasar saham. Mereka melatih model pada data berkualitas tinggi yang disediakan oleh platform dan mengirimkan prediksi harian. Numerai mengevaluasi prediksi ini selama bulan berikutnya, dan peserta dapat stake NMR token pada model mereka untuk mendapatkan hadiah berdasarkan kinerja.

Arkham, platform analisis data blockchain, juga mengintegrasikan AI ke dalam layanannya. Arkham menghubungkan alamat blockchain ke entitas seperti bursa, dana, dan paus, menampilkan data dan analisis utama untuk memberi pengguna keunggulan pengambilan keputusan. Arkham Ultra mencocokkan alamat ke entitas dunia nyata menggunakan algoritma yang dikembangkan selama tiga tahun dengan dukungan dari pendiri Palantir dan OpenAI.

3.2.2 Layanan yang Dipersonalisasi

Aplikasi AI dalam pencarian dan rekomendasi lazim dalam proyek Web2, melayani kebutuhan pribadi pengguna. Proyek Web3 juga mengintegrasikan AI untuk meningkatkan pengalaman pengguna.

Misalnya, platform analisis data terkenal Dune baru-baru ini memperkenalkan alat Wand, yang menggunakan model bahasa besar untuk menulis kueri SQL. Dengan Wand Create, pengguna dapat menghasilkan kueri SQL dari pertanyaan bahasa alami, sehingga memudahkan mereka yang tidak terbiasa dengan SQL untuk mencari data.

Platform konten seperti Followin mengintegrasikan ChatGPT untuk merangkum sudut pandang dan pembaruan di sektor tertentu. Ensiklopedia Web3 IQ.wiki bertujuan untuk menjadi sumber utama pengetahuan objektif dan berkualitas tinggi tentang teknologi blockchain dan cryptocurrency. Ini mengintegrasikan GPT-4 untuk meringkas artikel wiki, membuat informasi blockchain lebih mudah diakses di seluruh dunia. Mesin pencari berbasis LLM Kaito bertujuan untuk merevolusi pencarian informasi Web3.

Dalam domain kreatif, proyek seperti NFPrompt mengurangi biaya pembuatan konten. NFPrompt memungkinkan pengguna untuk menghasilkan NFT lebih mudah dengan AI, menyediakan berbagai layanan kreatif yang dipersonalisasi.

3.2.3 Kontrak Pintar Audit AI

Mengaudit smart contract adalah tugas penting di Web3, dan AI dapat meningkatkan efisiensi dan akurasi dalam mengidentifikasi kerentanan kode.

Vitalik Buterin telah mencatat bahwa salah satu tantangan terbesar dalam ruang cryptocurrency adalah kesalahan dalam kode kami. AI memegang janji untuk secara signifikan menyederhanakan penggunaan alat verifikasi formal untuk membuktikan kebenaran kode. Mencapai hal ini dapat mengarah pada SEK EVM (Ethereum Virtual Machine) yang hampir bebas dari kesalahan, meningkatkan keamanan ruang karena lebih sedikit kesalahan meningkatkan keselamatan secara keseluruhan.

Misalnya, proyek 0x0.ai menawarkan auditor kontrak pintar bertenaga AI. Alat ini menggunakan algoritme canggih untuk menganalisis smart contract dan mengidentifikasi potensi kerentanan atau masalah yang dapat menyebabkan penipuan atau risiko keamanan lainnya. Auditor menggunakan pembelajaran mesin untuk mendeteksi pola dan anomali dalam kode, menandai potensi masalah untuk ditinjau lebih lanjut.

Ada kasus asli lainnya di mana AI membantu Web3. PAAL membantu pengguna membuat bot AI yang dipersonalisasi yang dapat digunakan di Telegram dan Discord untuk melayani pengguna Web3. Agregator DEX multi-rantai berbasis AI Hera menggunakan AI untuk memberikan jalur perdagangan terbaik antara pasangan token apa pun di berbagai token. Secara keseluruhan, kontribusi AI untuk Web3 terutama pada tingkat alat, meningkatkan berbagai proses dan fungsionalitas.

Keterbatasan Dan Tantangan Saat Ini Dari Proyek AI + Web3

4.1 Hambatan Realistis Dalam Daya Komputasi Terdesentralisasi

Saat ini, banyak proyek Web3 yang membantu AI berfokus pada daya komputasi terdesentralisasi. Menggunakan insentif token untuk mempromosikan pengguna global untuk menjadi bagian dari sisi catu daya komputasi adalah inovasi yang sangat menarik. Namun, di sisi lain, ada beberapa masalah realistis yang perlu ditangani:

Dibandingkan dengan penyedia layanan daya komputasi terpusat, produk daya komputasi terdesentralisasi biasanya bergantung pada node dan peserta yang didistribusikan secara global untuk menyediakan sumber daya komputasi. Karena kemungkinan latensi dan ketidakstabilan dalam koneksi jaringan antara node ini, kinerja, dan stabilitas mungkin lebih buruk daripada produk daya komputasi terpusat.

Selain itu, ketersediaan produk daya komputasi terdesentralisasi dipengaruhi oleh tingkat sesuai antara penawaran dan permintaan. Jika tidak ada cukup pemasok atau jika permintaan terlalu tinggi, itu dapat menyebabkan kekurangan sumber daya atau ketidakmampuan untuk memenuhi kebutuhan pengguna.

Akhirnya, dibandingkan dengan produk daya komputasi terpusat, produk daya komputasi terdesentralisasi biasanya melibatkan lebih banyak detail teknis dan kompleksitas. Pengguna mungkin perlu memahami dan menangani aspek jaringan terdistribusi, smart contract, dan pembayaran cryptocurrency, yang meningkatkan biaya pemahaman dan penggunaan pengguna.

Setelah diskusi mendalam dengan banyak tim proyek daya komputasi terdesentralisasi, ditemukan bahwa daya komputasi terdesentralisasi saat ini sebagian besar masih terbatas pada inferensi AI daripada pelatihan AI.

Selanjutnya, saya akan menggunakan empat pertanyaan untuk membantu semua orang memahami alasan di balik ini:

  1. Mengapa sebagian besar proyek daya komputasi terdesentralisasi memilih untuk melakukan inferensi AI daripada pelatihan AI?

  2. Apa yang membuat NVIDIA begitu kuat? Apa alasan mengapa pelatihan daya komputasi terdesentralisasi sulit?

  3. Apa yang akan menjadi permainan akhir untuk daya komputasi terdesentralisasi (Render, Akash, io.net, dll.)?

  4. Apa yang akan menjadi permainan akhir untuk algoritma terdesentralisasi (Bittensor)?

Mari kita selidiki detailnya selangkah demi selangkah:

1) Mengamati bidang ini, sebagian besar proyek daya komputasi terdesentralisasi memilih untuk fokus pada inferensi AI daripada pelatihan, terutama karena persyaratan yang berbeda untuk daya komputasi dan bandwidth.

Untuk membantu semua orang lebih memahami, mari kita bandingkan AI dengan siswa:

  • Pelatihan AI: Jika kita membandingkan kecerdasan buatan dengan seorang siswa, pelatihan mirip dengan memberikan AI dengan sejumlah besar pengetahuan dan contoh, mirip dengan apa yang sering kita sebut sebagai data. AI belajar dari contoh-contoh ini. Karena belajar melibatkan pemahaman dan menghafal sejumlah besar informasi, proses ini membutuhkan daya komputasi dan waktu yang substansial.

  • Inferensi AI: Inferensi dapat dipahami sebagai menggunakan pengetahuan yang diperoleh untuk memecahkan masalah atau mengikuti ujian. Selama inferensi, AI memanfaatkan pengetahuan yang dipelajari untuk menjawab pertanyaan daripada memperoleh informasi baru, maka persyaratan komputasi relatif lebih rendah.

Sangat mudah untuk melihat bahwa perbedaan mendasar dalam kesulitan terletak pada kenyataan bahwa pelatihan AI model besar membutuhkan volume data yang sangat besar dan bandwidth yang sangat tinggi untuk transmisi data, sehingga sangat menantang untuk dicapai dengan daya komputasi terdesentralisasi. Sebaliknya, inferensi membutuhkan lebih sedikit data dan bandwidth, sehingga lebih layak.

Untuk model besar, stabilitas sangat penting. Jika pelatihan terganggu, itu harus dimulai kembali, mengakibatkan biaya hangus yang tinggi. Di sisi lain, tuntutan dengan persyaratan daya komputasi yang relatif lebih rendah, seperti inferensi AI atau skenario spesifik tertentu yang melibatkan pelatihan model menengah hingga kecil, dapat dicapai. Dalam jaringan daya komputasi terdesentralisasi, beberapa penyedia layanan node yang relatif besar dapat memenuhi tuntutan daya komputasi yang relatif lebih tinggi ini.

2) Jadi, di mana hambatan dalam data dan bandwidth? Mengapa pelatihan terdesentralisasi sulit dicapai?

Ini melibatkan dua elemen kunci dari pelatihan model besar: daya komputasi kartu tunggal dan paralelisme multi-kartu.

Daya komputasi kartu tunggal: Saat ini, semua pusat yang membutuhkan pelatihan model besar, yang disebut sebagai pusat superkomputer, dapat dibandingkan dengan tubuh manusia, di mana unit yang mendasarinya, GPU, seperti sel. Jika daya komputasi sel tunggal (GPU) kuat, maka daya komputasi keseluruhan (kuantitas × sel tunggal) juga bisa sangat kuat.

Paralelisme multi-kartu: Melatih model besar sering kali melibatkan ratusan miliar gigabyte. Untuk pusat superkomputer yang melatih model besar, setidaknya diperlukan puluhan ribu GPU A100. Ini mengharuskan mobilisasi ribuan kartu untuk pelatihan. Namun, melatih model besar bukanlah proses serial yang sederhana; itu tidak hanya berlatih pada kartu A100 pertama dan kemudian pindah ke yang kedua. Sebaliknya, bagian yang berbeda dari model dilatih pada GPU yang berbeda secara bersamaan, dan bagian pelatihan A mungkin memerlukan hasil dari bagian B, yang melibatkan pemrosesan paralel.

Dominasi NVIDIA dan meningkatnya nilai pasar, sementara AMD dan perusahaan domestik seperti Huawei dan Horizon merasa sulit untuk mengejar ketinggalan, berasal dari dua aspek: lingkungan perangkat lunak CUDA dan komunikasi multi-kartu NVLink.

Lingkungan Perangkat Lunak CUDA: Apakah ada ekosistem perangkat lunak yang sesuai dengan perangkat keras sangat penting, seperti sistem CUDA NVIDIA. Membangun sistem baru itu menantang, mirip dengan menciptakan bahasa baru dengan biaya penggantian yang tinggi.

NVLink Multi-card Communication: Pada dasarnya, komunikasi multi-card melibatkan input dan output informasi. Cara memparalelkan dan mengirimkan sangat penting. Kehadiran NVLink berarti kartu NVIDIA dan AMD tidak dapat berkomunikasi; selain itu, NVLink membatasi jarak fisik antara GPU, mengharuskan mereka berada di pusat superkomputer yang sama. Hal ini menyulitkan daya komputasi terdesentralisasi yang tersebar di seluruh dunia untuk membentuk cluster komputasi kohesif untuk pelatihan model besar.

Poin pertama menjelaskan mengapa AMD dan perusahaan domestik seperti Huawei dan Horizon berjuang untuk mengejar ketinggalan; poin kedua menjelaskan mengapa pelatihan terdesentralisasi sulit dicapai.

3) Apa yang akan menjadi permainan akhir untuk daya komputasi terdesentralisasi? Daya komputasi terdesentralisasi saat ini berjuang dengan pelatihan model besar karena stabilitas adalah yang terpenting. Interupsi memerlukan pelatihan ulang, yang mengakibatkan biaya hangus yang tinggi. Persyaratan tinggi untuk paralelisme multi-kartu dibatasi oleh kendala bandwidth fisik. NVLink NVIDIA mencapai komunikasi multi-kartu, tetapi dalam pusat superkomputer, NVLink membatasi jarak fisik antara GPU. Dengan demikian, daya komputasi yang tersebar tidak dapat membentuk cluster komputasi untuk pelatihan model besar.

Namun, untuk permintaan dengan persyaratan daya komputasi yang relatif lebih rendah, seperti inferensi AI atau skenario spesifik tertentu yang melibatkan pelatihan model menengah hingga kecil, jaringan daya komputasi terdesentralisasi dengan beberapa penyedia layanan node yang relatif besar memiliki potensi. Selain itu, skenario seperti komputasi tepi untuk rendering relatif lebih mudah diterapkan.

4) Apa yang akan menjadi permainan akhir untuk model algoritma terdesentralisasi? Masa depan model algoritma terdesentralisasi tergantung pada arah akhir AI. Saya percaya masa depan AI mungkin menampilkan 1-2 raksasa model sumber tertutup (seperti ChatGPT) di samping sejumlah besar model. Dalam konteks ini, produk lapisan aplikasi tidak perlu mengikat ke satu model besar melainkan bekerja sama dengan beberapa model besar. Dalam skenario ini, model Bittensor menunjukkan potensi yang signifikan.

Dalam proyek saat ini yang menggabungkan Web3 dan AI, terutama di mana AI membantu inisiatif Web3, sebagian besar proyek hanya menggunakan AI secara dangkal tanpa menunjukkan integrasi mendalam antara AI dan cryptocurrency. Aplikasi dangkal ini terbukti dalam dua aspek berikut:

  • Pertama, apakah menggunakan AI untuk analisis dan prediksi data, dalam skenario rekomendasi dan pencarian, atau untuk audit kode, ada sedikit perbedaan dibandingkan dengan integrasi AI dalam proyek Web2. Proyek-proyek ini hanya memanfaatkan AI untuk meningkatkan efisiensi dan analisis tanpa menampilkan perpaduan asli AI dan cryptocurrency atau menghadirkan solusi inovatif.
  • Kedua, banyak tim Web3 menggabungkan AI lebih sebagai gimmick pemasaran, murni memanfaatkan konsep AI. Mereka menerapkan teknologi AI di area yang sangat terbatas dan kemudian mulai mempromosikan tren AI, menciptakan fasad integrasi yang erat dengan AI. Namun, proyek-proyek ini tidak memiliki inovasi substansial.

Meskipun proyek Web3 dan AI saat ini memiliki keterbatasan ini, kita harus menyadari bahwa ini hanyalah tahap awal pengembangan. Di masa depan, kita dapat mengharapkan penelitian dan inovasi yang lebih mendalam untuk mencapai integrasi yang lebih erat antara AI dan cryptocurrency, menciptakan solusi yang lebih asli dan bermakna di berbagai bidang seperti keuangan, organisasi otonom terdesentralisasi (DAO), pasar prediksi, dan NFT.

4.3 Token Ekonomi Berfungsi sebagai Penyangga untuk Narasi Proyek AI

Seperti disebutkan pada awalnya, proyek AI menghadapi tantangan dalam model bisnis mereka, terutama karena semakin banyak model besar secara bertahap menjadi open source. Banyak proyek AI + Web3, seringkali proyek AI murni yang berjuang untuk berkembang dan mengamankan funding di ruang Web2, memilih untuk melapisi narasi dan ekonomi token dari Web3 untuk mendorong partisipasi pengguna.

Namun, pertanyaan krusialnya adalah apakah integrasi ekonomi token benar-benar membantu proyek AI memenuhi kebutuhan dunia nyata atau hanya berfungsi sebagai proposisi nilai naratif atau jangka short. Saat ini, sebagian besar proyek AI + Web3 masih jauh dari mencapai tahap praktis. Diharapkan bahwa tim yang lebih membumi dan bijaksana tidak hanya akan menggunakan token sebagai sarana untuk hype proyek AI tetapi juga benar-benar memenuhi kasus penggunaan praktis.

Ringkasan

Saat ini, banyak kasus dan aplikasi telah muncul dalam proyek AI + Web3. Pertama, teknologi AI dapat memberikan kasus penggunaan yang lebih efisien dan cerdas untuk Web3. Melalui kemampuan AI dalam analisis dan prediksi data, pengguna di Web3 dapat memiliki alat yang lebih baik untuk keputusan investasi dan skenario lainnya. Selain itu, AI dapat mengaudit kode kontrak pintar, mengoptimalkan eksekusi kontrak, dan meningkatkan kinerja dan efisiensi blockchain. Selain itu, teknologi AI dapat menawarkan rekomendasi yang lebih tepat dan cerdas serta layanan yang dipersonalisasi untuk aplikasi terdesentralisasi, sehingga meningkatkan pengalaman pengguna.

Pada saat yang sama, sifat Web3 yang terdesentralisasi dan dapat diprogram juga menghadirkan peluang baru untuk teknologi AI. Melalui insentif token, proyek daya komputasi terdesentralisasi memberikan solusi baru untuk dilema daya komputasi AI yang tidak mencukupi. Mekanisme penyimpanan smart contract dan terdistribusi Web3 juga menawarkan ruang dan sumber daya yang lebih luas untuk berbagi dan pelatihan algoritma AI. Otonomi pengguna dan mekanisme kepercayaan Web3 juga membawa kemungkinan baru untuk pengembangan AI, memungkinkan pengguna untuk secara mandiri memilih untuk berpartisipasi dalam berbagi data dan pelatihan, sehingga meningkatkan keragaman dan kualitas data dan lebih meningkatkan kinerja dan akurasi model AI.

Meskipun proyek cross-over AI + Web3 saat ini masih dalam tahap awal dan menghadapi banyak tantangan, mereka juga membawa banyak keuntungan. Misalnya, produk daya komputasi terdesentralisasi memiliki beberapa kelemahan, tetapi mereka mengurangi ketergantungan pada institusi terpusat, memberikan transparansi dan auditabilitas yang lebih besar, dan memungkinkan partisipasi dan inovasi yang lebih luas. Untuk kasus penggunaan khusus dan kebutuhan pengguna, produk daya komputasi terdesentralisasi mungkin merupakan pilihan yang berharga. Hal yang sama berlaku untuk pengumpulan data; Proyek pengumpulan data terdesentralisasi menawarkan keuntungan seperti mengurangi ketergantungan pada sumber data tunggal, menyediakan cakupan data yang lebih luas, dan mempromosikan keragaman dan inklusivitas data. Dalam praktiknya, perlu untuk menyeimbangkan kelebihan dan kekurangan ini dan mengambil langkah-langkah manajemen dan teknis yang tepat untuk mengatasi tantangan, memastikan bahwa proyek pengumpulan data yang terdesentralisasi memiliki dampak positif pada pengembangan AI.

Secara keseluruhan, integrasi AI + Web3 menawarkan kemungkinan tak terbatas untuk inovasi teknologi masa depan dan pengembangan ekonomi. Dengan menggabungkan analisis cerdas dan kemampuan pengambilan keputusan AI dengan sifat Web3 yang terdesentralisasi dan otonom pengguna, diyakini bahwa kita dapat membangun sistem ekonomi dan bahkan sosial yang lebih cerdas, lebih terbuka, dan lebih adil.

Penafian:

  1. Artikel ini dicetak ulang dari [Ryze Labs]. Semua hak cipta adalah milik penulis asli [Fred]. Jika ada keberatan dengan cetak ulang ini, silakan hubungi tim Gate Learn, dan mereka akan segera menanganinya.
  2. Penafian Kewajiban: Pandangan dan pendapat yang diungkapkan dalam artikel ini semata-mata milik penulis dan bukan merupakan saran investasi.
  3. Penerjemahan artikel ke bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel yang diterjemahkan dilarang.

Analisis Kedalaman: Percikan Seperti Apa yang Dapat Dibuat AI dan Web3?

Lanjutan6/7/2024, 5:04:48 AM
Artikel ini membahas perkembangan pesat teknologi Artificial Intelligence (AI) dan Web3 serta potensi nilai dan dampak integrasinya. AI unggul dalam meningkatkan produktivitas, sementara Web3 mengubah hubungan produksi melalui desentralisasi. Kombinasi teknologi ini menghadirkan aplikasi inovatif dalam analisis data, layanan pengguna yang dipersonalisasi, serta perlindungan keamanan dan privasi.

Pendahuluan: Pengembangan AI+Web3

Dalam beberapa tahun terakhir, perkembangan pesat teknologi Artificial Intelligence (AI) dan Web3 telah mengumpulkan perhatian global yang luas. AI, teknologi yang mensimulasikan dan meniru kecerdasan manusia, telah mencapai terobosan signifikan di bidang-bidang seperti pengenalan wajah, pemrosesan bahasa alami, dan pembelajaran mesin. Kemajuan pesat teknologi AI telah membawa transformasi dan inovasi luar biasa di berbagai industri.

Industri AI mencapai ukuran pasar $200 miliar pada tahun 2023, dengan raksasa industri dan pemain terkemuka seperti OpenAI, Character.AI, dan Midjourney muncul dengan cepat dan utama ledakan AI.

Secara bersamaan, Web3, model internet yang muncul, secara bertahap mengubah persepsi dan penggunaan internet kita. Berdasarkan teknologi blockchain terdesentralisasi, Web3 mewujudkan berbagi dan kontrol data, otonomi pengguna, dan pembentukan mekanisme kepercayaan melalui fitur-fitur seperti smart contract, penyimpanan terdistribusi, dan verifikasi identitas terdesentralisasi. Ide inti Web3 adalah untuk membebaskan data dari otoritas terpusat, memberikan kontrol kepada pengguna dan kemampuan untuk berbagi nilai data mereka.

Saat ini, nilai pasar industri Web3 telah mencapai $25 triliun. Dari Bitcoin, Ethereum, dan Solana hingga pemain tingkat aplikasi seperti Uniswap dan Stepn, narasi dan skenario baru terus bermunculan, menarik semakin banyak orang untuk bergabung dengan industri Web3.

Jelas bahwa integrasi AI dan Web3 adalah titik fokus bagi pembangun dan pemodal ventura dari Timur dan Barat. Menjelajahi cara menggabungkan kedua teknologi ini secara efektif adalah upaya yang sangat berharga.

Artikel ini akan fokus pada keadaan pengembangan AI+Web3 saat ini, mengeksplorasi potensi nilai dan dampak integrasinya. Pertama-tama kami akan memperkenalkan konsep dasar dan karakteristik AI dan Web3, kemudian membahas keterkaitan mereka. Setelah ini, kami akan menganalisis keadaan proyek AI+Web3 saat ini dan mempelajari keterbatasan dan tantangan yang mereka hadapi. Melalui penelitian ini, kami bertujuan untuk memberikan referensi dan wawasan berharga bagi investor dan profesional industri.

Bagaimana AI Berinteraksi dengan Web3

Perkembangan AI dan Web3 dapat dilihat sebagai dua sisi skala: AI membawa peningkatan produktivitas, sementara Web3 merevolusi hubungan produksi. Jadi, percikan api seperti apa yang bisa diciptakan AI dan Web3 ketika mereka bertabrakan? Pertama-tama kami akan menganalisis tantangan dan potensi peningkatan dalam industri AI dan Web3, dan kemudian mengeksplorasi bagaimana mereka dapat membantu menyelesaikan masalah satu sama lain.

  1. Tantangan dan Potensi Peningkatan dalam Industri AI
  2. Tantangan dan Potensi Peningkatan dalam Industri Web3

2.1 Tantangan dalam Industri AI

Untuk mengeksplorasi tantangan yang dihadapi oleh industri AI, pertama-tama kita harus memahami esensinya. Inti dari industri AI berkisar pada tiga elemen kunci: daya komputasi, algoritma, dan data.

  1. Pertama, daya komputasi: Daya komputasi mengacu pada kemampuan untuk melakukan perhitungan dan pemrosesan skala besar. Tugas AI biasanya memerlukan penanganan data dalam jumlah besar dan melakukan perhitungan kompleks, seperti melatih model jaringan saraf dalam. Daya komputasi yang tinggi dapat mempercepat pelatihan model dan proses inferensi, meningkatkan kinerja dan efisiensi sistem AI. Dalam beberapa tahun terakhir, kemajuan dalam teknologi perangkat keras, seperti unit pemrosesan grafis (GPU) dan chip AI khusus (seperti TPU), telah secara signifikan meningkatkan daya komputasi, mendorong pengembangan industri AI. Nvidia, penyedia GPU utama, telah melihat harga sahamnya melonjak dalam beberapa tahun terakhir, menangkap pangsa pasar yang besar dan menghasilkan keuntungan besar.
  2. Apa itu algoritma: Algoritma adalah komponen inti dari sistem AI. Mereka adalah metode matematika dan statistik yang digunakan untuk memecahkan masalah dan melakukan tugas. Algoritma AI dapat dikategorikan ke dalam algoritma pembelajaran mesin tradisional dan algoritma pembelajaran mendalam, dengan algoritma pembelajaran mendalam telah membuat terobosan signifikan dalam beberapa tahun terakhir. Pilihan dan desain algoritma sangat penting untuk kinerja dan efektivitas sistem AI. Peningkatan berkelanjutan dan inovasi dalam algoritma dapat meningkatkan akurasi, ketahanan, dan kemampuan generalisasi sistem AI. Algoritma yang berbeda menghasilkan hasil yang berbeda, sehingga kemajuan dalam algoritma sangat penting untuk kinerja tugas.
  3. Mengapa data itu penting: Tugas inti sistem AI adalah mengekstrak pola dan aturan dari data melalui pembelajaran dan pelatihan. Data membentuk dasar untuk melatih dan mengoptimalkan model. Dengan sampel data skala besar, sistem AI dapat mempelajari model yang lebih akurat dan cerdas. Kumpulan data yang kaya memberikan informasi yang komprehensif dan beragam, memungkinkan model untuk menggeneralisasi lebih baik ke data yang tidak terlihat dan membantu sistem AI lebih memahami dan memecahkan masalah dunia nyata.

Setelah memahami tiga elemen inti AI saat ini, mari kita periksa kesulitan dan tantangan yang dihadapi AI di bidang ini.

Pertama, dalam hal daya komputasi, tugas AI biasanya membutuhkan sejumlah besar sumber daya komputasi untuk pelatihan model dan inferensi, terutama untuk model pembelajaran mendalam. Namun, mendapatkan dan mengelola daya komputasi skala besar adalah tantangan yang mahal dan kompleks. Biaya, konsumsi energi, dan pemeliharaan peralatan komputasi berkinerja tinggi adalah masalah yang signifikan. Ini sangat menantang bagi startup dan pengembang individu, yang sulit memperoleh daya komputasi yang memadai.

Dalam hal algoritma, terlepas dari keberhasilan signifikan algoritme pembelajaran mendalam di banyak bidang, masih ada tantangan dan kesulitan. Misalnya, melatih jaringan saraf dalam membutuhkan sejumlah besar data dan sumber daya komputasi. Selain itu, untuk tugas-tugas tertentu, interpretabilitas dan kemampuan menjelaskan model mungkin tidak cukup. Kemampuan ketahanan dan generalisasi algoritma juga merupakan masalah penting, karena kinerja model pada data yang tidak terlihat bisa tidak stabil. Menemukan algoritma terbaik untuk memberikan kinerja optimal di antara banyak algoritma adalah eksplorasi yang sedang berlangsung.

Dalam hal data, data adalah kekuatan pendorong di belakang AI, tetapi memperoleh data berkualitas tinggi dan beragam tetap menjadi tantangan. Data di beberapa bidang, seperti data kesehatan sensitif di sektor medis, bisa sulit diperoleh. Selain itu, kualitas, akurasi, dan pelabelan data adalah masalah penting, karena data yang tidak lengkap atau bias dapat menyebabkan perilaku atau bias model yang salah. Melindungi privasi dan keamanan data juga merupakan pertimbangan penting.

Selain itu, ada masalah yang berkaitan dengan interpretabilitas dan transparansi. Sifat "kotak hitam" dari model AI adalah perhatian publik. Dalam aplikasi tertentu, seperti keuangan, perawatan kesehatan, dan keadilan, proses pengambilan keputusan model perlu ditafsirkan dan dilacak. Namun, model deep learning yang ada seringkali kurang transparan. Menjelaskan proses pengambilan keputusan model dan memberikan penjelasan yang andal tetap menantang.

Selain itu, model bisnis dari banyak proyek startup AI tidak begitu jelas, yang juga menyebabkan kebingungan bagi banyak pengusaha AI.

2.2 Tantangan dalam Industri Web3

Dalam industri Web3, ada banyak tantangan yang perlu ditangani, mulai dari analisis data dan pengalaman pengguna hingga kerentanan kontrak pintar dan serangan peretas. AI, sebagai alat untuk meningkatkan produktivitas, memiliki potensi yang signifikan di bidang ini.

Pertama, ada ruang untuk perbaikan dalam analisis data dan kemampuan prediktif. Aplikasi AI dalam analisis dan prediksi data memiliki dampak signifikan pada industri Web3. Melalui analisis cerdas dan penambangan oleh algoritme AI, platform Web3 dapat mengekstrak informasi berharga dari sejumlah besar data dan membuat prediksi dan keputusan yang lebih akurat. Ini sangat penting untuk penilaian risiko, peramalan pasar, dan manajemen aset dalam keuangan terdesentralisasi (DeFi).

Selain itu, ada potensi untuk meningkatkan pengalaman pengguna dan layanan personalisasi. Aplikasi AI memungkinkan platform Web3 menawarkan pengalaman pengguna yang lebih baik dan layanan yang dipersonalisasi. Dengan menganalisis dan memodelkan data pengguna, platform Web3 dapat memberikan rekomendasi yang dipersonalisasi, layanan yang disesuaikan, dan pengalaman interaksi cerdas. Ini membantu meningkatkan keterlibatan dan kepuasan pengguna, mendorong pengembangan ekosistem Web3. Misalnya, banyak protokol Web3 mengintegrasikan alat AI seperti ChatGPT untuk melayani pengguna dengan lebih baik.

Dalam hal keamanan dan perlindungan privasi, aplikasi AI juga memiliki dampak besar pada industri Web3. Teknologi AI dapat digunakan untuk mendeteksi dan mempertahankan diri dari serangan jaringan, mengidentifikasi perilaku abnormal, dan memberikan langkah-langkah keamanan yang lebih kuat. Selain itu, AI dapat diterapkan pada perlindungan privasi data, menjaga informasi pribadi pengguna di platform Web3 melalui teknik seperti enkripsi data dan komputasi privasi. Mengenai audit kontrak cerdas, karena kerentanan dan risiko keamanan mungkin ada dalam proses penulisan dan audit smart contract, teknologi AI dapat digunakan untuk audit kontrak otomatis dan deteksi kerentanan, meningkatkan keamanan dan keandalan kontrak.

Jelas bahwa AI dapat berkontribusi secara signifikan untuk mengatasi tantangan dan potensi peningkatan dalam industri Web3 di berbagai aspek.

Analisis Situasi Saat Ini Proyek AI+Web3

Menggabungkan proyek AI dan Web3 terutama berfokus pada dua aspek utama: memanfaatkan teknologi blockchain untuk meningkatkan proyek AI dan memanfaatkan teknologi AI untuk melayani peningkatan proyek Web3. Banyak proyek telah muncul di sepanjang jalan ini, termasuk Io.net, Gensyn, Ritual, antara lain. Analisis berikut akan menyelidiki subdomain yang berbeda di mana AI membantu Web3 dan di mana Web3 meningkatkan AI.

3.1 Web3 Membantu AI

3.1.1 Daya Komputasi Terdesentralisasi

Sejak peluncuran ChatGPT oleh OpenAI pada akhir tahun 2022, itu memicu hiruk-pikuk di bidang AI. Dalam lima hari setelah dirilis, basis pengguna mencapai satu juta, melampaui tingkat unduhan Instagram, yang membutuhkan waktu sekitar dua setengah bulan untuk mencapai tonggak sejarah yang sama. Selanjutnya, ChatGPT mengalami pertumbuhan pesat, dengan pengguna aktif bulanan mencapai 100 juta dalam waktu dua bulan dan pengguna aktif mingguan mencapai 100 juta pada November 2023. Dengan munculnya ChatGPT, sektor AI dengan cepat beralih dari bidang khusus ke industri yang sangat dihormati.

Menurut laporan Trendforce, ChatGPT membutuhkan 30.000 GPU NVIDIA A100 untuk beroperasi, dan model masa depan seperti GPT-5 akan membutuhkan lebih banyak daya komputasi. Ini telah memicu perlombaan senjata di antara berbagai perusahaan AI, karena memiliki daya komputasi yang cukup sangat penting untuk mempertahankan keunggulan kompetitif di arena AI, utama kekurangan GPU.

Sebelum naik AI, penyedia GPU utama, NVIDIA, terutama melayani klien dari tiga layanan cloud utama: AWS, Azure, dan GCP. Dengan naik kecerdasan buatan, banyak pembeli baru muncul, termasuk perusahaan teknologi besar seperti Meta, Oracle, serta platform data lainnya dan startup AI, semuanya bergabung dalam perlombaan untuk menimbun GPU untuk melatih model AI. Perusahaan teknologi besar seperti Meta dan Tesla secara signifikan meningkatkan pembelian model AI yang disesuaikan dan penelitian internal. Perusahaan model dasar seperti Anthropic dan platform data seperti Snowflake dan Databricks juga membeli lebih banyak GPU untuk membantu klien mereka dalam menyediakan layanan AI.

Seperti yang disebutkan oleh Semi Analysis tahun lalu, ada kesenjangan antara perusahaan "kaya GPU" dan "miskin GPU", dengan hanya sedikit yang memiliki lebih dari 20.000 GPU A100 / H100, yang memungkinkan anggota tim untuk memanfaatkan antara 100 hingga 1000 GPU untuk proyek. Perusahaan-perusahaan ini adalah penyedia cloud atau telah membangun model bahasa besar (LLM) mereka sendiri, termasuk OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral, antara lain.

Namun, sebagian besar perusahaan turun ke dalam kategori "GPU miskin", berjuang dengan GPU yang jauh lebih sedikit dan menghabiskan banyak waktu dan upaya untuk tugas-tugas yang lebih sulit untuk memajukan ekosistem. Apalagi situasi ini tidak terbatas pada startup. Beberapa perusahaan AI paling terkenal, seperti Hugging Face, Databricks (MosaicML), Together, dan bahkan Snowflake, memiliki jumlah A100 / H100 kurang dari 20.000. Meskipun memiliki bakat teknis kelas dunia, perusahaan-perusahaan ini dibatasi oleh pasokan GPU yang terbatas, menempatkan mereka pada posisi yang kurang menguntungkan dibandingkan dengan perusahaan besar dalam persaingan AI.

Kekurangan ini tidak terbatas pada kategori "miskin GPU"; bahkan pada akhir tahun 2023, pemain AI utama, OpenAI, harus menutup sementara pendaftaran berbayar karena ketidakmampuan untuk mendapatkan GPU yang cukup dan harus mendapatkan lebih banyak pasokan GPU.

Jelas bahwa perkembangan pesat AI telah menyebabkan ketidakcocokan serius antara permintaan dan penawaran GPU, menciptakan kekurangan pasokan yang akan segera terjadi.

Untuk mengatasi masalah ini, beberapa proyek Web3 telah mulai mengeksplorasi solusi daya komputasi terdesentralisasi, memanfaatkan karakteristik unik teknologi Web3. Proyek-proyek ini termasuk Akash, Render, Gensyn, antara lain. Fitur umum di antara proyek-proyek ini adalah penggunaan token untuk memberi insentif kepada pengguna untuk menyediakan daya komputasi GPU yang menganggur, sehingga menjadi sisi pasokan daya komputasi untuk dukungan klien AI.

Profil sisi penawaran terutama terdiri dari tiga aspek: penyedia layanan cloud, penambang cryptocurrency, dan perusahaan. Penyedia layanan cloud mencakup penyedia layanan cloud utama (seperti AWS, Azure, GCP) dan penyedia layanan cloud GPU (seperti Coreweave, Lambda, Crusoe), di mana pengguna dapat menjual kembali daya komputasi idle dari penyedia ini untuk menghasilkan pendapatan. Dengan transisi Ethereum dari PoW ke PoS, daya komputasi GPU yang menganggur telah menjadi sisi pasokan potensial yang penting bagi penambang cryptocurrency. Selain itu, perusahaan besar seperti Tesla dan Meta, yang telah membeli GPU dalam jumlah besar untuk tujuan strategis, juga dapat menyumbangkan daya komputasi GPU menganggur mereka sebagai bagian dari sisi pasokan.

Saat ini, pemain di bidang ini umumnya dapat dibagi menjadi dua kategori: mereka yang menggunakan daya komputasi terdesentralisasi untuk inferensi AI dan mereka yang menggunakannya untuk pelatihan AI. Kategori pertama mencakup proyek-proyek seperti Render (meskipun berfokus pada rendering, itu juga dapat digunakan untuk komputasi AI), Akash, Aethir, sedangkan kategori yang terakhir mencakup proyek-proyek seperti io.net (mendukung inferensi dan pelatihan) dan Gensyn. Perbedaan utama antara keduanya terletak pada persyaratan yang berbeda untuk daya komputasi.

Pertama-tama mari kita bahas proyek yang berfokus pada inferensi AI. Proyek-proyek ini menarik pengguna untuk menyediakan daya komputasi melalui insentif token dan kemudian menyediakan layanan jaringan daya komputasi ke sisi permintaan, sehingga memfasilitasi sesuai catu daya dan permintaan komputasi idle. Rincian tentang proyek-proyek tersebut tercakup dalam laporan penelitian oleh DePIN dari Ryze Labs kami, jangan ragu untuk membacanya.

Poin intinya terletak pada mekanisme insentif token, di mana proyek pertama-tama menarik pemasok dan kemudian pengguna, sehingga mencapai cold start dan mekanisme operasi inti proyek, memungkinkan ekspansi dan pengembangan lebih lanjut. Dalam siklus ini, sisi penawaran menerima hadiah token yang lebih berharga, sementara sisi permintaan menikmati layanan yang lebih hemat biaya. Nilai token proyek dan pertumbuhan peserta penawaran dan permintaan tetap konsisten. Ketika harga token naik, lebih banyak peserta dan spekulan tertarik, menciptakan lingkaran penangkapan nilai.

Kategori lain melibatkan penggunaan daya komputasi terdesentralisasi untuk pelatihan AI, seperti Gensyn dan io.net (yang dukungan pelatihan AI dan inferensi). Faktanya, logika operasional proyek-proyek ini pada dasarnya tidak berbeda dari proyek inferensi AI. Mereka masih mengandalkan insentif token untuk menarik partisipasi dari sisi penawaran untuk menyediakan daya komputasi, yang kemudian dimanfaatkan oleh sisi permintaan.

io.net, sebagai jaringan daya komputasi terdesentralisasi, saat ini menawarkan lebih dari 500.000 GPU, menjadikannya pemain yang menonjol dalam proyek daya komputasi terdesentralisasi. Selain itu, ia memiliki daya komputasi terintegrasi dari Render dan Filecoin, menunjukkan pengembangan ekosistemnya yang berkelanjutan.

Selain itu, Gensyn memfasilitasi alokasi tugas dan penghargaan pembelajaran mesin melalui smart contract untuk memungkinkan pelatihan AI. Seperti yang diilustrasikan dalam diagram di bawah ini, biaya per jam untuk pekerjaan pelatihan machine learning di Gensyn adalah sekitar 0,4 USD, yang jauh lebih rendah daripada biaya lebih dari 2 USD untuk AWS dan GCP.

Ekosistem Gensyn melibatkan empat entitas yang berpartisipasi:

  • Pengirim: Ini adalah pengguna sisi permintaan yang mengkonsumsi tugas dan membayar tugas pelatihan AI.
  • Pelaksana: Pelaksana melaksanakan tugas pelatihan model dan memberikan bukti penyelesaian tugas untuk verifikasi.
  • Verifikator: Verifikator menghubungkan proses pelatihan non-deterministik dengan komputasi linier deterministik. Mereka membandingkan bukti yang diberikan oleh eksekutor dengan ambang batas yang diharapkan.
  • Reporter: Reporter memeriksa pekerjaan verifikator dan mengajukan tantangan untuk mendapatkan imbalan setelah mengidentifikasi masalah.

Seperti yang dapat kita lihat, Gensyn bertujuan untuk menjadi protokol komputasi yang sangat skalabel dan hemat biaya untuk model pembelajaran mendalam global. Namun, melihat bidang ini, mengapa sebagian besar proyek memilih daya komputasi terdesentralisasi untuk inferensi AI daripada pelatihan?

Mari kita juga membantu teman-teman yang tidak terbiasa dengan pelatihan AI dan inferensi memahami perbedaan antara keduanya:

  • Pelatihan AI: Jika kita menyamakan kecerdasan buatan dengan seorang siswa, maka pelatihan mirip dengan menyediakan AI dengan sejumlah besar pengetahuan dan contoh, yang dapat dipahami sebagai data. AI belajar dari contoh-contoh ini. Karena belajar melibatkan pemahaman dan menghafal sejumlah besar informasi, proses ini membutuhkan sejumlah besar daya komputasi dan waktu.
  • Inferensi AI: Jadi apa kesimpulannya? Ini dapat dipahami sebagai menggunakan pengetahuan yang dipelajari untuk memecahkan masalah atau mengikuti ujian. Selama inferensi, kecerdasan buatan menggunakan pengetahuan yang dipelajari untuk memberikan jawaban, daripada memperoleh pengetahuan baru. Oleh karena itu, persyaratan komputasi untuk proses inferensi relatif kecil.

Dapat dilihat bahwa persyaratan daya komputasi untuk inferensi AI dan pelatihan AI berbeda secara signifikan. Ketersediaan daya komputasi terdesentralisasi untuk inferensi AI dan pelatihan AI akan dianalisis lebih lanjut di bagian tantangan yang akan datang.

Selanjutnya, Ritual bertujuan untuk menggabungkan jaringan terdistribusi dengan pembuat model untuk menjaga desentralisasi dan keamanan. Produk pertamanya, Infernet, memungkinkan smart contract di blockchain untuk mengakses model AI off-chain, memungkinkan kontrak tersebut untuk mengakses AI dengan cara yang mempertahankan verifikasi, desentralisasi, dan perlindungan privasi.

Koordinator Infernet bertanggung jawab untuk mengelola perilaku node dalam jaringan dan menanggapi permintaan komputasi dari konsumen. Ketika pengguna menggunakan Infernet, tugas-tugas seperti inferensi dan bukti dilakukan off-chain, dengan output dikembalikan ke koordinator dan akhirnya dikirim ke konsumen on-chain melalui smart contract.

Selain jaringan daya komputasi terdesentralisasi, ada juga jaringan bandwidth terdesentralisasi seperti Grass, yang bertujuan untuk meningkatkan kecepatan dan efisiensi transmisi data. Secara keseluruhan, munculnya jaringan daya komputasi terdesentralisasi memberikan kemungkinan baru untuk sisi pasokan daya komputasi AI, mendorong AI maju ke arah yang baru.

3.1.2 Model algoritma terdesentralisasi

Sama seperti yang disebutkan dalam bab kedua, tiga elemen inti AI adalah daya komputasi, algoritma, dan data. Karena daya komputasi dapat membentuk jaringan pasokan melalui desentralisasi, dapatkah algoritma juga mengikuti pendekatan serupa dan membentuk jaringan pasokan untuk model algoritma?

Sebelum menganalisis proyek di bidang ini, pertama-tama mari kita pahami pentingnya model algoritma terdesentralisasi. Banyak orang mungkin bertanya-tanya, karena kita sudah memiliki OpenAI, mengapa kita membutuhkan jaringan algoritma yang terdesentralisasi?

Pada dasarnya, jaringan algoritma terdesentralisasi adalah pasar layanan algoritma AI terdesentralisasi yang menghubungkan banyak model AI yang berbeda. Setiap model AI memiliki keahlian dan keterampilannya sendiri. Ketika pengguna mengajukan pertanyaan, pasar memilih model AI yang paling cocok untuk menjawab pertanyaan. Chat-GPT, yang dikembangkan oleh OpenAI, adalah salah satu model AI yang dapat memahami dan menghasilkan teks yang mirip dengan manusia.

Secara sederhana, ChatGPT seperti siswa yang sangat cakap membantu memecahkan berbagai jenis masalah, sementara jaringan algoritma terdesentralisasi seperti sekolah dengan banyak siswa membantu memecahkan masalah. Meskipun siswa saat ini (ChatGPT) sangat mampu, dalam jangka long, ada potensi besar bagi sekolah yang dapat merekrut siswa dari seluruh dunia.

Saat ini, di bidang model algoritma desentralisasi, ada juga beberapa proyek yang bereksperimen dan mengeksplorasi. Selanjutnya, kami akan menggunakan proyek perwakilan Bittensor sebagai studi kasus untuk membantu memahami perkembangan bidang niche ini.

Di Bittensor, sisi penawaran model algoritma (atau penambang) menyumbangkan model pembelajaran mesin mereka ke jaringan. Model ini dapat menganalisis data dan memberikan wawasan. Penyedia model menerima token cryptocurrency, yang dikenal sebagai TAO, sebagai hadiah atas kontribusi mereka.

Untuk memastikan kualitas jawaban, Bittensor menggunakan mekanisme konsensus unik untuk mencapai konsensus tentang jawaban terbaik. Ketika sebuah pertanyaan diajukan, beberapa penambang model memberikan jawaban. Kemudian, validator di jaringan mulai bekerja untuk menentukan jawaban terbaik, yang kemudian dikirim kembali ke pengguna.

Token yang TAO dalam ekosistem Bittensor memainkan dua peran utama selama proses berlangsung. Di satu sisi, ini berfungsi sebagai insentif bagi penambang untuk menyumbangkan model algoritma ke jaringan. Di sisi lain, pengguna perlu menghabiskan token untuk mengajukan pertanyaan dan menyelesaikan tugas jaringan.

Karena Bittensor terdesentralisasi, siapa pun yang memiliki akses internet dapat bergabung dengan jaringan, baik sebagai pengguna yang mengajukan pertanyaan atau sebagai penambang yang memberikan jawaban. Ini memungkinkan lebih banyak orang untuk memanfaatkan kekuatan kecerdasan buatan.

Singkatnya, jaringan model algoritma terdesentralisasi seperti Bittensor memiliki potensi untuk menciptakan lanskap yang lebih terbuka dan transparan. Dalam ekosistem ini, model AI dapat dilatih, dibagikan, dan digunakan dengan cara yang aman dan terdesentralisasi. Selain itu, jaringan lain seperti BasedAI sedang mencoba upaya serupa, dengan aspek menarik menggunakan Zero-Knowledge Proofs (ZK) untuk melindungi privasi data interaktif model pengguna, yang akan dibahas lebih lanjut di subbagian keempat.

Ketika platform model algoritma terdesentralisasi berkembang, mereka akan memungkinkan perusahaan kecil untuk bersaing dengan organisasi besar dalam menggunakan alat AI mutakhir, yang berpotensi memiliki dampak signifikan di berbagai industri.

3.1.3 Pengumpulan Data Terdesentralisasi

Untuk pelatihan model AI, pasokan data yang besar sangat diperlukan. Namun, sebagian besar perusahaan Web2 saat ini masih memonopoli data pengguna. Platform seperti X, Reddit, TikTok, Snapchat, Instagram, dan YouTube melarang pengumpulan data untuk pelatihan AI, yang menimbulkan hambatan signifikan bagi pengembangan industri AI.

Di sisi lain, beberapa platform Web2 menjual data pengguna ke perusahaan AI tanpa berbagi keuntungan dengan pengguna. Misalnya, Reddit mencapai kesepakatan $ 60 juta dengan Google, memungkinkan Google untuk melatih model AI menggunakan pos-posnya. Hal ini mengakibatkan hak pengumpulan data dimonopoli oleh perusahaan modal besar dan data besar, mendorong industri menuju arah padat modal.

Menanggapi situasi ini, beberapa proyek memanfaatkan Web3 dan insentif token untuk mencapai pengumpulan data yang terdesentralisasi. Ambil PublicAI sebagai contoh: pengguna dapat berpartisipasi dalam dua peran:

  • Salah satu kategorinya adalah penyedia data AI. Pengguna dapat menemukan konten berharga di X, tag @PublicAI akun resmi dengan wawasan mereka, dan menggunakan tagar #AI atau #Web3 untuk mengkategorikan konten, sehingga mengirimkannya ke pusat data PublicAI untuk dikumpulkan.
  • Kategori lainnya adalah data validator. Pengguna dapat masuk ke pusat data PublicAI dan memberikan suara pada data yang paling berharga untuk pelatihan AI.

Sebagai hadiah, pengguna dapat memperoleh token melalui kontribusi ini, membina hubungan win-win antara kontributor data dan industri AI.

Selain proyek seperti PublicAI, yang secara khusus mengumpulkan data untuk pelatihan AI, ada banyak proyek lain yang menggunakan insentif token untuk pengumpulan data terdesentralisasi. Misalnya, Ocean mengumpulkan data pengguna melalui data tokenisasi untuk melayani AI, Hivemapper menggunakan kamera mobil pengguna untuk mengumpulkan data peta, Dimo mengumpulkan data mobil, dan WiHi mengumpulkan data cuaca. Proyek-proyek ini, melalui pengumpulan data terdesentralisasi, juga berfungsi sebagai sumber data potensial untuk pelatihan AI. Dengan demikian, dalam arti luas, mereka dapat dimasukkan dalam paradigma Web3 yang membantu AI.

3.1.4 ZK Melindungi Privasi Pengguna di AI

Teknologi Blockchain menawarkan manfaat desentralisasi dan juga memperkenalkan fitur penting: bukti tanpa pengetahuan. Teknologi tanpa pengetahuan memungkinkan verifikasi informasi sambil menjaga privasi.

Dalam pembelajaran mesin tradisional, data biasanya perlu disimpan dan diproses secara terpusat, yang dapat menyebabkan risiko privasi. Metode untuk melindungi privasi data, seperti enkripsi atau anonimisasi data, dapat membatasi akurasi dan performa model pembelajaran mesin.

Teknologi zero-knowledge proof membantu mengatasi dilema ini dengan mengatasi konflik antara perlindungan privasi dan berbagi data. Zero-Knowledge Machine Learning (ZKML) menggunakan teknologi zero-knowledge proof untuk memungkinkan pelatihan dan inferensi model machine learning tanpa mengekspos data asli. Bukti tanpa pengetahuan memastikan bahwa fitur data dan hasil model dapat diverifikasi sebagai benar tanpa mengungkapkan konten data aktual.

Tujuan utama ZKML adalah menyeimbangkan perlindungan privasi dan berbagi data. Ini dapat diterapkan dalam berbagai skenario seperti analisis data perawatan kesehatan, analisis data keuangan, dan kolaborasi lintas organisasi. Dengan menggunakan ZKML, individu dapat melindungi privasi data sensitif mereka sambil berbagi data dengan orang lain untuk mendapatkan wawasan yang lebih luas dan peluang kolaboratif tanpa risiko pelanggaran privasi data. Bidang ini masih dalam tahap awal, dengan sebagian besar proyek masih dalam eksplorasi. Misalnya, BasedAI mengusulkan pendekatan terdesentralisasi dengan mengintegrasikan Fully Enkripsi Homomorphic (FHE) dengan Large Language Model (LLM) secara mulus untuk menjaga kerahasiaan data. Zero-Knowledge Large Language Models (ZK-LLMs) menanamkan privasi ke dalam infrastruktur jaringan terdistribusi mereka, memastikan bahwa data pengguna tetap rahasia selama operasi jaringan.

Berikut penjelasan singkat mengenai Fully Enkripsi Homomorphic (FHE). FHE adalah teknik enkripsi yang memungkinkan perhitungan dilakukan pada data terenkripsi tanpa perlu mendekripsinya. Ini berarti bahwa berbagai operasi matematika (seperti penambahan, perkalian, dll.) yang dilakukan pada data terenkripsi FHE menghasilkan hasil yang sama seolah-olah dilakukan pada data asli yang tidak terenkripsi, sehingga melindungi privasi data pengguna.

Selain metode yang disebutkan di atas, Web3 juga mendukung AI melalui proyek-proyek seperti Cortex, yang memungkinkan on-chain eksekusi program AI. Menjalankan program pembelajaran mesin pada blockchain tradisional menghadapi tantangan karena mesin virtual sangat tidak efisien dalam menjalankan model pembelajaran mesin yang tidak sepele. Sebagian besar percaya menjalankan AI di blockchain tidak mungkin. Namun, Cortex Virtual Machine (CVM) menggunakan GPU untuk menjalankan program AI on-chain dan kompatibel dengan Ethereum Virtual Machine (EVM). Dengan kata lain, rantai Cortex dapat mengeksekusi semua DApps Ethereum dan mengintegrasikan pembelajaran mesin AI ke dalam DApps ini. Hal ini memungkinkan model pembelajaran mesin berjalan dengan cara yang terdesentralisasi, tidak berubah, dan transparan, dengan konsensus jaringan yang memverifikasi setiap langkah inferensi AI.

3.2 AI Membantu Web3

Dalam tabrakan antara AI dan Web3, selain bantuan Web3 untuk AI, bantuan AI untuk industri Web3 juga patut diperhatikan. Kontribusi inti dari kecerdasan buatan adalah peningkatan produktivitas, sehingga ada banyak upaya dalam smart contract audit AI, analisis dan prediksi data, layanan yang dipersonalisasi, perlindungan keamanan dan privasi, dll.

3.2.1 Analisis dan Prediksi Data

Banyak proyek Web3 mengintegrasikan layanan AI yang ada (seperti ChatGPT) atau mengembangkannya sendiri untuk menyediakan analisis data dan layanan prediksi bagi pengguna Web3. Layanan ini mencakup berbagai macam, termasuk algoritma AI untuk strategi investasi, alat analisis on-chain, dan perkiraan harga dan pasar.

Misalnya, Pond menggunakan algoritma grafik AI untuk memprediksi token alfa masa depan yang berharga, menawarkan layanan konsultasi investasi kepada pengguna dan institusi. BullBear AI melatih data historis pengguna, riwayat harga, dan tren pasar untuk memberikan informasi akurat yang mendukung prediksi tren harga, membantu pengguna mencapai keuntungan.

Platform seperti Numerai menyelenggarakan kompetisi investasi di mana peserta menggunakan AI dan model bahasa besar untuk memprediksi pasar saham. Mereka melatih model pada data berkualitas tinggi yang disediakan oleh platform dan mengirimkan prediksi harian. Numerai mengevaluasi prediksi ini selama bulan berikutnya, dan peserta dapat stake NMR token pada model mereka untuk mendapatkan hadiah berdasarkan kinerja.

Arkham, platform analisis data blockchain, juga mengintegrasikan AI ke dalam layanannya. Arkham menghubungkan alamat blockchain ke entitas seperti bursa, dana, dan paus, menampilkan data dan analisis utama untuk memberi pengguna keunggulan pengambilan keputusan. Arkham Ultra mencocokkan alamat ke entitas dunia nyata menggunakan algoritma yang dikembangkan selama tiga tahun dengan dukungan dari pendiri Palantir dan OpenAI.

3.2.2 Layanan yang Dipersonalisasi

Aplikasi AI dalam pencarian dan rekomendasi lazim dalam proyek Web2, melayani kebutuhan pribadi pengguna. Proyek Web3 juga mengintegrasikan AI untuk meningkatkan pengalaman pengguna.

Misalnya, platform analisis data terkenal Dune baru-baru ini memperkenalkan alat Wand, yang menggunakan model bahasa besar untuk menulis kueri SQL. Dengan Wand Create, pengguna dapat menghasilkan kueri SQL dari pertanyaan bahasa alami, sehingga memudahkan mereka yang tidak terbiasa dengan SQL untuk mencari data.

Platform konten seperti Followin mengintegrasikan ChatGPT untuk merangkum sudut pandang dan pembaruan di sektor tertentu. Ensiklopedia Web3 IQ.wiki bertujuan untuk menjadi sumber utama pengetahuan objektif dan berkualitas tinggi tentang teknologi blockchain dan cryptocurrency. Ini mengintegrasikan GPT-4 untuk meringkas artikel wiki, membuat informasi blockchain lebih mudah diakses di seluruh dunia. Mesin pencari berbasis LLM Kaito bertujuan untuk merevolusi pencarian informasi Web3.

Dalam domain kreatif, proyek seperti NFPrompt mengurangi biaya pembuatan konten. NFPrompt memungkinkan pengguna untuk menghasilkan NFT lebih mudah dengan AI, menyediakan berbagai layanan kreatif yang dipersonalisasi.

3.2.3 Kontrak Pintar Audit AI

Mengaudit smart contract adalah tugas penting di Web3, dan AI dapat meningkatkan efisiensi dan akurasi dalam mengidentifikasi kerentanan kode.

Vitalik Buterin telah mencatat bahwa salah satu tantangan terbesar dalam ruang cryptocurrency adalah kesalahan dalam kode kami. AI memegang janji untuk secara signifikan menyederhanakan penggunaan alat verifikasi formal untuk membuktikan kebenaran kode. Mencapai hal ini dapat mengarah pada SEK EVM (Ethereum Virtual Machine) yang hampir bebas dari kesalahan, meningkatkan keamanan ruang karena lebih sedikit kesalahan meningkatkan keselamatan secara keseluruhan.

Misalnya, proyek 0x0.ai menawarkan auditor kontrak pintar bertenaga AI. Alat ini menggunakan algoritme canggih untuk menganalisis smart contract dan mengidentifikasi potensi kerentanan atau masalah yang dapat menyebabkan penipuan atau risiko keamanan lainnya. Auditor menggunakan pembelajaran mesin untuk mendeteksi pola dan anomali dalam kode, menandai potensi masalah untuk ditinjau lebih lanjut.

Ada kasus asli lainnya di mana AI membantu Web3. PAAL membantu pengguna membuat bot AI yang dipersonalisasi yang dapat digunakan di Telegram dan Discord untuk melayani pengguna Web3. Agregator DEX multi-rantai berbasis AI Hera menggunakan AI untuk memberikan jalur perdagangan terbaik antara pasangan token apa pun di berbagai token. Secara keseluruhan, kontribusi AI untuk Web3 terutama pada tingkat alat, meningkatkan berbagai proses dan fungsionalitas.

Keterbatasan Dan Tantangan Saat Ini Dari Proyek AI + Web3

4.1 Hambatan Realistis Dalam Daya Komputasi Terdesentralisasi

Saat ini, banyak proyek Web3 yang membantu AI berfokus pada daya komputasi terdesentralisasi. Menggunakan insentif token untuk mempromosikan pengguna global untuk menjadi bagian dari sisi catu daya komputasi adalah inovasi yang sangat menarik. Namun, di sisi lain, ada beberapa masalah realistis yang perlu ditangani:

Dibandingkan dengan penyedia layanan daya komputasi terpusat, produk daya komputasi terdesentralisasi biasanya bergantung pada node dan peserta yang didistribusikan secara global untuk menyediakan sumber daya komputasi. Karena kemungkinan latensi dan ketidakstabilan dalam koneksi jaringan antara node ini, kinerja, dan stabilitas mungkin lebih buruk daripada produk daya komputasi terpusat.

Selain itu, ketersediaan produk daya komputasi terdesentralisasi dipengaruhi oleh tingkat sesuai antara penawaran dan permintaan. Jika tidak ada cukup pemasok atau jika permintaan terlalu tinggi, itu dapat menyebabkan kekurangan sumber daya atau ketidakmampuan untuk memenuhi kebutuhan pengguna.

Akhirnya, dibandingkan dengan produk daya komputasi terpusat, produk daya komputasi terdesentralisasi biasanya melibatkan lebih banyak detail teknis dan kompleksitas. Pengguna mungkin perlu memahami dan menangani aspek jaringan terdistribusi, smart contract, dan pembayaran cryptocurrency, yang meningkatkan biaya pemahaman dan penggunaan pengguna.

Setelah diskusi mendalam dengan banyak tim proyek daya komputasi terdesentralisasi, ditemukan bahwa daya komputasi terdesentralisasi saat ini sebagian besar masih terbatas pada inferensi AI daripada pelatihan AI.

Selanjutnya, saya akan menggunakan empat pertanyaan untuk membantu semua orang memahami alasan di balik ini:

  1. Mengapa sebagian besar proyek daya komputasi terdesentralisasi memilih untuk melakukan inferensi AI daripada pelatihan AI?

  2. Apa yang membuat NVIDIA begitu kuat? Apa alasan mengapa pelatihan daya komputasi terdesentralisasi sulit?

  3. Apa yang akan menjadi permainan akhir untuk daya komputasi terdesentralisasi (Render, Akash, io.net, dll.)?

  4. Apa yang akan menjadi permainan akhir untuk algoritma terdesentralisasi (Bittensor)?

Mari kita selidiki detailnya selangkah demi selangkah:

1) Mengamati bidang ini, sebagian besar proyek daya komputasi terdesentralisasi memilih untuk fokus pada inferensi AI daripada pelatihan, terutama karena persyaratan yang berbeda untuk daya komputasi dan bandwidth.

Untuk membantu semua orang lebih memahami, mari kita bandingkan AI dengan siswa:

  • Pelatihan AI: Jika kita membandingkan kecerdasan buatan dengan seorang siswa, pelatihan mirip dengan memberikan AI dengan sejumlah besar pengetahuan dan contoh, mirip dengan apa yang sering kita sebut sebagai data. AI belajar dari contoh-contoh ini. Karena belajar melibatkan pemahaman dan menghafal sejumlah besar informasi, proses ini membutuhkan daya komputasi dan waktu yang substansial.

  • Inferensi AI: Inferensi dapat dipahami sebagai menggunakan pengetahuan yang diperoleh untuk memecahkan masalah atau mengikuti ujian. Selama inferensi, AI memanfaatkan pengetahuan yang dipelajari untuk menjawab pertanyaan daripada memperoleh informasi baru, maka persyaratan komputasi relatif lebih rendah.

Sangat mudah untuk melihat bahwa perbedaan mendasar dalam kesulitan terletak pada kenyataan bahwa pelatihan AI model besar membutuhkan volume data yang sangat besar dan bandwidth yang sangat tinggi untuk transmisi data, sehingga sangat menantang untuk dicapai dengan daya komputasi terdesentralisasi. Sebaliknya, inferensi membutuhkan lebih sedikit data dan bandwidth, sehingga lebih layak.

Untuk model besar, stabilitas sangat penting. Jika pelatihan terganggu, itu harus dimulai kembali, mengakibatkan biaya hangus yang tinggi. Di sisi lain, tuntutan dengan persyaratan daya komputasi yang relatif lebih rendah, seperti inferensi AI atau skenario spesifik tertentu yang melibatkan pelatihan model menengah hingga kecil, dapat dicapai. Dalam jaringan daya komputasi terdesentralisasi, beberapa penyedia layanan node yang relatif besar dapat memenuhi tuntutan daya komputasi yang relatif lebih tinggi ini.

2) Jadi, di mana hambatan dalam data dan bandwidth? Mengapa pelatihan terdesentralisasi sulit dicapai?

Ini melibatkan dua elemen kunci dari pelatihan model besar: daya komputasi kartu tunggal dan paralelisme multi-kartu.

Daya komputasi kartu tunggal: Saat ini, semua pusat yang membutuhkan pelatihan model besar, yang disebut sebagai pusat superkomputer, dapat dibandingkan dengan tubuh manusia, di mana unit yang mendasarinya, GPU, seperti sel. Jika daya komputasi sel tunggal (GPU) kuat, maka daya komputasi keseluruhan (kuantitas × sel tunggal) juga bisa sangat kuat.

Paralelisme multi-kartu: Melatih model besar sering kali melibatkan ratusan miliar gigabyte. Untuk pusat superkomputer yang melatih model besar, setidaknya diperlukan puluhan ribu GPU A100. Ini mengharuskan mobilisasi ribuan kartu untuk pelatihan. Namun, melatih model besar bukanlah proses serial yang sederhana; itu tidak hanya berlatih pada kartu A100 pertama dan kemudian pindah ke yang kedua. Sebaliknya, bagian yang berbeda dari model dilatih pada GPU yang berbeda secara bersamaan, dan bagian pelatihan A mungkin memerlukan hasil dari bagian B, yang melibatkan pemrosesan paralel.

Dominasi NVIDIA dan meningkatnya nilai pasar, sementara AMD dan perusahaan domestik seperti Huawei dan Horizon merasa sulit untuk mengejar ketinggalan, berasal dari dua aspek: lingkungan perangkat lunak CUDA dan komunikasi multi-kartu NVLink.

Lingkungan Perangkat Lunak CUDA: Apakah ada ekosistem perangkat lunak yang sesuai dengan perangkat keras sangat penting, seperti sistem CUDA NVIDIA. Membangun sistem baru itu menantang, mirip dengan menciptakan bahasa baru dengan biaya penggantian yang tinggi.

NVLink Multi-card Communication: Pada dasarnya, komunikasi multi-card melibatkan input dan output informasi. Cara memparalelkan dan mengirimkan sangat penting. Kehadiran NVLink berarti kartu NVIDIA dan AMD tidak dapat berkomunikasi; selain itu, NVLink membatasi jarak fisik antara GPU, mengharuskan mereka berada di pusat superkomputer yang sama. Hal ini menyulitkan daya komputasi terdesentralisasi yang tersebar di seluruh dunia untuk membentuk cluster komputasi kohesif untuk pelatihan model besar.

Poin pertama menjelaskan mengapa AMD dan perusahaan domestik seperti Huawei dan Horizon berjuang untuk mengejar ketinggalan; poin kedua menjelaskan mengapa pelatihan terdesentralisasi sulit dicapai.

3) Apa yang akan menjadi permainan akhir untuk daya komputasi terdesentralisasi? Daya komputasi terdesentralisasi saat ini berjuang dengan pelatihan model besar karena stabilitas adalah yang terpenting. Interupsi memerlukan pelatihan ulang, yang mengakibatkan biaya hangus yang tinggi. Persyaratan tinggi untuk paralelisme multi-kartu dibatasi oleh kendala bandwidth fisik. NVLink NVIDIA mencapai komunikasi multi-kartu, tetapi dalam pusat superkomputer, NVLink membatasi jarak fisik antara GPU. Dengan demikian, daya komputasi yang tersebar tidak dapat membentuk cluster komputasi untuk pelatihan model besar.

Namun, untuk permintaan dengan persyaratan daya komputasi yang relatif lebih rendah, seperti inferensi AI atau skenario spesifik tertentu yang melibatkan pelatihan model menengah hingga kecil, jaringan daya komputasi terdesentralisasi dengan beberapa penyedia layanan node yang relatif besar memiliki potensi. Selain itu, skenario seperti komputasi tepi untuk rendering relatif lebih mudah diterapkan.

4) Apa yang akan menjadi permainan akhir untuk model algoritma terdesentralisasi? Masa depan model algoritma terdesentralisasi tergantung pada arah akhir AI. Saya percaya masa depan AI mungkin menampilkan 1-2 raksasa model sumber tertutup (seperti ChatGPT) di samping sejumlah besar model. Dalam konteks ini, produk lapisan aplikasi tidak perlu mengikat ke satu model besar melainkan bekerja sama dengan beberapa model besar. Dalam skenario ini, model Bittensor menunjukkan potensi yang signifikan.

Dalam proyek saat ini yang menggabungkan Web3 dan AI, terutama di mana AI membantu inisiatif Web3, sebagian besar proyek hanya menggunakan AI secara dangkal tanpa menunjukkan integrasi mendalam antara AI dan cryptocurrency. Aplikasi dangkal ini terbukti dalam dua aspek berikut:

  • Pertama, apakah menggunakan AI untuk analisis dan prediksi data, dalam skenario rekomendasi dan pencarian, atau untuk audit kode, ada sedikit perbedaan dibandingkan dengan integrasi AI dalam proyek Web2. Proyek-proyek ini hanya memanfaatkan AI untuk meningkatkan efisiensi dan analisis tanpa menampilkan perpaduan asli AI dan cryptocurrency atau menghadirkan solusi inovatif.
  • Kedua, banyak tim Web3 menggabungkan AI lebih sebagai gimmick pemasaran, murni memanfaatkan konsep AI. Mereka menerapkan teknologi AI di area yang sangat terbatas dan kemudian mulai mempromosikan tren AI, menciptakan fasad integrasi yang erat dengan AI. Namun, proyek-proyek ini tidak memiliki inovasi substansial.

Meskipun proyek Web3 dan AI saat ini memiliki keterbatasan ini, kita harus menyadari bahwa ini hanyalah tahap awal pengembangan. Di masa depan, kita dapat mengharapkan penelitian dan inovasi yang lebih mendalam untuk mencapai integrasi yang lebih erat antara AI dan cryptocurrency, menciptakan solusi yang lebih asli dan bermakna di berbagai bidang seperti keuangan, organisasi otonom terdesentralisasi (DAO), pasar prediksi, dan NFT.

4.3 Token Ekonomi Berfungsi sebagai Penyangga untuk Narasi Proyek AI

Seperti disebutkan pada awalnya, proyek AI menghadapi tantangan dalam model bisnis mereka, terutama karena semakin banyak model besar secara bertahap menjadi open source. Banyak proyek AI + Web3, seringkali proyek AI murni yang berjuang untuk berkembang dan mengamankan funding di ruang Web2, memilih untuk melapisi narasi dan ekonomi token dari Web3 untuk mendorong partisipasi pengguna.

Namun, pertanyaan krusialnya adalah apakah integrasi ekonomi token benar-benar membantu proyek AI memenuhi kebutuhan dunia nyata atau hanya berfungsi sebagai proposisi nilai naratif atau jangka short. Saat ini, sebagian besar proyek AI + Web3 masih jauh dari mencapai tahap praktis. Diharapkan bahwa tim yang lebih membumi dan bijaksana tidak hanya akan menggunakan token sebagai sarana untuk hype proyek AI tetapi juga benar-benar memenuhi kasus penggunaan praktis.

Ringkasan

Saat ini, banyak kasus dan aplikasi telah muncul dalam proyek AI + Web3. Pertama, teknologi AI dapat memberikan kasus penggunaan yang lebih efisien dan cerdas untuk Web3. Melalui kemampuan AI dalam analisis dan prediksi data, pengguna di Web3 dapat memiliki alat yang lebih baik untuk keputusan investasi dan skenario lainnya. Selain itu, AI dapat mengaudit kode kontrak pintar, mengoptimalkan eksekusi kontrak, dan meningkatkan kinerja dan efisiensi blockchain. Selain itu, teknologi AI dapat menawarkan rekomendasi yang lebih tepat dan cerdas serta layanan yang dipersonalisasi untuk aplikasi terdesentralisasi, sehingga meningkatkan pengalaman pengguna.

Pada saat yang sama, sifat Web3 yang terdesentralisasi dan dapat diprogram juga menghadirkan peluang baru untuk teknologi AI. Melalui insentif token, proyek daya komputasi terdesentralisasi memberikan solusi baru untuk dilema daya komputasi AI yang tidak mencukupi. Mekanisme penyimpanan smart contract dan terdistribusi Web3 juga menawarkan ruang dan sumber daya yang lebih luas untuk berbagi dan pelatihan algoritma AI. Otonomi pengguna dan mekanisme kepercayaan Web3 juga membawa kemungkinan baru untuk pengembangan AI, memungkinkan pengguna untuk secara mandiri memilih untuk berpartisipasi dalam berbagi data dan pelatihan, sehingga meningkatkan keragaman dan kualitas data dan lebih meningkatkan kinerja dan akurasi model AI.

Meskipun proyek cross-over AI + Web3 saat ini masih dalam tahap awal dan menghadapi banyak tantangan, mereka juga membawa banyak keuntungan. Misalnya, produk daya komputasi terdesentralisasi memiliki beberapa kelemahan, tetapi mereka mengurangi ketergantungan pada institusi terpusat, memberikan transparansi dan auditabilitas yang lebih besar, dan memungkinkan partisipasi dan inovasi yang lebih luas. Untuk kasus penggunaan khusus dan kebutuhan pengguna, produk daya komputasi terdesentralisasi mungkin merupakan pilihan yang berharga. Hal yang sama berlaku untuk pengumpulan data; Proyek pengumpulan data terdesentralisasi menawarkan keuntungan seperti mengurangi ketergantungan pada sumber data tunggal, menyediakan cakupan data yang lebih luas, dan mempromosikan keragaman dan inklusivitas data. Dalam praktiknya, perlu untuk menyeimbangkan kelebihan dan kekurangan ini dan mengambil langkah-langkah manajemen dan teknis yang tepat untuk mengatasi tantangan, memastikan bahwa proyek pengumpulan data yang terdesentralisasi memiliki dampak positif pada pengembangan AI.

Secara keseluruhan, integrasi AI + Web3 menawarkan kemungkinan tak terbatas untuk inovasi teknologi masa depan dan pengembangan ekonomi. Dengan menggabungkan analisis cerdas dan kemampuan pengambilan keputusan AI dengan sifat Web3 yang terdesentralisasi dan otonom pengguna, diyakini bahwa kita dapat membangun sistem ekonomi dan bahkan sosial yang lebih cerdas, lebih terbuka, dan lebih adil.

Penafian:

  1. Artikel ini dicetak ulang dari [Ryze Labs]. Semua hak cipta adalah milik penulis asli [Fred]. Jika ada keberatan dengan cetak ulang ini, silakan hubungi tim Gate Learn, dan mereka akan segera menanganinya.
  2. Penafian Kewajiban: Pandangan dan pendapat yang diungkapkan dalam artikel ini semata-mata milik penulis dan bukan merupakan saran investasi.
  3. Penerjemahan artikel ke bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel yang diterjemahkan dilarang.
Mulai Sekarang
Daftar dan dapatkan Voucher
$100
!