ai adalah salah satu kategori paling populer dan paling menjanjikan di pasar kripto baru-baru ini.
💡pelatihan ai terdesentralisasi
💡 gpu depins
💡model AI tanpa sensor
apakah ini terobosan atau hanya kata-kata hampa? 🤔
di hack vc, kami memotong kebisingan untuk memisahkan janji dari kenyataan.
postingan ini membahas ide-ide teratas Kripto x AI. Mari kita bahas tantangan dan peluang yang sebenarnya.
ide dengan janji awal, tetapi menghadapi tantangan dalam kenyataannya.
Pertama, mari kita mulai dengan “janji web3 ai”—ide-ide yang cukup dibesar-besarkan, tetapi realitasnya mungkin tidak seindah itu.
masalah dari pelatihan ai on-chain adalah bahwa pelatihan memerlukan komunikasi dan koordinasi berkecepatan tinggi di antara gpus, karena jaringan saraf memerlukan backpropagation saat dilatih. nvidia memiliki dua inovasi untuk ini (NVLinkdanInfiniBand). teknologi-teknologi ini efektif membuat komunikasi gpu menjadi sangat cepat, tetapi teknologi ini hanya berlaku di dalam klaster gpu yang terletak di dalam satu pusat data (kecepatan 50+ gigabit)
jika Anda memperkenalkan jaringan terdesentralisasi ke dalam gambar, tiba-tiba Anda jauh lebih lambat karena penambahan laten jaringan dan bandwidth. itu bukanlah pilihan yang baik untuk kasus penggunaan pelatihan kecerdasan buatan dibandingkan dengan throughput yang Anda dapatkan dari konektivitas antarcepat nvidia di dalam pusat data.
perhatikan bahwa ada beberapa inovasi di sini yang mungkin memberikan sedikit harapan untuk masa depan:
Komponen data dari pelatihan juga menantang. Setiap proses pelatihan AI melibatkan bekerja dengan jumlah data yang besar. Biasanya, model dilatih pada sistem penyimpanan data yang terpusat dan aman dengan skalabilitas dan performa yang tinggi. Ini memerlukan transfer dan pengolahan terabyte data, dan ini bukan siklus satu kali. Data biasanya berisik dan mengandung kesalahan, sehingga harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model. Tahap ini melibatkan tugas-tugas repetitif normalisasi, penyaringan, dan penanganan nilai yang hilang. Semua ini menimbulkan tantangan serius dalam lingkungan terdesentralisasi.
komponen data pelatihan juga bersifat iteratif, yang tidak cocok untuk web3. OpenAI membutuhkan ribuan iterasi untuk mencapai hasilnya. Skenario tugas paling dasar untuk seorang spesialis ilmu data dalam tim AI meliputi menentukan tujuan, mempersiapkan data, menganalisis dan mengorganisir data untuk mengekstrak wawasan penting dan membuatnya cocok untuk pemodelan. Kemudian, model pembelajaran mesin dikembangkan untuk memecahkan masalah yang ditentukan, dan kinerjanya divalidasi menggunakan dataset tes. Proses ini bersifat iteratif: jika model saat ini tidak berperforma seperti yang diharapkan, spesialis kembali ke tahap pengumpulan data atau pelatihan model untuk meningkatkan hasilnya. Sekarang, bayangkan proses ini dalam pengaturan terdesentralisasi, di mana kerangka kerja dan alat terbaik yang ada tidak tersedia dengan mudah di web3.
Masalah lain dengan melatih model AI on-chain adalah pasar yang jauh lebih tidak menarik dibandingkan dengan inferensi. Saat ini, terdapat jumlah besar komputasi GPU yang digunakan untuk pelatihan AI LLM. Namun dalam jangka panjang, inferensi akan menjadi kasus penggunaan GPU yang lebih umum (secara jauh) dibandingkan dengan pelatihan AI LLM. Pertimbangkan: berapa banyak AI LLM yang perlu dilatih agar dunia bahagia, dibandingkan dengan jumlah pelanggan yang akan menggunakan model-model tersebut?
Salah satu solusi yang membuat kemajuan di semua front adalah 0g.ai (didukung oleh hack vc) yang menyediakan penyimpanan data on-chain dan infrastruktur ketersediaan data. Arsitektur mereka yang sangat cepat dan kemampuan untuk menyimpan jumlah data yang besar on-chain memungkinkan pelatihan model AI on-chain yang cepat dan iteratif dari jenis apa pun.
Salah satu tantangan dengan kripto x ai adalah memverifikasi akurasi inferensi ai, karena Anda tidak dapat sepenuhnya percaya pada satu pihak terpusat untuk melakukan inferensi tersebut karena potensi keberadaan node yang berperilaku buruk. Tantangan ini tidak ada pada ai web2 karena tidak ada sistem konsensus terdesentralisasi.
satu gagasan yang diusulkan untuk memecahkan masalah ini adalah komputasi berlebihan, di mana beberapa node mengulangi operasi inferensi ai yang sama, sehingga Anda dapat beroperasi secara tidak terpercaya dan tidak memiliki titik kegagalan tunggal.
masalah dengan pendekatan ini adalah kita tinggal di dunia dengan kekurangan drastis dari chip ai high-end. Ada periode tunggu multi-tahun untuk chip nvidia high-end, dan itu mengakibatkan kenaikan harga. Jika Anda memerlukan bahwa inferensi ai Anda dieksekusi ulang beberapa kali pada beberapa node tambahan, sekarang Anda mengalikan biaya mahal tersebut. Ini akan menjadi tidak dapat diterima bagi banyak proyek.
Ada saran bahwa web3 harus memiliki kasus penggunaan kecerdasan buatan yang unik dan khusus untuk pelanggan web3. Ini bisa (misalnya) protokol web3 yang menggunakan kecerdasan buatan untuk melakukan skor risiko dari pool defi, dompet web3 yang menyarankan protokol baru untuk Anda berdasarkan riwayat dompet Anda, atau game web3 yang menggunakan kecerdasan buatan untuk mengendalikan karakter non-pemain (NPC).
untuk saat ini, ini (dalam jangka pendek) adalah pasar yang baru berkembang di mana kasus penggunaan masih terus ditemukan. beberapa tantangan termasuk:
jangka panjang, kami sangat bullish pada kasus penggunaan ai web3-native, terutama ketika agen ai menjadi lebih umum. kami membayangkan masa depan di mana setiap pengguna web3 memiliki sejumlah agen ai yang membantu mereka. pemimpin kategori awal untuk ini adalah Theoriq(didukung oleh hack vc), yang memungkinkan agen ai on-chain yang dapat digabungkan dan otonom.
ada sejumlah jaringan komputasi ai terdesentralisasi yang bergantung pada gpu berbasis konsumen daripada pusat data. gpu konsumen berguna untuk tugas inferensi ai berkecepatan rendah atau untuk kasus pengguna konsumen di mana latensi, throughput, dan keandalan bersifat fleksibel. tetapi untuk kasus penggunaan enterprise yang serius (yang merupakan mayoritas pasar yang penting), pelanggan menginginkan jaringan keandalan yang lebih tinggi dibandingkan mesin rumah orang, dan seringkali memerlukan gpu yang lebih canggih jika mereka memiliki tugas inferensi yang lebih kompleks. pusat data lebih cocok untuk kasus penggunaan pelanggan yang lebih berharga ini.
Perhatikan bahwa kami menganggap GPU kelas konsumen bermanfaat untuk tujuan demonstrasi atau bagi individu dan startup yang dapat mentoleransi tingkat kehandalan yang lebih rendah. Tetapi pelanggan tersebut pada dasarnya kurang berharga, sehingga kami percaya bahwa depins yang melayani perusahaan web2 akan lebih berharga dalam jangka panjang. Oleh karena itu, proyek depin GPU terkenal umumnya telah berkembang dari awal yang sebagian besar menggunakan perangkat keras kelas konsumen menjadi memiliki ketersediaan a100/h100 dan tingkat klaster.
realitas—kasus penggunaan kripto x kecerdasan buatan yang praktis dan realistis
Sekarang, mari kita bahas kasus penggunaan yang memberikan "manfaat nyata." ini adalah "kemenangan" sebenarnya di mana kripto x ai dapat menambahkan nilai yang signifikan.
mckinseyperkiraan bahwa kecerdasan buatan generatif dapat menambahkan setara dengan $2,6 triliun hingga $4,4 triliun setiap tahun di seluruh 63 kasus penggunaan yang mereka analisis—sebagai perbandingan, PDB keseluruhan inggris pada tahun 2021 adalah $3,1 triliun. ini akan meningkatkan dampak dari semua kecerdasan buatan sebesar 15% hingga 40%. perkiraan ini akan sekitar dua kali lipat jika kita termasuk dampak dari menyematkan kecerdasan buatan generatif ke dalam perangkat lunak yang saat ini digunakan untuk tugas-tugas lain di luar kasus penggunaan tersebut.
jika Anda melakukan perhitungan pada perkiraan di atas, itu menyiratkan bahwa total pasar untuk ai (selain generative ai) bisa bernilai puluhan triliun dolar, di seluruh dunia. Untuk perbandingan, semua cryptocurrency yang dikombinasikan, termasuk bitcoin dan setiap alt coin, hanya bernilai sekitar $2,7 triliun saat ini. Jadi mari kita jujur di sini: sebagian besar pelanggan yang membutuhkan ai dalam jangka pendek akan menjadi pelanggan web2, karena pelanggan web3 yang benar-benar membutuhkan ai akan menjadi sekelompok kecil dari $2,7 triliun ini (pertimbangkan bahwa btc adalah separuh dari pasar ini, dan btc sendiri tidak membutuhkan/menggunakan ai).
Kasus penggunaan web3 AI baru saja dimulai dan belum jelas seberapa besar pasar tersebut. Namun, satu hal yang pasti secara intuitif adalah bahwa pasar tersebut akan menjadi sebagian kecil dari pasar web2 dalam waktu yang dapat diprediksi. Kami percaya bahwa web3 AI masih memiliki masa depan yang cerah, tetapi saat ini, aplikasi paling kuat dari web3 AI adalah melayani pelanggan web2.
contoh pelanggan web2 yang secara hipotetis dapat diuntungkan dari web3 ai mencakup:
ini adalah persona pelanggan yang relatif stabil, karena para pelanggan umumnya besar dan berharga. Mereka tidak mungkin bangkrut dalam waktu dekat dan mereka mewakili pelanggan potensial yang sangat besar untuk layanan kecerdasan buatan. Layanan kecerdasan buatan web3 yang melayani pelanggan web2 akan mendapat manfaat dari basis pelanggan yang stabil ini.
tapi mengapa pelanggan web2 ingin menggunakan tumpukan web3? sisa dari posting ini membuat kasus tersebut.
gpu depins aggreGate.io daya komputasi gpu yang kurang dimanfaatkan (yang paling dapat diandalkan berasal dari pusat data) dan membuatnya tersedia untuk inferensi ai (sebagai contoh ini adalahio.net, yang merupakan perusahaan portofolio dari dana yang dikelola oleh hack vc). Cara yang mudah untuk memahami ini adalah “airbnb untuk gpus” (secara efektif, konsumsi kolaboratif dari aset yang tidak dimanfaatkan sepenuhnya).
alasan kami sangat bersemangat tentang gpu depins adalah, seperti yang telah disebutkan di atas, ada kekurangan chip nvidia, dan saat ini ada siklus gpu yang terbuang yang dapat digunakan untuk inferensi ai. pemilik perangkat keras ini memiliki biaya terbenam dan tidak menggunakan peralatan mereka sepenuhnya hari ini, dan oleh karena itu dapat menawarkan siklus gpu pecahan tersebut dengan biaya yang lebih rendah dibandingkan dengan status quo, karena efektif 'uang yang ditemukan' bagi pemilik perangkat keras.
contoh-contoh meliputi:
Perhatikan bahwa tidak semua perangkat keras GPU cocok untuk inferensi kecerdasan buatan. Salah satu alasan utamanya adalah bahwa GPU lama tidak memiliki jumlah memori GPU yang diperlukan untuk LLMS, meskipun telah ada beberapa inovasi menarik untuk membantu di sini.Exabits, misalnya, memiliki teknologi yang memuat neuron aktif ke dalam memori gpu dan neuron tidak aktif ke dalam memori cpu. Mereka memprediksi neuron mana yang perlu aktif / tidak aktif. Hal ini memungkinkan gpu yang lebih rendah untuk memproses beban kerja ai, bahkan dengan memori gpu yang terbatas. Hal ini efektif membuat gpu yang lebih rendah lebih berguna untuk inferensi ai.
Perlu diperhatikan juga bahwa penyedia layanan web3 AI perlu memperkuat penawaran mereka dari waktu ke waktu dan menawarkan layanan kelas enterprise, seperti single sign-on, kepatuhan SOC 2, perjanjian tingkat layanan (SLA), dan lainnya. Ini akan mencerminkan layanan di bawah penawaran cloud saat ini yang saat ini dinikmati oleh pelanggan web2.
Banyak pembicaraan tentang sensor ai. Turki, misalnya, sementara waktu melarang openai (mereka kemudian mengubah kebijakan setelah openai meningkatkan kepatuhan). Kami percaya jenis penyensoran tingkat negara ini pada dasarnya tidak menarik karena negara-negara akan perlu merangkul ai untuk tetap kompetitif.
Yang lebih menarik adalah bahwa OpenAI melakukan sensor sendiri. Misalnya, OpenAI tidak akan menangani konten NSFW. Dan OpenAI juga tidak akan memprediksi pemilihan presiden berikutnya. Kami berpikir bahwa ada pasar yang menarik dan besar untuk kasus penggunaan AI yang tidak akan diakses oleh OpenAI karena alasan politik.
Membuka sumber merupakan solusi yang bagus untuk ini, karena repositori github tidak terikat oleh pemegang saham atau dewan. Contohnya adalah Venice.ai, yang menjanjikan untuk menjaga privasi Anda serta beroperasi secara tak disensor. kuncinya, tentu saja, adalah menjadi open source, yang menggerakkan ini. apa yang web3 ai dapat bawa secara efektif untuk meningkatkan ini adalah menggerakkan model-model perangkat lunak open-source (oss) ini di klaster gpu dengan biaya lebih rendah untuk melakukan inferensi tersebut. itulah sebabnya kami percaya oss + web3 adalah kombinasi ideal untuk membuka jalan bagi ai tanpa sensor.
Banyak perusahaan besar memiliki kekhawatiran privasi tentang data internal perusahaannya. Bagi pelanggan seperti itu, sangat sulit untuk mempercayai pihak ketiga terpusat, seperti OpenAI, dengan data tersebut.
Dengan web3, mungkin terlihat (di permukaan) lebih menakutkan bagi perusahaan-perusahaan ini, karena data internal mereka tiba-tiba berada di jaringan terdesentralisasi. Namun, ada beberapa inovasi dalam teknologi peningkatan privasi untuk ai:
teknologi-teknologi ini masih terus berkembang, dan performanya masih terus meningkat melalui zero knowledge (zk) yang akan datang dan fhe asics. namun, tujuan jangka panjangnya adalah melindungi data perusahaan saat menyesuaikan model. seiring munculnya protokol-prokol ini, web3 dapat menjadi tempat yang lebih menarik untuk komputasi kecerdasan buatan yang menjaga privasi.
oss secara konsisten telah mereduksi pangsa pasar perangkat lunak propietari selama beberapa dekade terakhir. kita melihat llm sebagai sekadar bentuk perangkat lunak propietari yang mewah yang siap untuk gangguan oss. beberapa contoh penantang yang patut dicatat termasuk Llama, RWKV, dan Mistral.aiDaftar ini pastinya akan terus berkembang seiring waktu berjalan (daftar yang lebih lengkap tersedia di Openrouter.ai). dengan memanfaatkan web3 ai (ditenagai oleh model oss) seseorang dapat memanfaatkan inovasi-inovasi baru ini.
kami percaya bahwa seiring berjalannya waktu, kekuatan kerja pengembangan global sumber terbuka, yang digabungkan dengan insentif kripto, dapat mendorong inovasi cepat dalam model sumber terbuka, serta agen dan kerangka kerja yang dibangun di atasnya. contoh protokol agen kecerdasan buatan adalah Theoriq. theoriq memanfaatkan model oss untuk menciptakan web ai yang saling terhubung yang dapat dirangkai untuk membuat solusi ai tingkat lebih tinggi.
alasan kami memiliki keyakinan di sini adalah karena masa lalu: sebagian besar "perangkat lunak pengembang" telah perlahan-lahan diungguli oleh oss dari waktu ke waktu. microsoft dulunya adalah perusahaan perangkat lunak propietary, dan sekarang mereka adalah perusahaan #1 yang berkontribusi ke github, dan ada alasan untuk itu. jika Anda melihat bagaimana databricks, postgressql, mongodb, dan yang lain telah mengganggu basis data propietary, itu adalah contoh dari seluruh industri yang terganggu oleh oss, jadi preseden di sini sangat kuat.
ini memang datang dengan syarat. salah satu hal yang sulit dengan oss llms adalah bahwa openai telah mulai membuat perjanjian lisensi data berbayar dengan organisasi, seperti reddit dan the new york times. jika tren ini berlanjut, mungkin akan menjadi lebih sulit bagi oss llms untuk bersaing karena hambatan keuangan yang terlibat dalam mereka mendapatkan data. mungkin saja nvidia menggandakan komputasi rahasia sebagai penyedia data yang aman. waktu akan memberitahu bagaimana ini berlangsung.
Salah satu tantangan dengan inferensi AI Web3 adalah verifikasi. Ada peluang hipotetis bagi validator untuk menipu hasil mereka untuk mendapatkan biaya, jadi memverifikasi kesimpulan adalah ukuran penting. Perhatikan bahwa kecurangan ini belum benar-benar terjadi, karena inferensi AI masih dalam tahap awal, tetapi tidak dapat dihindari kecuali langkah-langkah diambil untuk menghilangkan insentif perilaku itu.
pendekatan web3 standar adalah dengan memiliki beberapa validator mengulang operasi yang sama dan membandingkan hasilnya. tantangan utama dari ini adalah, seperti yang dicatat, inferensi AI mahal karena kelangkaan chip nvidia kelas atas saat ini. Mengingat bahwa web3 dapat menawarkan inferensi dengan biaya lebih rendah melalui depins gpu yang kurang dimanfaatkan, komputasi redundan akan sangat mengurangi proposisi nilai web3.
solusi yang lebih menjanjikan adalah melakukan bukti zk untuk komputasi inferensi ai di luar rantai. dalam hal ini, bukti zk yang ringkas dapat diverifikasi untuk menentukan bahwa model telah dilatih dengan baik, atau bahwa inferensi telah dijalankan dengan baik (dikenal sebagai zkml). contohnya termasuk Modulus labsdanZKonduit. kinerja solusi-solusi ini masih dalam tahap awal karena operasi zk cukup intensif dalam komputasi. Namun, kami memperkirakan ini kemungkinan akan membaik seiring dengan dirilisnya asics perangkat keras zk di masa depan yang tidak jauh.
Lebih menjanjikan lagi adalah ide dari pendekatan inferensi kecerdasan buatan berbasis sampel yang agak 'optimis'. Dalam model ini, Anda hanya akan memverifikasi persentase kecil dari hasil yang dihasilkan oleh validator, tetapi menetapkan biaya ekonomi pemotongan yang cukup tinggi sehingga, jika tertangkap, itu akan menciptakan dorongan ekonomi yang kuat bagi validator untuk curang. Dengan cara ini, Anda menghemat perhitungan yang berlebihan (misalnya, lihatHiperbolik’s Bukti kertas sampling.
ide yang menjanjikan lainnya adalah solusi watermaking dan fingerprinting, seperti yang diusulkan oleh jaringan Bagel. Ini mirip dengan mekanisme Amazon Alexa untuk jaminan kualitas model AI on-device untuk jutaan perangkat mereka.
kesempatan berikutnya yang web3 bawa ke ai adalah untuk mendemokratisasi biaya. Sejauh ini, kita telah membicarakan tentang penghematan biaya gpu melalui depins. Tetapi web3 juga menawarkan peluang untuk menghemat margin keuntungan dari layanan ai web2 terpusat (misalnya, openai, yang saat ini menghasilkan lebih dari $1 miliar/tahun sebagai waktu penulisan ini). Penghematan biaya ini berasal dari fakta bahwa model oss digunakan daripada model propietary untuk lapisan penghematan tambahan karena pencipta model tidak berusaha untuk menghasilkan keuntungan.
banyak model oss akan tetap sepenuhnya gratis, yang memungkinkan ekonomi terbaik bagi pelanggan. Namun, mungkin ada beberapa model oss yang mencoba metode monetisasi ini juga. Pertimbangkan bahwa hanya 4% dari total model di hugging face dilatih oleh perusahaan dengan anggaran untuk membantu mensubsidi model (lihat,di sini). 96% model-model lainnya dilatih oleh komunitas. kelompok ini - 96% dari hugging face - memiliki biaya nyata yang mendasar (termasuk biaya komputasi dan biaya data). jadi model-model tersebut akan somehow perlu memonetisasi.
ada sejumlah proposal untuk mencapai monetisasi model ini. Salah satu yang paling menarik adalah konsep dari "penawaran model awal" (IMO) di mana Anda melakukan tokenisasi model itu sendiri, menahan sebagian token untuk tim, dan mengalirkan sebagian pendapatan masa depan dari model tersebut kepada pemegang token, meskipun jelas ada beberapa hambatan hukum dan regulasi di sana.
model oss lainnya akan mencoba menghasilkan uang dari penggunaan. perlu diketahui bahwa jika ini terwujud, model oss mungkin akan semakin mirip dengan mitra web2 yang menghasilkan keuntungan. namun, secara realistis, pasar akan terbagi, dengan beberapa model tetap sepenuhnya gratis.
Salah satu tantangan terbesar dengan AI adalah mencari data yang tepat untuk melatih model Anda. Kami sebutkan sebelumnya bahwa pelatihan AI terdesentralisasi memiliki tantangan. Tetapi bagaimana dengan menggunakan jaringan terdesentralisasi untuk sumber data (yang kemudian dapat digunakan untuk pelatihan di tempat lain, bahkan di tempat Web2 tradisional)?
ini persis seperti apa yang dilakukan startup seperti Rumputmelakukan. rumput adalah jaringan terdesentralisasi dari "penambang data," individu yang menyumbangkan kekuatan pemrosesan mesin yang tidak terpakai untuk mengumpulkan data guna melatih model AI. Secara teoritis, dalam skala besar, pengumpulan data ini dapat lebih unggul daripada upaya internal satu perusahaan dalam mengumpulkan data karena kekuatan dari jaringan besar node yang diincentivasi. Ini tidak hanya mencakup pengumpulan data yang lebih banyak, tetapi juga pengumpulan data yang lebih sering sehingga data menjadi lebih relevan dan terkini. Selain itu, sangat tidak mungkin untuk menghentikan tentara terdesentralisasi penambang data, karena mereka secara inheren terfragmentasi dan tidak berada dalam satu alamat IP tunggal. Mereka juga memiliki jaringan manusia yang dapat membersihkan dan normalisasi data, sehingga data tersebut dapat berguna setelah diambil.
Setelah Anda memiliki data, Anda juga memerlukan tempat untuk menyimpannya di chain, serta llms yang dihasilkan dengan data tersebut.0g.AIadalah pemimpin awal dalam kategori ini. Ini adalah solusi penyimpanan web3 yang dioptimalkan oleh AI yang jauh lebih murah daripada AWS (kemenangan ekonomi lainnya untuk web3 AI), sambil juga berfungsi sebagai infrastruktur ketersediaan data untuk layer 2s, AI, dan lainnya.
Perhatikan bahwa peran data mungkin akan berubah di web3 ai di masa depan. Saat ini, status quo saat ini untuk llm adalah untuk pra-pelatihan model dengan data, dan untuk memperbarui seiring waktu dengan lebih banyak data. Namun, model-model tersebut selalu sedikit tertinggal karena data di internet berubah secara real time. Jadi, respons dari inferensi llm sedikit tidak akurat.
Masa depan ke mana dunia mereka mungkin menuju adalah paradigma baru - data "realtime". Konsepnya adalah ketika LLM ditanyai pertanyaan inferensi, LLM dapat menggunakan injeksi data yang cepat ke LLM, di mana data tersebut dikumpulkan secara real-time dari internet. Dengan cara itu, LLM menggunakan data yang paling up-to-date. Grass sedang meneliti ini juga.
kesimpulan
Kami harap ini menjadi analisis yang berguna bagi Anda ketika memikirkan tentang janji vs kenyataan web3 ai. Ini hanya awal percakapan, dan lanskapnya berubah dengan cepat, jadi silakan merapat dan ungkapkan pandangan Anda juga, karena kami ingin terus belajar dan membangun bersama.
pengakuan
terima kasih yang sangat istimewa kepada albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng, dan jw wang atas umpan balik dan kontribusi mereka untuk posting ini.
informasi di sini hanya untuk tujuan umum dan tidak dimaksudkan sebagai saran investasi dan tidak boleh digunakan dalam penilaian keputusan investasi apa pun. informasi tersebut tidak boleh diandalkan untuk saran akuntansi, hukum, pajak, bisnis, investasi, atau saran relevan lainnya. Anda harus berkonsultasi dengan penasihat Anda sendiri, termasuk penasihat hukum Anda sendiri, untuk saran akuntansi, hukum, pajak, bisnis, investasi, atau saran relevan lainnya, termasuk sehubungan dengan hal-hal yang dibahas di sini.
posting ini mencerminkan pendapat saat ini dari penulis dan tidak dibuat atas nama hack vc atau afiliasinya, termasuk dana yang dikelola oleh hack vc, dan tidak selalu mencerminkan pendapat dari hack vc, afiliasinya, termasuk afiliasi mitra umumnya, atau individu lain yang terkait dengan hack vc. certain information contained herein has been obtained from published sources and/or prepared by third parties and in certain cases has not been updated through the date hereof. while such sources are believed to be reliable, neither hack vc, its affiliates, including its general partner affiliates, or any other individuals associated with hack vc are making representations as to their accuracy or completeness, and they should not be relied on as such or be the basis for an accounting, legal, tax, business, investment, or other decision. the information herein does not purport to be complete and is subject to change and hack vc does not have any obligation to update such information or make any notification if such information becomes inaccurate.
kinerja masa lalu tidak selalu menjadi indikasi dari hasil di masa depan. setiap pernyataan berwawasan ke depan yang dibuat di sini didasarkan pada asumsi dan analisis tertentu yang dibuat oleh penulis dengan mempertimbangkan pengalamannya dan persepsinya terhadap tren-tren historis, kondisi-kondisi saat ini, dan perkembangan-perkembangan masa depan yang diharapkan, serta faktor-faktor lain yang diyakininya sesuai dalam situasi tersebut. pernyataan-pernyataan tersebut bukan jaminan kinerja di masa depan dan tunduk pada risiko-risiko, ketidakpastian-ketidakpastian, dan asumsi-asumsi tertentu yang sulit untuk diprediksi.
artikel ini diambil dari [Hack vc], judul asli “ai x kripto - janji dan realitas”, hak cipta milik penulis asli [ed roman, mitra pengelola di hack vc], jika Anda memiliki keberatan terhadap cetak ulang, harap hubungiTim pembelajaran Gate, tim akan menanganinya secepat mungkin sesuai dengan prosedur yang relevan.
disclaimer: pandangan dan pendapat yang tertera dalam artikel ini mewakili pandangan pribadi penulis saja dan tidak merupakan saran investasi apapun.
versi bahasa lain dari artikel diterjemahkan oleh tim pembelajaran Gate.io, tidak disebutkan dalamGate.ioArtikel yang diterjemahkan mungkin tidak boleh direproduksi, didistribusikan, atau diplagiat.
ai adalah salah satu kategori paling populer dan paling menjanjikan di pasar kripto baru-baru ini.
💡pelatihan ai terdesentralisasi
💡 gpu depins
💡model AI tanpa sensor
apakah ini terobosan atau hanya kata-kata hampa? 🤔
di hack vc, kami memotong kebisingan untuk memisahkan janji dari kenyataan.
postingan ini membahas ide-ide teratas Kripto x AI. Mari kita bahas tantangan dan peluang yang sebenarnya.
ide dengan janji awal, tetapi menghadapi tantangan dalam kenyataannya.
Pertama, mari kita mulai dengan “janji web3 ai”—ide-ide yang cukup dibesar-besarkan, tetapi realitasnya mungkin tidak seindah itu.
masalah dari pelatihan ai on-chain adalah bahwa pelatihan memerlukan komunikasi dan koordinasi berkecepatan tinggi di antara gpus, karena jaringan saraf memerlukan backpropagation saat dilatih. nvidia memiliki dua inovasi untuk ini (NVLinkdanInfiniBand). teknologi-teknologi ini efektif membuat komunikasi gpu menjadi sangat cepat, tetapi teknologi ini hanya berlaku di dalam klaster gpu yang terletak di dalam satu pusat data (kecepatan 50+ gigabit)
jika Anda memperkenalkan jaringan terdesentralisasi ke dalam gambar, tiba-tiba Anda jauh lebih lambat karena penambahan laten jaringan dan bandwidth. itu bukanlah pilihan yang baik untuk kasus penggunaan pelatihan kecerdasan buatan dibandingkan dengan throughput yang Anda dapatkan dari konektivitas antarcepat nvidia di dalam pusat data.
perhatikan bahwa ada beberapa inovasi di sini yang mungkin memberikan sedikit harapan untuk masa depan:
Komponen data dari pelatihan juga menantang. Setiap proses pelatihan AI melibatkan bekerja dengan jumlah data yang besar. Biasanya, model dilatih pada sistem penyimpanan data yang terpusat dan aman dengan skalabilitas dan performa yang tinggi. Ini memerlukan transfer dan pengolahan terabyte data, dan ini bukan siklus satu kali. Data biasanya berisik dan mengandung kesalahan, sehingga harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model. Tahap ini melibatkan tugas-tugas repetitif normalisasi, penyaringan, dan penanganan nilai yang hilang. Semua ini menimbulkan tantangan serius dalam lingkungan terdesentralisasi.
komponen data pelatihan juga bersifat iteratif, yang tidak cocok untuk web3. OpenAI membutuhkan ribuan iterasi untuk mencapai hasilnya. Skenario tugas paling dasar untuk seorang spesialis ilmu data dalam tim AI meliputi menentukan tujuan, mempersiapkan data, menganalisis dan mengorganisir data untuk mengekstrak wawasan penting dan membuatnya cocok untuk pemodelan. Kemudian, model pembelajaran mesin dikembangkan untuk memecahkan masalah yang ditentukan, dan kinerjanya divalidasi menggunakan dataset tes. Proses ini bersifat iteratif: jika model saat ini tidak berperforma seperti yang diharapkan, spesialis kembali ke tahap pengumpulan data atau pelatihan model untuk meningkatkan hasilnya. Sekarang, bayangkan proses ini dalam pengaturan terdesentralisasi, di mana kerangka kerja dan alat terbaik yang ada tidak tersedia dengan mudah di web3.
Masalah lain dengan melatih model AI on-chain adalah pasar yang jauh lebih tidak menarik dibandingkan dengan inferensi. Saat ini, terdapat jumlah besar komputasi GPU yang digunakan untuk pelatihan AI LLM. Namun dalam jangka panjang, inferensi akan menjadi kasus penggunaan GPU yang lebih umum (secara jauh) dibandingkan dengan pelatihan AI LLM. Pertimbangkan: berapa banyak AI LLM yang perlu dilatih agar dunia bahagia, dibandingkan dengan jumlah pelanggan yang akan menggunakan model-model tersebut?
Salah satu solusi yang membuat kemajuan di semua front adalah 0g.ai (didukung oleh hack vc) yang menyediakan penyimpanan data on-chain dan infrastruktur ketersediaan data. Arsitektur mereka yang sangat cepat dan kemampuan untuk menyimpan jumlah data yang besar on-chain memungkinkan pelatihan model AI on-chain yang cepat dan iteratif dari jenis apa pun.
Salah satu tantangan dengan kripto x ai adalah memverifikasi akurasi inferensi ai, karena Anda tidak dapat sepenuhnya percaya pada satu pihak terpusat untuk melakukan inferensi tersebut karena potensi keberadaan node yang berperilaku buruk. Tantangan ini tidak ada pada ai web2 karena tidak ada sistem konsensus terdesentralisasi.
satu gagasan yang diusulkan untuk memecahkan masalah ini adalah komputasi berlebihan, di mana beberapa node mengulangi operasi inferensi ai yang sama, sehingga Anda dapat beroperasi secara tidak terpercaya dan tidak memiliki titik kegagalan tunggal.
masalah dengan pendekatan ini adalah kita tinggal di dunia dengan kekurangan drastis dari chip ai high-end. Ada periode tunggu multi-tahun untuk chip nvidia high-end, dan itu mengakibatkan kenaikan harga. Jika Anda memerlukan bahwa inferensi ai Anda dieksekusi ulang beberapa kali pada beberapa node tambahan, sekarang Anda mengalikan biaya mahal tersebut. Ini akan menjadi tidak dapat diterima bagi banyak proyek.
Ada saran bahwa web3 harus memiliki kasus penggunaan kecerdasan buatan yang unik dan khusus untuk pelanggan web3. Ini bisa (misalnya) protokol web3 yang menggunakan kecerdasan buatan untuk melakukan skor risiko dari pool defi, dompet web3 yang menyarankan protokol baru untuk Anda berdasarkan riwayat dompet Anda, atau game web3 yang menggunakan kecerdasan buatan untuk mengendalikan karakter non-pemain (NPC).
untuk saat ini, ini (dalam jangka pendek) adalah pasar yang baru berkembang di mana kasus penggunaan masih terus ditemukan. beberapa tantangan termasuk:
jangka panjang, kami sangat bullish pada kasus penggunaan ai web3-native, terutama ketika agen ai menjadi lebih umum. kami membayangkan masa depan di mana setiap pengguna web3 memiliki sejumlah agen ai yang membantu mereka. pemimpin kategori awal untuk ini adalah Theoriq(didukung oleh hack vc), yang memungkinkan agen ai on-chain yang dapat digabungkan dan otonom.
ada sejumlah jaringan komputasi ai terdesentralisasi yang bergantung pada gpu berbasis konsumen daripada pusat data. gpu konsumen berguna untuk tugas inferensi ai berkecepatan rendah atau untuk kasus pengguna konsumen di mana latensi, throughput, dan keandalan bersifat fleksibel. tetapi untuk kasus penggunaan enterprise yang serius (yang merupakan mayoritas pasar yang penting), pelanggan menginginkan jaringan keandalan yang lebih tinggi dibandingkan mesin rumah orang, dan seringkali memerlukan gpu yang lebih canggih jika mereka memiliki tugas inferensi yang lebih kompleks. pusat data lebih cocok untuk kasus penggunaan pelanggan yang lebih berharga ini.
Perhatikan bahwa kami menganggap GPU kelas konsumen bermanfaat untuk tujuan demonstrasi atau bagi individu dan startup yang dapat mentoleransi tingkat kehandalan yang lebih rendah. Tetapi pelanggan tersebut pada dasarnya kurang berharga, sehingga kami percaya bahwa depins yang melayani perusahaan web2 akan lebih berharga dalam jangka panjang. Oleh karena itu, proyek depin GPU terkenal umumnya telah berkembang dari awal yang sebagian besar menggunakan perangkat keras kelas konsumen menjadi memiliki ketersediaan a100/h100 dan tingkat klaster.
realitas—kasus penggunaan kripto x kecerdasan buatan yang praktis dan realistis
Sekarang, mari kita bahas kasus penggunaan yang memberikan "manfaat nyata." ini adalah "kemenangan" sebenarnya di mana kripto x ai dapat menambahkan nilai yang signifikan.
mckinseyperkiraan bahwa kecerdasan buatan generatif dapat menambahkan setara dengan $2,6 triliun hingga $4,4 triliun setiap tahun di seluruh 63 kasus penggunaan yang mereka analisis—sebagai perbandingan, PDB keseluruhan inggris pada tahun 2021 adalah $3,1 triliun. ini akan meningkatkan dampak dari semua kecerdasan buatan sebesar 15% hingga 40%. perkiraan ini akan sekitar dua kali lipat jika kita termasuk dampak dari menyematkan kecerdasan buatan generatif ke dalam perangkat lunak yang saat ini digunakan untuk tugas-tugas lain di luar kasus penggunaan tersebut.
jika Anda melakukan perhitungan pada perkiraan di atas, itu menyiratkan bahwa total pasar untuk ai (selain generative ai) bisa bernilai puluhan triliun dolar, di seluruh dunia. Untuk perbandingan, semua cryptocurrency yang dikombinasikan, termasuk bitcoin dan setiap alt coin, hanya bernilai sekitar $2,7 triliun saat ini. Jadi mari kita jujur di sini: sebagian besar pelanggan yang membutuhkan ai dalam jangka pendek akan menjadi pelanggan web2, karena pelanggan web3 yang benar-benar membutuhkan ai akan menjadi sekelompok kecil dari $2,7 triliun ini (pertimbangkan bahwa btc adalah separuh dari pasar ini, dan btc sendiri tidak membutuhkan/menggunakan ai).
Kasus penggunaan web3 AI baru saja dimulai dan belum jelas seberapa besar pasar tersebut. Namun, satu hal yang pasti secara intuitif adalah bahwa pasar tersebut akan menjadi sebagian kecil dari pasar web2 dalam waktu yang dapat diprediksi. Kami percaya bahwa web3 AI masih memiliki masa depan yang cerah, tetapi saat ini, aplikasi paling kuat dari web3 AI adalah melayani pelanggan web2.
contoh pelanggan web2 yang secara hipotetis dapat diuntungkan dari web3 ai mencakup:
ini adalah persona pelanggan yang relatif stabil, karena para pelanggan umumnya besar dan berharga. Mereka tidak mungkin bangkrut dalam waktu dekat dan mereka mewakili pelanggan potensial yang sangat besar untuk layanan kecerdasan buatan. Layanan kecerdasan buatan web3 yang melayani pelanggan web2 akan mendapat manfaat dari basis pelanggan yang stabil ini.
tapi mengapa pelanggan web2 ingin menggunakan tumpukan web3? sisa dari posting ini membuat kasus tersebut.
gpu depins aggreGate.io daya komputasi gpu yang kurang dimanfaatkan (yang paling dapat diandalkan berasal dari pusat data) dan membuatnya tersedia untuk inferensi ai (sebagai contoh ini adalahio.net, yang merupakan perusahaan portofolio dari dana yang dikelola oleh hack vc). Cara yang mudah untuk memahami ini adalah “airbnb untuk gpus” (secara efektif, konsumsi kolaboratif dari aset yang tidak dimanfaatkan sepenuhnya).
alasan kami sangat bersemangat tentang gpu depins adalah, seperti yang telah disebutkan di atas, ada kekurangan chip nvidia, dan saat ini ada siklus gpu yang terbuang yang dapat digunakan untuk inferensi ai. pemilik perangkat keras ini memiliki biaya terbenam dan tidak menggunakan peralatan mereka sepenuhnya hari ini, dan oleh karena itu dapat menawarkan siklus gpu pecahan tersebut dengan biaya yang lebih rendah dibandingkan dengan status quo, karena efektif 'uang yang ditemukan' bagi pemilik perangkat keras.
contoh-contoh meliputi:
Perhatikan bahwa tidak semua perangkat keras GPU cocok untuk inferensi kecerdasan buatan. Salah satu alasan utamanya adalah bahwa GPU lama tidak memiliki jumlah memori GPU yang diperlukan untuk LLMS, meskipun telah ada beberapa inovasi menarik untuk membantu di sini.Exabits, misalnya, memiliki teknologi yang memuat neuron aktif ke dalam memori gpu dan neuron tidak aktif ke dalam memori cpu. Mereka memprediksi neuron mana yang perlu aktif / tidak aktif. Hal ini memungkinkan gpu yang lebih rendah untuk memproses beban kerja ai, bahkan dengan memori gpu yang terbatas. Hal ini efektif membuat gpu yang lebih rendah lebih berguna untuk inferensi ai.
Perlu diperhatikan juga bahwa penyedia layanan web3 AI perlu memperkuat penawaran mereka dari waktu ke waktu dan menawarkan layanan kelas enterprise, seperti single sign-on, kepatuhan SOC 2, perjanjian tingkat layanan (SLA), dan lainnya. Ini akan mencerminkan layanan di bawah penawaran cloud saat ini yang saat ini dinikmati oleh pelanggan web2.
Banyak pembicaraan tentang sensor ai. Turki, misalnya, sementara waktu melarang openai (mereka kemudian mengubah kebijakan setelah openai meningkatkan kepatuhan). Kami percaya jenis penyensoran tingkat negara ini pada dasarnya tidak menarik karena negara-negara akan perlu merangkul ai untuk tetap kompetitif.
Yang lebih menarik adalah bahwa OpenAI melakukan sensor sendiri. Misalnya, OpenAI tidak akan menangani konten NSFW. Dan OpenAI juga tidak akan memprediksi pemilihan presiden berikutnya. Kami berpikir bahwa ada pasar yang menarik dan besar untuk kasus penggunaan AI yang tidak akan diakses oleh OpenAI karena alasan politik.
Membuka sumber merupakan solusi yang bagus untuk ini, karena repositori github tidak terikat oleh pemegang saham atau dewan. Contohnya adalah Venice.ai, yang menjanjikan untuk menjaga privasi Anda serta beroperasi secara tak disensor. kuncinya, tentu saja, adalah menjadi open source, yang menggerakkan ini. apa yang web3 ai dapat bawa secara efektif untuk meningkatkan ini adalah menggerakkan model-model perangkat lunak open-source (oss) ini di klaster gpu dengan biaya lebih rendah untuk melakukan inferensi tersebut. itulah sebabnya kami percaya oss + web3 adalah kombinasi ideal untuk membuka jalan bagi ai tanpa sensor.
Banyak perusahaan besar memiliki kekhawatiran privasi tentang data internal perusahaannya. Bagi pelanggan seperti itu, sangat sulit untuk mempercayai pihak ketiga terpusat, seperti OpenAI, dengan data tersebut.
Dengan web3, mungkin terlihat (di permukaan) lebih menakutkan bagi perusahaan-perusahaan ini, karena data internal mereka tiba-tiba berada di jaringan terdesentralisasi. Namun, ada beberapa inovasi dalam teknologi peningkatan privasi untuk ai:
teknologi-teknologi ini masih terus berkembang, dan performanya masih terus meningkat melalui zero knowledge (zk) yang akan datang dan fhe asics. namun, tujuan jangka panjangnya adalah melindungi data perusahaan saat menyesuaikan model. seiring munculnya protokol-prokol ini, web3 dapat menjadi tempat yang lebih menarik untuk komputasi kecerdasan buatan yang menjaga privasi.
oss secara konsisten telah mereduksi pangsa pasar perangkat lunak propietari selama beberapa dekade terakhir. kita melihat llm sebagai sekadar bentuk perangkat lunak propietari yang mewah yang siap untuk gangguan oss. beberapa contoh penantang yang patut dicatat termasuk Llama, RWKV, dan Mistral.aiDaftar ini pastinya akan terus berkembang seiring waktu berjalan (daftar yang lebih lengkap tersedia di Openrouter.ai). dengan memanfaatkan web3 ai (ditenagai oleh model oss) seseorang dapat memanfaatkan inovasi-inovasi baru ini.
kami percaya bahwa seiring berjalannya waktu, kekuatan kerja pengembangan global sumber terbuka, yang digabungkan dengan insentif kripto, dapat mendorong inovasi cepat dalam model sumber terbuka, serta agen dan kerangka kerja yang dibangun di atasnya. contoh protokol agen kecerdasan buatan adalah Theoriq. theoriq memanfaatkan model oss untuk menciptakan web ai yang saling terhubung yang dapat dirangkai untuk membuat solusi ai tingkat lebih tinggi.
alasan kami memiliki keyakinan di sini adalah karena masa lalu: sebagian besar "perangkat lunak pengembang" telah perlahan-lahan diungguli oleh oss dari waktu ke waktu. microsoft dulunya adalah perusahaan perangkat lunak propietary, dan sekarang mereka adalah perusahaan #1 yang berkontribusi ke github, dan ada alasan untuk itu. jika Anda melihat bagaimana databricks, postgressql, mongodb, dan yang lain telah mengganggu basis data propietary, itu adalah contoh dari seluruh industri yang terganggu oleh oss, jadi preseden di sini sangat kuat.
ini memang datang dengan syarat. salah satu hal yang sulit dengan oss llms adalah bahwa openai telah mulai membuat perjanjian lisensi data berbayar dengan organisasi, seperti reddit dan the new york times. jika tren ini berlanjut, mungkin akan menjadi lebih sulit bagi oss llms untuk bersaing karena hambatan keuangan yang terlibat dalam mereka mendapatkan data. mungkin saja nvidia menggandakan komputasi rahasia sebagai penyedia data yang aman. waktu akan memberitahu bagaimana ini berlangsung.
Salah satu tantangan dengan inferensi AI Web3 adalah verifikasi. Ada peluang hipotetis bagi validator untuk menipu hasil mereka untuk mendapatkan biaya, jadi memverifikasi kesimpulan adalah ukuran penting. Perhatikan bahwa kecurangan ini belum benar-benar terjadi, karena inferensi AI masih dalam tahap awal, tetapi tidak dapat dihindari kecuali langkah-langkah diambil untuk menghilangkan insentif perilaku itu.
pendekatan web3 standar adalah dengan memiliki beberapa validator mengulang operasi yang sama dan membandingkan hasilnya. tantangan utama dari ini adalah, seperti yang dicatat, inferensi AI mahal karena kelangkaan chip nvidia kelas atas saat ini. Mengingat bahwa web3 dapat menawarkan inferensi dengan biaya lebih rendah melalui depins gpu yang kurang dimanfaatkan, komputasi redundan akan sangat mengurangi proposisi nilai web3.
solusi yang lebih menjanjikan adalah melakukan bukti zk untuk komputasi inferensi ai di luar rantai. dalam hal ini, bukti zk yang ringkas dapat diverifikasi untuk menentukan bahwa model telah dilatih dengan baik, atau bahwa inferensi telah dijalankan dengan baik (dikenal sebagai zkml). contohnya termasuk Modulus labsdanZKonduit. kinerja solusi-solusi ini masih dalam tahap awal karena operasi zk cukup intensif dalam komputasi. Namun, kami memperkirakan ini kemungkinan akan membaik seiring dengan dirilisnya asics perangkat keras zk di masa depan yang tidak jauh.
Lebih menjanjikan lagi adalah ide dari pendekatan inferensi kecerdasan buatan berbasis sampel yang agak 'optimis'. Dalam model ini, Anda hanya akan memverifikasi persentase kecil dari hasil yang dihasilkan oleh validator, tetapi menetapkan biaya ekonomi pemotongan yang cukup tinggi sehingga, jika tertangkap, itu akan menciptakan dorongan ekonomi yang kuat bagi validator untuk curang. Dengan cara ini, Anda menghemat perhitungan yang berlebihan (misalnya, lihatHiperbolik’s Bukti kertas sampling.
ide yang menjanjikan lainnya adalah solusi watermaking dan fingerprinting, seperti yang diusulkan oleh jaringan Bagel. Ini mirip dengan mekanisme Amazon Alexa untuk jaminan kualitas model AI on-device untuk jutaan perangkat mereka.
kesempatan berikutnya yang web3 bawa ke ai adalah untuk mendemokratisasi biaya. Sejauh ini, kita telah membicarakan tentang penghematan biaya gpu melalui depins. Tetapi web3 juga menawarkan peluang untuk menghemat margin keuntungan dari layanan ai web2 terpusat (misalnya, openai, yang saat ini menghasilkan lebih dari $1 miliar/tahun sebagai waktu penulisan ini). Penghematan biaya ini berasal dari fakta bahwa model oss digunakan daripada model propietary untuk lapisan penghematan tambahan karena pencipta model tidak berusaha untuk menghasilkan keuntungan.
banyak model oss akan tetap sepenuhnya gratis, yang memungkinkan ekonomi terbaik bagi pelanggan. Namun, mungkin ada beberapa model oss yang mencoba metode monetisasi ini juga. Pertimbangkan bahwa hanya 4% dari total model di hugging face dilatih oleh perusahaan dengan anggaran untuk membantu mensubsidi model (lihat,di sini). 96% model-model lainnya dilatih oleh komunitas. kelompok ini - 96% dari hugging face - memiliki biaya nyata yang mendasar (termasuk biaya komputasi dan biaya data). jadi model-model tersebut akan somehow perlu memonetisasi.
ada sejumlah proposal untuk mencapai monetisasi model ini. Salah satu yang paling menarik adalah konsep dari "penawaran model awal" (IMO) di mana Anda melakukan tokenisasi model itu sendiri, menahan sebagian token untuk tim, dan mengalirkan sebagian pendapatan masa depan dari model tersebut kepada pemegang token, meskipun jelas ada beberapa hambatan hukum dan regulasi di sana.
model oss lainnya akan mencoba menghasilkan uang dari penggunaan. perlu diketahui bahwa jika ini terwujud, model oss mungkin akan semakin mirip dengan mitra web2 yang menghasilkan keuntungan. namun, secara realistis, pasar akan terbagi, dengan beberapa model tetap sepenuhnya gratis.
Salah satu tantangan terbesar dengan AI adalah mencari data yang tepat untuk melatih model Anda. Kami sebutkan sebelumnya bahwa pelatihan AI terdesentralisasi memiliki tantangan. Tetapi bagaimana dengan menggunakan jaringan terdesentralisasi untuk sumber data (yang kemudian dapat digunakan untuk pelatihan di tempat lain, bahkan di tempat Web2 tradisional)?
ini persis seperti apa yang dilakukan startup seperti Rumputmelakukan. rumput adalah jaringan terdesentralisasi dari "penambang data," individu yang menyumbangkan kekuatan pemrosesan mesin yang tidak terpakai untuk mengumpulkan data guna melatih model AI. Secara teoritis, dalam skala besar, pengumpulan data ini dapat lebih unggul daripada upaya internal satu perusahaan dalam mengumpulkan data karena kekuatan dari jaringan besar node yang diincentivasi. Ini tidak hanya mencakup pengumpulan data yang lebih banyak, tetapi juga pengumpulan data yang lebih sering sehingga data menjadi lebih relevan dan terkini. Selain itu, sangat tidak mungkin untuk menghentikan tentara terdesentralisasi penambang data, karena mereka secara inheren terfragmentasi dan tidak berada dalam satu alamat IP tunggal. Mereka juga memiliki jaringan manusia yang dapat membersihkan dan normalisasi data, sehingga data tersebut dapat berguna setelah diambil.
Setelah Anda memiliki data, Anda juga memerlukan tempat untuk menyimpannya di chain, serta llms yang dihasilkan dengan data tersebut.0g.AIadalah pemimpin awal dalam kategori ini. Ini adalah solusi penyimpanan web3 yang dioptimalkan oleh AI yang jauh lebih murah daripada AWS (kemenangan ekonomi lainnya untuk web3 AI), sambil juga berfungsi sebagai infrastruktur ketersediaan data untuk layer 2s, AI, dan lainnya.
Perhatikan bahwa peran data mungkin akan berubah di web3 ai di masa depan. Saat ini, status quo saat ini untuk llm adalah untuk pra-pelatihan model dengan data, dan untuk memperbarui seiring waktu dengan lebih banyak data. Namun, model-model tersebut selalu sedikit tertinggal karena data di internet berubah secara real time. Jadi, respons dari inferensi llm sedikit tidak akurat.
Masa depan ke mana dunia mereka mungkin menuju adalah paradigma baru - data "realtime". Konsepnya adalah ketika LLM ditanyai pertanyaan inferensi, LLM dapat menggunakan injeksi data yang cepat ke LLM, di mana data tersebut dikumpulkan secara real-time dari internet. Dengan cara itu, LLM menggunakan data yang paling up-to-date. Grass sedang meneliti ini juga.
kesimpulan
Kami harap ini menjadi analisis yang berguna bagi Anda ketika memikirkan tentang janji vs kenyataan web3 ai. Ini hanya awal percakapan, dan lanskapnya berubah dengan cepat, jadi silakan merapat dan ungkapkan pandangan Anda juga, karena kami ingin terus belajar dan membangun bersama.
pengakuan
terima kasih yang sangat istimewa kepada albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng, dan jw wang atas umpan balik dan kontribusi mereka untuk posting ini.
informasi di sini hanya untuk tujuan umum dan tidak dimaksudkan sebagai saran investasi dan tidak boleh digunakan dalam penilaian keputusan investasi apa pun. informasi tersebut tidak boleh diandalkan untuk saran akuntansi, hukum, pajak, bisnis, investasi, atau saran relevan lainnya. Anda harus berkonsultasi dengan penasihat Anda sendiri, termasuk penasihat hukum Anda sendiri, untuk saran akuntansi, hukum, pajak, bisnis, investasi, atau saran relevan lainnya, termasuk sehubungan dengan hal-hal yang dibahas di sini.
posting ini mencerminkan pendapat saat ini dari penulis dan tidak dibuat atas nama hack vc atau afiliasinya, termasuk dana yang dikelola oleh hack vc, dan tidak selalu mencerminkan pendapat dari hack vc, afiliasinya, termasuk afiliasi mitra umumnya, atau individu lain yang terkait dengan hack vc. certain information contained herein has been obtained from published sources and/or prepared by third parties and in certain cases has not been updated through the date hereof. while such sources are believed to be reliable, neither hack vc, its affiliates, including its general partner affiliates, or any other individuals associated with hack vc are making representations as to their accuracy or completeness, and they should not be relied on as such or be the basis for an accounting, legal, tax, business, investment, or other decision. the information herein does not purport to be complete and is subject to change and hack vc does not have any obligation to update such information or make any notification if such information becomes inaccurate.
kinerja masa lalu tidak selalu menjadi indikasi dari hasil di masa depan. setiap pernyataan berwawasan ke depan yang dibuat di sini didasarkan pada asumsi dan analisis tertentu yang dibuat oleh penulis dengan mempertimbangkan pengalamannya dan persepsinya terhadap tren-tren historis, kondisi-kondisi saat ini, dan perkembangan-perkembangan masa depan yang diharapkan, serta faktor-faktor lain yang diyakininya sesuai dalam situasi tersebut. pernyataan-pernyataan tersebut bukan jaminan kinerja di masa depan dan tunduk pada risiko-risiko, ketidakpastian-ketidakpastian, dan asumsi-asumsi tertentu yang sulit untuk diprediksi.
artikel ini diambil dari [Hack vc], judul asli “ai x kripto - janji dan realitas”, hak cipta milik penulis asli [ed roman, mitra pengelola di hack vc], jika Anda memiliki keberatan terhadap cetak ulang, harap hubungiTim pembelajaran Gate, tim akan menanganinya secepat mungkin sesuai dengan prosedur yang relevan.
disclaimer: pandangan dan pendapat yang tertera dalam artikel ini mewakili pandangan pribadi penulis saja dan tidak merupakan saran investasi apapun.
versi bahasa lain dari artikel diterjemahkan oleh tim pembelajaran Gate.io, tidak disebutkan dalamGate.ioArtikel yang diterjemahkan mungkin tidak boleh direproduksi, didistribusikan, atau diplagiat.