Kami sebelumnya membahas bagaimana AI dan Web3 dapat melengkapi satu sama lain di berbagai industri seperti jaringan komputasi, platform perantara, dan aplikasi konsumen. Ketika fokus pada sumber daya data sebagai bidang vertikal, proyek Web baru menawarkan kemungkinan baru untuk perolehan, berbagi, dan pemanfaatan data.
Data telah menjadi pendorong utama inovasi dan pengambilan keputusan di seluruh industri. UBS memprediksi bahwa volume data global akan tumbuh sepuluh kali lipat dari 2020 hingga 2030, mencapai 660 ZB. Pada tahun 2025, setiap individu secara global diharapkan menghasilkan 463 EB (Exabytes, 1 EB = 1 miliar GB) data setiap hari. Pasar Data-as-a-Service (DaaS) berkembang pesat. Menurut Grand View Research, pasar DaaS global bernilai $14.36 miliar pada tahun 2023 dan diperkirakan akan tumbuh pada tingkat pertumbuhan tahunan gabungan (CAGR) sebesar 28.1%, mencapai $76.8 miliar pada tahun 2030.
Pelatihan model AI sangat bergantung pada kumpulan data besar untuk mengidentifikasi pola dan menyesuaikan parameter. Setelah pelatihan, kumpulan data juga diperlukan untuk menguji kinerja model dan kemampuan generalisasi. Selain itu, agen AI, sebagai bentuk aplikasi cerdas yang muncul, memerlukan sumber data real-time dan dapat diandalkan untuk memastikan pengambilan keputusan yang akurat dan pelaksanaan tugas.
(Sumber: Leewayhertz)
Permintaan untuk analitik bisnis juga menjadi lebih beragam dan luas, menjadi alat inti yang mendorong inovasi perusahaan. Misalnya, platform media sosial dan perusahaan riset pasar membutuhkan data perilaku pengguna yang dapat diandalkan untuk merumuskan strategi dan menganalisis tren, mengintegrasikan data yang beragam dari berbagai platform sosial untuk membangun gambaran yang lebih komprehensif.
Untuk ekosistem Web3, data yang dapat diandalkan dan otentik juga diperlukan di rantai untuk mendukung produk keuangan baru. Ketika aset yang lebih inovatif ditokenisasi, antarmuka data yang fleksibel dan dapat diandalkan diperlukan untuk mendukung pengembangan produk dan manajemen risiko, memungkinkan kontrak pintar untuk dieksekusi berdasarkan data real-time yang dapat diverifikasi.
Selain itu, kasus penggunaan dalam penelitian ilmiah, IoT, dan bidang lainnya menunjukkan permintaan yang melonjak untuk data yang beragam, otentik, dan real-time. Sistem tradisional mungkin kesulitan mengatasi volume data yang terus meningkat dan tuntutan yang selalu berubah.
Ekosistem data tipikal mencakup pengumpulan data, penyimpanan, pemrosesan, analisis, dan aplikasi. Model terpusat ditandai dengan pengumpulan dan penyimpanan data terpusat, dikelola oleh tim IT inti dengan kontrol akses yang ketat. Misalnya, ekosistem data Google mencakup berbagai sumber data seperti mesin pencari, Gmail, dan sistem operasi Android. Platform-platform ini mengumpulkan data pengguna, menyimpannya di pusat data yang didistribusikan secara global, dan memprosesnya menggunakan algoritma untuk mendukung pengembangan dan optimasi berbagai produk dan layanan.
Di pasar keuangan, LSEG (sebelumnya Refinitiv) mengumpulkan data real-time dan historis dari bursa global, bank, dan lembaga keuangan utama, sambil menggunakan jaringan Reuters News miliknya untuk mengumpulkan berita terkait pasar. Mereka memproses informasi ini menggunakan algoritma dan model miliknya untuk menghasilkan produk analisis dan penilaian risiko sebagai layanan tambahan bernilai.
(Sumber: kdnuggets.com)
Sementara arsitektur data tradisional efektif dalam layanan profesional, batasan model terpusat menjadi semakin jelas, terutama dalam mencakup sumber data baru, transparansi, dan perlindungan privasi pengguna. Berikut adalah beberapa masalah utama:
Sebagai contoh, peristiwa GameStop 2021 mengungkapkan keterbatasan penyedia data keuangan tradisional dalam menganalisis sentimen media sosial. Sentimen investor di platform seperti Reddit dengan cepat mempengaruhi tren pasar, tetapi terminal data seperti Bloomberg dan Reuters gagal menangkap dinamika ini tepat waktu, sehingga menyebabkan proyeksi pasar terlambat.
Di luar masalah-masalah ini, penyedia data tradisional menghadapi tantangan terkait efisiensi biaya dan fleksibilitas. Meskipun mereka sedang aktif mengatasi masalah-masalah ini, teknologi Web3 yang muncul memberikan perspektif dan kemungkinan baru untuk mengatasinya.
Sejak diluncurkannya solusi penyimpanan terdesentralisasi seperti IPFS (InterPlanetary File System) pada tahun 2014, sejumlah proyek yang muncul bertujuan untuk mengatasi keterbatasan ekosistem data tradisional. Solusi data terdesentralisasi telah berkembang menjadi ekosistem berlapis-lapis yang saling terhubung yang mencakup semua tahap siklus hidup data, termasuk generasi data, penyimpanan, pertukaran, pemrosesan dan analisis data, verifikasi dan keamanan, serta privasi dan kepemilikan.
Dengan peningkatan pertukaran dan pemanfaatan data, memastikan keaslian, kepercayaan, dan privasi telah menjadi hal yang kritis. Hal ini mendorong ekosistem Web3 untuk berinovasi dalam verifikasi data dan perlindungan privasi, yang mengarah pada solusi-solusi terobosan.
Banyak teknologi Web3 dan proyek asli yang fokus pada mengatasi masalah otentikasi data dan perlindungan privasi. Selain adopsi teknologi seperti Zero-Knowledge Proofs (ZK) dan Multi-Party Computation (MPC), TLS Notary telah muncul sebagai metode verifikasi baru yang patut diperhatikan.
Pengenalan tentang TLS Notary
Protokol Keamanan Lapisan Transport (TLS) adalah protokol enkripsi yang banyak digunakan untuk komunikasi jaringan. Tujuan utamanya adalah untuk memastikan keamanan, integritas, dan kerahasiaan transmisi data antara klien dan server. TLS adalah standar enkripsi umum dalam komunikasi jaringan modern, diterapkan dalam skenario seperti HTTPS, email, dan pesan instan.
(Prinsip Enkripsi TLS, Sumber: TechTarget)
Ketika TLS Notary pertama kali diperkenalkan satu dekade yang lalu, tujuannya adalah untuk memverifikasi keaslian sesi TLS dengan memperkenalkan pihak ketiga "notaris" di luar klien (prover) dan server.
Dengan teknologi pembelahan kunci, kunci utama sesi TLS dibagi menjadi dua bagian, dipegang secara terpisah oleh klien dan notaris. Desain ini memungkinkan notaris untuk berpartisipasi sebagai pihak ketiga terpercaya dalam proses verifikasi tanpa mengakses konten komunikasi sebenarnya. Mekanisme ini bertujuan untuk mendeteksi serangan man-in-the-middle, mencegah sertifikat palsu, dan memastikan bahwa data komunikasi tidak dimanipulasi selama transmisi. Ini juga memungkinkan pihak ketiga terpercaya untuk mengonfirmasi legitimasi komunikasi sambil melindungi privasi.
Dengan demikian, TLS Notary menawarkan verifikasi data yang aman dan efektif dalam menyeimbangkan kebutuhan verifikasi dengan perlindungan privasi.
Pada tahun 2022, proyek TLS Notary diubah strukturnya oleh laboratorium riset Privacy and Scaling Exploration (PSE) dari Ethereum Foundation. Versi baru dari protokol TLS Notary ditulis ulang dari awal dalam bahasa pemrograman Rust dan diintegrasikan dengan protokol kriptografi yang lebih canggih seperti MPC. Pembaruan ini memungkinkan pengguna untuk membuktikan keaslian data yang diterima dari server kepada pihak ketiga tanpa harus mengungkapkan konten data. Sementara mempertahankan kemampuan verifikasi inti, TLS Notary baru secara signifikan meningkatkan perlindungan privasi, menjadikannya lebih sesuai untuk persyaratan privasi data saat ini dan masa depan.
Dalam beberapa tahun terakhir, teknologi TLS Notary terus berkembang, menghasilkan berbagai turunan yang lebih meningkatkan kemampuan privasi dan verifikasinya:
Proyek Web3 memanfaatkan teknologi kriptografi ini untuk meningkatkan verifikasi data dan perlindungan privasi, menangani masalah seperti monopoli data, silo, dan transmisi terpercaya. Pengguna dapat memverifikasi kepemilikan akun media sosial, catatan belanja untuk pinjaman keuangan, riwayat kredit perbankan, latar belakang profesional, dan kredensial akademis secara aman tanpa mengorbankan privasi mereka. Contohnya termasuk:
(Proyek yang Bekerja pada Oracle TLS, Sumber: Bastian Wetzel)
Verifikasi data dalam Web3 adalah tautan penting dalam ekosistem data, dengan prospek aplikasi yang luas. Berkembangnya ekosistem ini mengarahkan ekonomi digital menuju model yang lebih terbuka, dinamis, dan berpusat pada pengguna. Namun, pengembangan teknologi verifikasi keaslian hanya merupakan awal dari membangun infrastruktur data generasi berikutnya.
Beberapa proyek telah menggabungkan teknologi verifikasi data yang disebutkan di atas dengan eksplorasi lebih lanjut pada ekosistem data hulu, seperti pelacakan data, pengumpulan data terdistribusi, dan transmisi terpercaya. Di bawah ini, kami menyoroti tiga proyek perwakilan—OpenLayer, Grass, dan Vana—yang menunjukkan potensi unik dalam membangun infrastruktur data generasi mendatang.
OpenLayer, salah satu proyek dari a16z Crypto 2024 Spring Startup Accelerator, adalah lapisan data otentik modular pertama. Tujuannya adalah menyediakan solusi modular inovatif untuk mengkoordinasikan pengumpulan data, verifikasi, dan transformasi, memenuhi kebutuhan perusahaan Web2 dan Web3. OpenLayer telah mendapatkan dukungan dari dana terkemuka dan investor malaikat, termasuk Geometry Ventures dan LongHash Ventures.
Lapisan data tradisional menghadapi banyak tantangan: kurangnya mekanisme verifikasi yang dapat diandalkan, ketergantungan pada arsitektur terpusat yang membatasi aksesibilitas, kurangnya interoperabilitas dan aliran antara sistem yang berbeda, serta absennya mekanisme distribusi nilai data yang adil.
Masalah yang lebih spesifik adalah semakin langkanya data pelatihan untuk kecerdasan buatan. Di internet publik, banyak situs web kini menerapkan langkah-langkah anti-pencabutan untuk mencegah pencabutan data dalam skala besar oleh perusahaan kecerdasan buatan. Di data properti pribadi, situasinya bahkan lebih kompleks. Data berharga sering disimpan dengan cara yang dilindungi privasi karena sifatnya yang sensitif, kurangnya mekanisme insentif yang efektif. Pengguna tidak dapat dengan aman memonetisasi data pribadi mereka dan oleh karena itu enggan untuk berbagi informasi sensitif.
Untuk mengatasi masalah ini, OpenLayer menggabungkan teknologi verifikasi data untuk membangun Data Layer Otoritatif Modular. Melalui desentralisasi dan insentif ekonomi, OpenLayer mengoordinasikan proses pengumpulan, verifikasi, dan transformasi data, menyediakan infrastruktur data yang lebih aman, efisien, dan fleksibel untuk perusahaan Web2 dan Web3.
OpenLayer menyediakan platform modular yang menyederhanakan proses pengumpulan data, verifikasi yang dapat dipercaya, dan transformasi.
a) OpenNodes
OpenNodes adalah komponen inti yang bertanggung jawab atas pengumpulan data terdesentralisasi dalam ekosistem OpenLayer. Melalui aplikasi seluler, ekstensi browser, dan saluran lainnya, pengguna dapat mengumpulkan data. Operator/node yang berbeda dapat mengoptimalkan imbalan mereka dengan melakukan tugas yang paling sesuai dengan spesifikasi perangkat keras mereka.
OpenNodes mendukung tiga jenis data utama:
Pengembang dapat dengan mudah menambahkan jenis data baru, menentukan sumber data, dan menentukan persyaratan dan metode pengambilan. Pengguna dapat menyediakan data yang anonim sebagai imbalan. Desain ini memungkinkan sistem untuk terus berkembang untuk memenuhi permintaan data baru. Sumber data yang beragam membuat OpenLayer cocok untuk berbagai skenario aplikasi dan menurunkan ambang batas untuk penyediaan data.
b) OpenValidators
OpenValidators menangani verifikasi data yang dikumpulkan, memungkinkan pengguna data untuk mengkonfirmasi keakuratan data yang diberikan oleh pengguna terhadap sumbernya. Metode verifikasi menggunakan bukti kriptografis, dan hasilnya dapat divalidasi secara retrospektif. Beberapa penyedia dapat menawarkan layanan verifikasi untuk jenis bukti yang sama, memungkinkan pengembang untuk memilih penyedia yang paling sesuai untuk kebutuhan mereka.
Dalam kasus penggunaan awal, terutama untuk data publik atau pribadi dari API internet, OpenLayer menggunakan TLS Notary sebagai solusi verifikasi. Ini mengekspor data dari aplikasi web apa pun dan memverifikasi keasliannya tanpa mengorbankan privasi.
Selain TLS Notary, berkat desain modularnya, sistem verifikasi dapat dengan mudah mengintegrasikan metode lain untuk menyesuaikan beragam data dan kebutuhan verifikasi, termasuk:
c) OpenConnect
OpenConnect adalah modul yang bertanggung jawab untuk transformasi data dan kegunaan dalam ekosistem OpenLayer. Ini memproses data dari berbagai sumber, memastikan interoperabilitas di seluruh sistem yang berbeda untuk memenuhi persyaratan aplikasi yang beragam. Sebagai contoh:
Menyediakan anonimisasi data yang menjaga privasi akun pribadi pengguna sambil meningkatkan keamanan saat berbagi data untuk mengurangi kebocoran dan penyalahgunaan.
Untuk memenuhi tuntutan data real-time aplikasi AI dan blockchain, OpenConnect mendukung transformasi data real-time yang efisien.
Saat ini, melalui integrasi dengan EigenLayer, operator OpenLayer AVS (Active Validation Service) memantau tugas permintaan data, mengumpulkan data, memverifikasinya, dan melaporkan hasil kembali ke sistem. Operator bertaruh atau meletakkan kembali aset pada EigenLayer untuk memberikan jaminan ekonomi untuk tindakan mereka. Perilaku jahat akan mengakibatkan pemotongan aset. Sebagai salah satu proyek AVS terawal pada mainnet EigenLayer, OpenLayer telah menarik lebih dari 50 operator dan aset yang di letakkan kembali senilai $4 miliar.
Grass, proyek unggulan yang dikembangkan oleh Wynd Network, dirancang untuk menciptakan crawler jaringan terdesentralisasi dan platform data pelatihan AI. Pada akhir 2023, Grass menyelesaikan putaran pendanaan awal sebesar $3.5 juta yang dipimpin oleh Polychain Capital dan Tribe Capital. Pada September 2024, Grass mendapatkan pendanaan Seri A, dengan jumlah $5 juta yang dipimpin oleh HackVC dan partisipasi tambahan dari Polychain, Delphi, Lattice, dan Brevan Howard.
Saat pelatihan AI semakin bergantung pada beragam sumber data yang luas, Grass mengatasi kebutuhan ini dengan menciptakan jaringan node web crawler terdistribusi. Jaringan ini memanfaatkan infrastruktur fisik terdesentralisasi dan bandwidth pengguna yang tidak terpakai untuk mengumpulkan dan menyediakan dataset yang dapat diverifikasi untuk pelatihan AI. Node-node ini mengarahkan permintaan web melalui koneksi internet pengguna, mengakses situs web publik dan menyusun dataset terstruktur. Pembersihan data awal dan formatting dilakukan menggunakan teknologi komputasi tepi, memastikan keluaran berkualitas tinggi.
Grass memanfaatkan arsitektur Solana Layer 2 Data Rollup untuk meningkatkan efisiensi pemrosesan. Validator menerima, memverifikasi, dan memproses transaksi web dari node, menghasilkan bukti Zero-Knowledge (ZK) untuk mengkonfirmasi keaslian data. Data yang diverifikasi disimpan di Grass Data Ledger (L2), dengan bukti yang sesuai terhubung ke blockchain Solana L1.
a) Node Rumput:
Pengguna menginstal aplikasi Grass atau ekstensi browser, memungkinkan bandwidth menganggur mereka untuk menggerakkan web crawling terdesentralisasi. Node-node mengarahkan permintaan web, mengakses situs web publik, dan menyusun dataset terstruktur. Dengan menggunakan komputasi tepi, mereka melakukan pembersihan data awal dan formatting. Pengguna mendapatkan token GRASS sebagai imbalan berdasarkan kontribusi bandwidth dan volume data yang disediakan.
b) Router:
Bertindak sebagai perantara, router menghubungkan node Grass ke validator. Mereka mengelola jaringan node, dan meneruskan bandwidth, dan menerima insentif berdasarkan total bandwidth yang diverifikasi yang mereka fasilitasi.
c) Validator:
Validator menerima dan memverifikasi transaksi web yang disiarkan oleh router. Mereka menghasilkan bukti ZK untuk mengonfirmasi kevalidan data, memanfaatkan set kunci unik untuk membentuk koneksi TLS yang aman dan paket enkripsi. Sementara Grass saat ini menggunakan validator terpusat, rencana sedang disusun untuk beralih ke komite validator terdesentralisasi.
d) Prosesor ZK:
Prosesor-prosesor ini memvalidasi bukti data sesi node dan mengelompokkan semua bukti permintaan web untuk diserahkan ke Lapisan 1 Solana.
e) Grass Data Ledger (Grass L2):
Ledger Data Grass menyimpan rangkaian data lengkap dan menghubungkannya ke bukti L1 yang sesuai di Solana, memastikan transparansi dan jejak
f) Model Penanaman Tepi:
Model-model ini mentransformasi data web yang tidak terstruktur menjadi dataset terstruktur yang cocok untuk pelatihan AI.
Sumber: Rumput
Grass dan OpenLayer berbagi komitmen untuk memanfaatkan jaringan terdistribusi untuk memberikan akses pada perusahaan terhadap data internet terbuka dan data pribadi yang terotentikasi. Keduanya memanfaatkan mekanisme insentif untuk mempromosikan berbagi data dan produksi dataset berkualitas tinggi, tetapi arsitektur teknis dan model bisnis mereka berbeda.
Arsitektur Teknis:
Grass menggunakan arsitektur Solana Layer 2 Data Rollup dengan validasi terpusat, mengandalkan satu validator. Sebagai pengguna awal EigenLayer AVS (Active Validation Service), OpenLayer menggunakan mekanisme validasi terdesentralisasi dengan insentif ekonomi dan hukuman slashing. Desain modularnya menekankan skalabilitas dan fleksibilitas dalam layanan verifikasi data.
Fokus Produk:
Kedua proyek ini memungkinkan pengguna untuk memonetisasi data melalui node, tetapi kasus penggunaan bisnis mereka berbeda:
Grass terutama ditujukan untuk perusahaan AI dan ilmuwan data yang membutuhkan dataset berstruktur dalam skala besar, serta lembaga penelitian dan perusahaan yang membutuhkan data berbasis web. OpenLayer melayani pengembang Web3 yang membutuhkan sumber data di luar rantai, perusahaan AI yang membutuhkan aliran real-time yang dapat diverifikasi, dan bisnis yang mengejar strategi inovatif seperti memverifikasi penggunaan produk pesaing.
Sementara kedua proyek saat ini memiliki niche yang berbeda, fungsionalitas mereka mungkin bertemu seiring dengan perkembangan industri:
Kedua proyek juga dapat mengintegrasikan pelabelan data sebagai langkah kritis untuk pelatihan dataset. Grass, dengan jaringan luasnya yang terdiri dari lebih dari 2,2 juta node aktif, dapat dengan cepat menerapkan layanan Penguatan Pembelajaran dengan Umpan Balik Manusia (RLHF) untuk mengoptimalkan model AI. OpenLayer, dengan keahliannya dalam verifikasi data real-time dan pemrosesan, dapat menjaga keunggulan dalam kredibilitas dan kualitas data, khususnya untuk dataset pribadi.
Meskipun ada potensi tumpang tindih, kekuatan unik dan pendekatan teknologi mereka mungkin memungkinkan mereka mendominasi niche yang berbeda dalam ekosistem data terdesentralisasi.
(Sumber: IOSG, David)
Vana adalah jaringan kolam data yang berorientasi pada pengguna yang dirancang untuk menyediakan data berkualitas tinggi untuk AI dan aplikasi terkait. Dibandingkan dengan OpenLayer dan Grass, Vana mengambil pendekatan teknologi dan bisnis yang berbeda. Pada September 2024, Vana mengamankan $5 juta pendanaan yang dipimpin oleh Coinbase Ventures, setelah putaran Seri A sebesar $18 juta di mana Paradigm bertindak sebagai investor utama, dengan partisipasi dari Polychain dan Casey Caruso.
Awalnya diluncurkan pada tahun 2018 sebagai proyek penelitian MIT, Vana adalah blockchain Layer 1 yang didedikasikan untuk data pengguna pribadi. Inovasinya dalam kepemilikan data dan distribusi nilai memungkinkan pengguna untuk mendapatkan keuntungan dari model AI yang dilatih dengan data mereka. Vana mencapai hal ini melalui Trustless, private, dan Data Liquidity Pools yang dapat diatribusikan (DLPs) dan mekanisme Proof of Contribution inovatif yang memfasilitasi aliran dan monetisasi data pribadi.
Vana memperkenalkan konsep unik Data Liquidity Pools (DLP), yang menjadi inti dari jaringan Vana. Setiap DLP adalah jaringan peer-to-peer independen yang mengumpulkan jenis aset data tertentu. Pengguna dapat mengunggah data pribadi mereka—seperti catatan belanja, kebiasaan penjelajahan, dan aktivitas media sosial—ke dalam DLP yang ditentukan dan memutuskan apakah akan memberikan izin penggunaan pihak ketiga tertentu.
Data dalam kolam ini menjalani de-identifikasi untuk melindungi privasi pengguna sambil tetap dapat digunakan untuk aplikasi komersial, seperti pelatihan model AI dan riset pasar. Pengguna yang menyumbangkan data ke DLP ini akan mendapatkan imbalan dalam bentuk token DLP yang sesuai. Token-token ini mewakili kontribusi pengguna ke dalam kolam, memberikan hak tata kelola, dan memberi pengguna hak atas bagian dari keuntungan di masa depan.
Tidak seperti penjualan data sekali pakai tradisional, Vana memungkinkan data untuk terus berpartisipasi dalam siklus ekonomi, memungkinan pengguna untuk menerima imbalan yang berkelanjutan dengan pelacakan penggunaan yang transparan dan tervisualisasi.
Mekanisme Proof of Contribution (PoC) merupakan dasar pendekatan Vana dalam memastikan kualitas data. Setiap DLP dapat menentukan fungsi PoC yang unik sesuai dengan karakteristiknya, memverifikasi keaslian dan kelengkapan data yang diajukan, serta mengevaluasi kontribusinya dalam meningkatkan kinerja model AI. Mekanisme ini mengukur kontribusi pengguna, mencatatnya untuk alokasi imbalan. Mirip dengan konsep 'Proof of Work' dalam cryptocurrency, PoC memberikan imbalan kepada pengguna berdasarkan kualitas, jumlah, dan frekuensi penggunaan data. Kontrak pintar mengotomatisasi proses ini, memastikan kontributor diberi kompensasi dengan adil dan transparan.
Lapisan inti ini memungkinkan kontribusi, verifikasi, dan pencatatan data ke dalam DLP, mengubah data menjadi aset digital yang dapat ditransfer di atas rantai. Pembuat DLP menyebarkan kontrak pintar untuk menetapkan tujuan, metode verifikasi, dan parameter kontribusi. Kontributor data mengirimkan data untuk divalidasi, dan modul PoC mengevaluasi kualitas data dan memberikan hak pengelolaan dan imbalan.
Berfungsi sebagai lapisan aplikasi Vana, platform ini memfasilitasi kolaborasi antara kontributor data dan pengembang. Ini menyediakan infrastruktur untuk membangun model pelatihan AI terdistribusi dan AI DApps menggunakan likuiditas di DLPs.
Ledger terdesentralisasi yang mendasari ekosistem Vana, Connectome bertindak sebagai peta aliran data real-time. Ini mencatat semua transaksi data real-time menggunakan konsensus Proof of Stake, memastikan transfer efisien token DLP dan memungkinkan akses data lintas-DLP. Sepenuhnya kompatibel dengan EVM, ini memungkinkan interoperabilitas dengan jaringan, protokol, dan aplikasi DeFi lainnya.
(Sumber: Vana)
Vana memberikan pendekatan baru dengan fokus pada likuiditas dan pemberdayaan data pengguna. Model pertukaran data terdesentralisasi ini tidak hanya mendukung pelatihan AI dan pasar data tetapi juga memungkinkan berbagi data lintas platform dan kepemilikan yang mulus di ekosistem Web3. Pada akhirnya, ini mendorong internet terbuka di mana pengguna dapat memiliki dan mengelola data mereka serta produk cerdas yang dibuat darinya.
Pada tahun 2006, ilmuwan data Clive Humby dengan terkenal mengatakan, "Data adalah minyak baru." Selama dua dekade terakhir, kita telah menyaksikan evolusi teknologi yang cepat yang "memurnikan" sumber daya ini, seperti analitik big data dan pembelajaran mesin, yang telah membuka nilai yang belum pernah terjadi sebelumnya dari data. Menurut IDC, pada tahun 2025, ruang data global akan berkembang menjadi 163 ZB, dengan sebagian besar berasal dari individu. Ketika IoT, perangkat wearable, kecerdasan buatan, dan layanan yang dipersonalisasi menjadi lebih luas, sebagian besar data yang diperlukan untuk penggunaan komersial akan berasal dari individu.
Solusi data Web3 mengatasi batasan infrastruktur tradisional dengan memanfaatkan jaringan node terdistribusi. Jaringan ini memungkinkan pengumpulan data yang lebih luas dan efisien sambil meningkatkan aksesibilitas dan verifikasi waktu nyata dari dataset tertentu. Teknologi Web3 memastikan keaslian dan integritas data sambil melindungi privasi pengguna, mendorong model pemanfaatan data yang lebih adil. Arsitektur terdesentralisasi ini mendemokratisasi akses data dan memberdayakan pengguna untuk berbagi manfaat ekonomi dari ekonomi data.
Baik OpenLayer maupun Grass mengandalkan model pengguna-node untuk meningkatkan proses pengumpulan data tertentu, sementara Vana memonetisasi data pengguna pribadi. Pendekatan-pendekatan ini tidak hanya meningkatkan efisiensi tetapi juga memungkinkan pengguna biasa untuk berpartisipasi dalam nilai yang diciptakan oleh ekonomi data, menciptakan situasi saling menguntungkan bagi pengguna dan pengembang.
Melalui tokenomics, solusi data Web3 mendesain ulang model insentif, membentuk mekanisme distribusi nilai yang lebih adil. Sistem-sistem ini menarik partisipasi pengguna yang signifikan, sumber daya perangkat keras, dan investasi modal, mengoptimalkan operasi seluruh jaringan data.
Solusi Web3 menawarkan modularitas dan skalabilitas, memungkinkan untuk iterasi teknologi dan ekspansi ekosistem. Misalnya: desain modular OpenLayer memberikan fleksibilitas untuk kemajuan di masa depan; arsitektur terdistribusi Grass mengoptimalkan pelatihan model AI dengan menyediakan dataset yang beragam dan berkualitas tinggi.
Dari generasi data, penyimpanan, dan verifikasi hingga pertukaran dan analisis, solusi yang didukung oleh Web3 mengatasi kekurangan infrastruktur tradisional. Dengan memungkinkan pengguna memonetisasi data mereka, solusi-solusi ini secara mendasar mengubah ekonomi data.
Saat teknologi berkembang dan skenario aplikasi meluas, lapisan data terdesentralisasi siap menjadi pondasi infrastruktur generasi mendatang. Mereka akan mendukung berbagai industri yang didorong data sambil memberdayakan pengguna untuk mengambil kontrol atas data dan potensi ekonominya.
Kami sebelumnya membahas bagaimana AI dan Web3 dapat melengkapi satu sama lain di berbagai industri seperti jaringan komputasi, platform perantara, dan aplikasi konsumen. Ketika fokus pada sumber daya data sebagai bidang vertikal, proyek Web baru menawarkan kemungkinan baru untuk perolehan, berbagi, dan pemanfaatan data.
Data telah menjadi pendorong utama inovasi dan pengambilan keputusan di seluruh industri. UBS memprediksi bahwa volume data global akan tumbuh sepuluh kali lipat dari 2020 hingga 2030, mencapai 660 ZB. Pada tahun 2025, setiap individu secara global diharapkan menghasilkan 463 EB (Exabytes, 1 EB = 1 miliar GB) data setiap hari. Pasar Data-as-a-Service (DaaS) berkembang pesat. Menurut Grand View Research, pasar DaaS global bernilai $14.36 miliar pada tahun 2023 dan diperkirakan akan tumbuh pada tingkat pertumbuhan tahunan gabungan (CAGR) sebesar 28.1%, mencapai $76.8 miliar pada tahun 2030.
Pelatihan model AI sangat bergantung pada kumpulan data besar untuk mengidentifikasi pola dan menyesuaikan parameter. Setelah pelatihan, kumpulan data juga diperlukan untuk menguji kinerja model dan kemampuan generalisasi. Selain itu, agen AI, sebagai bentuk aplikasi cerdas yang muncul, memerlukan sumber data real-time dan dapat diandalkan untuk memastikan pengambilan keputusan yang akurat dan pelaksanaan tugas.
(Sumber: Leewayhertz)
Permintaan untuk analitik bisnis juga menjadi lebih beragam dan luas, menjadi alat inti yang mendorong inovasi perusahaan. Misalnya, platform media sosial dan perusahaan riset pasar membutuhkan data perilaku pengguna yang dapat diandalkan untuk merumuskan strategi dan menganalisis tren, mengintegrasikan data yang beragam dari berbagai platform sosial untuk membangun gambaran yang lebih komprehensif.
Untuk ekosistem Web3, data yang dapat diandalkan dan otentik juga diperlukan di rantai untuk mendukung produk keuangan baru. Ketika aset yang lebih inovatif ditokenisasi, antarmuka data yang fleksibel dan dapat diandalkan diperlukan untuk mendukung pengembangan produk dan manajemen risiko, memungkinkan kontrak pintar untuk dieksekusi berdasarkan data real-time yang dapat diverifikasi.
Selain itu, kasus penggunaan dalam penelitian ilmiah, IoT, dan bidang lainnya menunjukkan permintaan yang melonjak untuk data yang beragam, otentik, dan real-time. Sistem tradisional mungkin kesulitan mengatasi volume data yang terus meningkat dan tuntutan yang selalu berubah.
Ekosistem data tipikal mencakup pengumpulan data, penyimpanan, pemrosesan, analisis, dan aplikasi. Model terpusat ditandai dengan pengumpulan dan penyimpanan data terpusat, dikelola oleh tim IT inti dengan kontrol akses yang ketat. Misalnya, ekosistem data Google mencakup berbagai sumber data seperti mesin pencari, Gmail, dan sistem operasi Android. Platform-platform ini mengumpulkan data pengguna, menyimpannya di pusat data yang didistribusikan secara global, dan memprosesnya menggunakan algoritma untuk mendukung pengembangan dan optimasi berbagai produk dan layanan.
Di pasar keuangan, LSEG (sebelumnya Refinitiv) mengumpulkan data real-time dan historis dari bursa global, bank, dan lembaga keuangan utama, sambil menggunakan jaringan Reuters News miliknya untuk mengumpulkan berita terkait pasar. Mereka memproses informasi ini menggunakan algoritma dan model miliknya untuk menghasilkan produk analisis dan penilaian risiko sebagai layanan tambahan bernilai.
(Sumber: kdnuggets.com)
Sementara arsitektur data tradisional efektif dalam layanan profesional, batasan model terpusat menjadi semakin jelas, terutama dalam mencakup sumber data baru, transparansi, dan perlindungan privasi pengguna. Berikut adalah beberapa masalah utama:
Sebagai contoh, peristiwa GameStop 2021 mengungkapkan keterbatasan penyedia data keuangan tradisional dalam menganalisis sentimen media sosial. Sentimen investor di platform seperti Reddit dengan cepat mempengaruhi tren pasar, tetapi terminal data seperti Bloomberg dan Reuters gagal menangkap dinamika ini tepat waktu, sehingga menyebabkan proyeksi pasar terlambat.
Di luar masalah-masalah ini, penyedia data tradisional menghadapi tantangan terkait efisiensi biaya dan fleksibilitas. Meskipun mereka sedang aktif mengatasi masalah-masalah ini, teknologi Web3 yang muncul memberikan perspektif dan kemungkinan baru untuk mengatasinya.
Sejak diluncurkannya solusi penyimpanan terdesentralisasi seperti IPFS (InterPlanetary File System) pada tahun 2014, sejumlah proyek yang muncul bertujuan untuk mengatasi keterbatasan ekosistem data tradisional. Solusi data terdesentralisasi telah berkembang menjadi ekosistem berlapis-lapis yang saling terhubung yang mencakup semua tahap siklus hidup data, termasuk generasi data, penyimpanan, pertukaran, pemrosesan dan analisis data, verifikasi dan keamanan, serta privasi dan kepemilikan.
Dengan peningkatan pertukaran dan pemanfaatan data, memastikan keaslian, kepercayaan, dan privasi telah menjadi hal yang kritis. Hal ini mendorong ekosistem Web3 untuk berinovasi dalam verifikasi data dan perlindungan privasi, yang mengarah pada solusi-solusi terobosan.
Banyak teknologi Web3 dan proyek asli yang fokus pada mengatasi masalah otentikasi data dan perlindungan privasi. Selain adopsi teknologi seperti Zero-Knowledge Proofs (ZK) dan Multi-Party Computation (MPC), TLS Notary telah muncul sebagai metode verifikasi baru yang patut diperhatikan.
Pengenalan tentang TLS Notary
Protokol Keamanan Lapisan Transport (TLS) adalah protokol enkripsi yang banyak digunakan untuk komunikasi jaringan. Tujuan utamanya adalah untuk memastikan keamanan, integritas, dan kerahasiaan transmisi data antara klien dan server. TLS adalah standar enkripsi umum dalam komunikasi jaringan modern, diterapkan dalam skenario seperti HTTPS, email, dan pesan instan.
(Prinsip Enkripsi TLS, Sumber: TechTarget)
Ketika TLS Notary pertama kali diperkenalkan satu dekade yang lalu, tujuannya adalah untuk memverifikasi keaslian sesi TLS dengan memperkenalkan pihak ketiga "notaris" di luar klien (prover) dan server.
Dengan teknologi pembelahan kunci, kunci utama sesi TLS dibagi menjadi dua bagian, dipegang secara terpisah oleh klien dan notaris. Desain ini memungkinkan notaris untuk berpartisipasi sebagai pihak ketiga terpercaya dalam proses verifikasi tanpa mengakses konten komunikasi sebenarnya. Mekanisme ini bertujuan untuk mendeteksi serangan man-in-the-middle, mencegah sertifikat palsu, dan memastikan bahwa data komunikasi tidak dimanipulasi selama transmisi. Ini juga memungkinkan pihak ketiga terpercaya untuk mengonfirmasi legitimasi komunikasi sambil melindungi privasi.
Dengan demikian, TLS Notary menawarkan verifikasi data yang aman dan efektif dalam menyeimbangkan kebutuhan verifikasi dengan perlindungan privasi.
Pada tahun 2022, proyek TLS Notary diubah strukturnya oleh laboratorium riset Privacy and Scaling Exploration (PSE) dari Ethereum Foundation. Versi baru dari protokol TLS Notary ditulis ulang dari awal dalam bahasa pemrograman Rust dan diintegrasikan dengan protokol kriptografi yang lebih canggih seperti MPC. Pembaruan ini memungkinkan pengguna untuk membuktikan keaslian data yang diterima dari server kepada pihak ketiga tanpa harus mengungkapkan konten data. Sementara mempertahankan kemampuan verifikasi inti, TLS Notary baru secara signifikan meningkatkan perlindungan privasi, menjadikannya lebih sesuai untuk persyaratan privasi data saat ini dan masa depan.
Dalam beberapa tahun terakhir, teknologi TLS Notary terus berkembang, menghasilkan berbagai turunan yang lebih meningkatkan kemampuan privasi dan verifikasinya:
Proyek Web3 memanfaatkan teknologi kriptografi ini untuk meningkatkan verifikasi data dan perlindungan privasi, menangani masalah seperti monopoli data, silo, dan transmisi terpercaya. Pengguna dapat memverifikasi kepemilikan akun media sosial, catatan belanja untuk pinjaman keuangan, riwayat kredit perbankan, latar belakang profesional, dan kredensial akademis secara aman tanpa mengorbankan privasi mereka. Contohnya termasuk:
(Proyek yang Bekerja pada Oracle TLS, Sumber: Bastian Wetzel)
Verifikasi data dalam Web3 adalah tautan penting dalam ekosistem data, dengan prospek aplikasi yang luas. Berkembangnya ekosistem ini mengarahkan ekonomi digital menuju model yang lebih terbuka, dinamis, dan berpusat pada pengguna. Namun, pengembangan teknologi verifikasi keaslian hanya merupakan awal dari membangun infrastruktur data generasi berikutnya.
Beberapa proyek telah menggabungkan teknologi verifikasi data yang disebutkan di atas dengan eksplorasi lebih lanjut pada ekosistem data hulu, seperti pelacakan data, pengumpulan data terdistribusi, dan transmisi terpercaya. Di bawah ini, kami menyoroti tiga proyek perwakilan—OpenLayer, Grass, dan Vana—yang menunjukkan potensi unik dalam membangun infrastruktur data generasi mendatang.
OpenLayer, salah satu proyek dari a16z Crypto 2024 Spring Startup Accelerator, adalah lapisan data otentik modular pertama. Tujuannya adalah menyediakan solusi modular inovatif untuk mengkoordinasikan pengumpulan data, verifikasi, dan transformasi, memenuhi kebutuhan perusahaan Web2 dan Web3. OpenLayer telah mendapatkan dukungan dari dana terkemuka dan investor malaikat, termasuk Geometry Ventures dan LongHash Ventures.
Lapisan data tradisional menghadapi banyak tantangan: kurangnya mekanisme verifikasi yang dapat diandalkan, ketergantungan pada arsitektur terpusat yang membatasi aksesibilitas, kurangnya interoperabilitas dan aliran antara sistem yang berbeda, serta absennya mekanisme distribusi nilai data yang adil.
Masalah yang lebih spesifik adalah semakin langkanya data pelatihan untuk kecerdasan buatan. Di internet publik, banyak situs web kini menerapkan langkah-langkah anti-pencabutan untuk mencegah pencabutan data dalam skala besar oleh perusahaan kecerdasan buatan. Di data properti pribadi, situasinya bahkan lebih kompleks. Data berharga sering disimpan dengan cara yang dilindungi privasi karena sifatnya yang sensitif, kurangnya mekanisme insentif yang efektif. Pengguna tidak dapat dengan aman memonetisasi data pribadi mereka dan oleh karena itu enggan untuk berbagi informasi sensitif.
Untuk mengatasi masalah ini, OpenLayer menggabungkan teknologi verifikasi data untuk membangun Data Layer Otoritatif Modular. Melalui desentralisasi dan insentif ekonomi, OpenLayer mengoordinasikan proses pengumpulan, verifikasi, dan transformasi data, menyediakan infrastruktur data yang lebih aman, efisien, dan fleksibel untuk perusahaan Web2 dan Web3.
OpenLayer menyediakan platform modular yang menyederhanakan proses pengumpulan data, verifikasi yang dapat dipercaya, dan transformasi.
a) OpenNodes
OpenNodes adalah komponen inti yang bertanggung jawab atas pengumpulan data terdesentralisasi dalam ekosistem OpenLayer. Melalui aplikasi seluler, ekstensi browser, dan saluran lainnya, pengguna dapat mengumpulkan data. Operator/node yang berbeda dapat mengoptimalkan imbalan mereka dengan melakukan tugas yang paling sesuai dengan spesifikasi perangkat keras mereka.
OpenNodes mendukung tiga jenis data utama:
Pengembang dapat dengan mudah menambahkan jenis data baru, menentukan sumber data, dan menentukan persyaratan dan metode pengambilan. Pengguna dapat menyediakan data yang anonim sebagai imbalan. Desain ini memungkinkan sistem untuk terus berkembang untuk memenuhi permintaan data baru. Sumber data yang beragam membuat OpenLayer cocok untuk berbagai skenario aplikasi dan menurunkan ambang batas untuk penyediaan data.
b) OpenValidators
OpenValidators menangani verifikasi data yang dikumpulkan, memungkinkan pengguna data untuk mengkonfirmasi keakuratan data yang diberikan oleh pengguna terhadap sumbernya. Metode verifikasi menggunakan bukti kriptografis, dan hasilnya dapat divalidasi secara retrospektif. Beberapa penyedia dapat menawarkan layanan verifikasi untuk jenis bukti yang sama, memungkinkan pengembang untuk memilih penyedia yang paling sesuai untuk kebutuhan mereka.
Dalam kasus penggunaan awal, terutama untuk data publik atau pribadi dari API internet, OpenLayer menggunakan TLS Notary sebagai solusi verifikasi. Ini mengekspor data dari aplikasi web apa pun dan memverifikasi keasliannya tanpa mengorbankan privasi.
Selain TLS Notary, berkat desain modularnya, sistem verifikasi dapat dengan mudah mengintegrasikan metode lain untuk menyesuaikan beragam data dan kebutuhan verifikasi, termasuk:
c) OpenConnect
OpenConnect adalah modul yang bertanggung jawab untuk transformasi data dan kegunaan dalam ekosistem OpenLayer. Ini memproses data dari berbagai sumber, memastikan interoperabilitas di seluruh sistem yang berbeda untuk memenuhi persyaratan aplikasi yang beragam. Sebagai contoh:
Menyediakan anonimisasi data yang menjaga privasi akun pribadi pengguna sambil meningkatkan keamanan saat berbagi data untuk mengurangi kebocoran dan penyalahgunaan.
Untuk memenuhi tuntutan data real-time aplikasi AI dan blockchain, OpenConnect mendukung transformasi data real-time yang efisien.
Saat ini, melalui integrasi dengan EigenLayer, operator OpenLayer AVS (Active Validation Service) memantau tugas permintaan data, mengumpulkan data, memverifikasinya, dan melaporkan hasil kembali ke sistem. Operator bertaruh atau meletakkan kembali aset pada EigenLayer untuk memberikan jaminan ekonomi untuk tindakan mereka. Perilaku jahat akan mengakibatkan pemotongan aset. Sebagai salah satu proyek AVS terawal pada mainnet EigenLayer, OpenLayer telah menarik lebih dari 50 operator dan aset yang di letakkan kembali senilai $4 miliar.
Grass, proyek unggulan yang dikembangkan oleh Wynd Network, dirancang untuk menciptakan crawler jaringan terdesentralisasi dan platform data pelatihan AI. Pada akhir 2023, Grass menyelesaikan putaran pendanaan awal sebesar $3.5 juta yang dipimpin oleh Polychain Capital dan Tribe Capital. Pada September 2024, Grass mendapatkan pendanaan Seri A, dengan jumlah $5 juta yang dipimpin oleh HackVC dan partisipasi tambahan dari Polychain, Delphi, Lattice, dan Brevan Howard.
Saat pelatihan AI semakin bergantung pada beragam sumber data yang luas, Grass mengatasi kebutuhan ini dengan menciptakan jaringan node web crawler terdistribusi. Jaringan ini memanfaatkan infrastruktur fisik terdesentralisasi dan bandwidth pengguna yang tidak terpakai untuk mengumpulkan dan menyediakan dataset yang dapat diverifikasi untuk pelatihan AI. Node-node ini mengarahkan permintaan web melalui koneksi internet pengguna, mengakses situs web publik dan menyusun dataset terstruktur. Pembersihan data awal dan formatting dilakukan menggunakan teknologi komputasi tepi, memastikan keluaran berkualitas tinggi.
Grass memanfaatkan arsitektur Solana Layer 2 Data Rollup untuk meningkatkan efisiensi pemrosesan. Validator menerima, memverifikasi, dan memproses transaksi web dari node, menghasilkan bukti Zero-Knowledge (ZK) untuk mengkonfirmasi keaslian data. Data yang diverifikasi disimpan di Grass Data Ledger (L2), dengan bukti yang sesuai terhubung ke blockchain Solana L1.
a) Node Rumput:
Pengguna menginstal aplikasi Grass atau ekstensi browser, memungkinkan bandwidth menganggur mereka untuk menggerakkan web crawling terdesentralisasi. Node-node mengarahkan permintaan web, mengakses situs web publik, dan menyusun dataset terstruktur. Dengan menggunakan komputasi tepi, mereka melakukan pembersihan data awal dan formatting. Pengguna mendapatkan token GRASS sebagai imbalan berdasarkan kontribusi bandwidth dan volume data yang disediakan.
b) Router:
Bertindak sebagai perantara, router menghubungkan node Grass ke validator. Mereka mengelola jaringan node, dan meneruskan bandwidth, dan menerima insentif berdasarkan total bandwidth yang diverifikasi yang mereka fasilitasi.
c) Validator:
Validator menerima dan memverifikasi transaksi web yang disiarkan oleh router. Mereka menghasilkan bukti ZK untuk mengonfirmasi kevalidan data, memanfaatkan set kunci unik untuk membentuk koneksi TLS yang aman dan paket enkripsi. Sementara Grass saat ini menggunakan validator terpusat, rencana sedang disusun untuk beralih ke komite validator terdesentralisasi.
d) Prosesor ZK:
Prosesor-prosesor ini memvalidasi bukti data sesi node dan mengelompokkan semua bukti permintaan web untuk diserahkan ke Lapisan 1 Solana.
e) Grass Data Ledger (Grass L2):
Ledger Data Grass menyimpan rangkaian data lengkap dan menghubungkannya ke bukti L1 yang sesuai di Solana, memastikan transparansi dan jejak
f) Model Penanaman Tepi:
Model-model ini mentransformasi data web yang tidak terstruktur menjadi dataset terstruktur yang cocok untuk pelatihan AI.
Sumber: Rumput
Grass dan OpenLayer berbagi komitmen untuk memanfaatkan jaringan terdistribusi untuk memberikan akses pada perusahaan terhadap data internet terbuka dan data pribadi yang terotentikasi. Keduanya memanfaatkan mekanisme insentif untuk mempromosikan berbagi data dan produksi dataset berkualitas tinggi, tetapi arsitektur teknis dan model bisnis mereka berbeda.
Arsitektur Teknis:
Grass menggunakan arsitektur Solana Layer 2 Data Rollup dengan validasi terpusat, mengandalkan satu validator. Sebagai pengguna awal EigenLayer AVS (Active Validation Service), OpenLayer menggunakan mekanisme validasi terdesentralisasi dengan insentif ekonomi dan hukuman slashing. Desain modularnya menekankan skalabilitas dan fleksibilitas dalam layanan verifikasi data.
Fokus Produk:
Kedua proyek ini memungkinkan pengguna untuk memonetisasi data melalui node, tetapi kasus penggunaan bisnis mereka berbeda:
Grass terutama ditujukan untuk perusahaan AI dan ilmuwan data yang membutuhkan dataset berstruktur dalam skala besar, serta lembaga penelitian dan perusahaan yang membutuhkan data berbasis web. OpenLayer melayani pengembang Web3 yang membutuhkan sumber data di luar rantai, perusahaan AI yang membutuhkan aliran real-time yang dapat diverifikasi, dan bisnis yang mengejar strategi inovatif seperti memverifikasi penggunaan produk pesaing.
Sementara kedua proyek saat ini memiliki niche yang berbeda, fungsionalitas mereka mungkin bertemu seiring dengan perkembangan industri:
Kedua proyek juga dapat mengintegrasikan pelabelan data sebagai langkah kritis untuk pelatihan dataset. Grass, dengan jaringan luasnya yang terdiri dari lebih dari 2,2 juta node aktif, dapat dengan cepat menerapkan layanan Penguatan Pembelajaran dengan Umpan Balik Manusia (RLHF) untuk mengoptimalkan model AI. OpenLayer, dengan keahliannya dalam verifikasi data real-time dan pemrosesan, dapat menjaga keunggulan dalam kredibilitas dan kualitas data, khususnya untuk dataset pribadi.
Meskipun ada potensi tumpang tindih, kekuatan unik dan pendekatan teknologi mereka mungkin memungkinkan mereka mendominasi niche yang berbeda dalam ekosistem data terdesentralisasi.
(Sumber: IOSG, David)
Vana adalah jaringan kolam data yang berorientasi pada pengguna yang dirancang untuk menyediakan data berkualitas tinggi untuk AI dan aplikasi terkait. Dibandingkan dengan OpenLayer dan Grass, Vana mengambil pendekatan teknologi dan bisnis yang berbeda. Pada September 2024, Vana mengamankan $5 juta pendanaan yang dipimpin oleh Coinbase Ventures, setelah putaran Seri A sebesar $18 juta di mana Paradigm bertindak sebagai investor utama, dengan partisipasi dari Polychain dan Casey Caruso.
Awalnya diluncurkan pada tahun 2018 sebagai proyek penelitian MIT, Vana adalah blockchain Layer 1 yang didedikasikan untuk data pengguna pribadi. Inovasinya dalam kepemilikan data dan distribusi nilai memungkinkan pengguna untuk mendapatkan keuntungan dari model AI yang dilatih dengan data mereka. Vana mencapai hal ini melalui Trustless, private, dan Data Liquidity Pools yang dapat diatribusikan (DLPs) dan mekanisme Proof of Contribution inovatif yang memfasilitasi aliran dan monetisasi data pribadi.
Vana memperkenalkan konsep unik Data Liquidity Pools (DLP), yang menjadi inti dari jaringan Vana. Setiap DLP adalah jaringan peer-to-peer independen yang mengumpulkan jenis aset data tertentu. Pengguna dapat mengunggah data pribadi mereka—seperti catatan belanja, kebiasaan penjelajahan, dan aktivitas media sosial—ke dalam DLP yang ditentukan dan memutuskan apakah akan memberikan izin penggunaan pihak ketiga tertentu.
Data dalam kolam ini menjalani de-identifikasi untuk melindungi privasi pengguna sambil tetap dapat digunakan untuk aplikasi komersial, seperti pelatihan model AI dan riset pasar. Pengguna yang menyumbangkan data ke DLP ini akan mendapatkan imbalan dalam bentuk token DLP yang sesuai. Token-token ini mewakili kontribusi pengguna ke dalam kolam, memberikan hak tata kelola, dan memberi pengguna hak atas bagian dari keuntungan di masa depan.
Tidak seperti penjualan data sekali pakai tradisional, Vana memungkinkan data untuk terus berpartisipasi dalam siklus ekonomi, memungkinan pengguna untuk menerima imbalan yang berkelanjutan dengan pelacakan penggunaan yang transparan dan tervisualisasi.
Mekanisme Proof of Contribution (PoC) merupakan dasar pendekatan Vana dalam memastikan kualitas data. Setiap DLP dapat menentukan fungsi PoC yang unik sesuai dengan karakteristiknya, memverifikasi keaslian dan kelengkapan data yang diajukan, serta mengevaluasi kontribusinya dalam meningkatkan kinerja model AI. Mekanisme ini mengukur kontribusi pengguna, mencatatnya untuk alokasi imbalan. Mirip dengan konsep 'Proof of Work' dalam cryptocurrency, PoC memberikan imbalan kepada pengguna berdasarkan kualitas, jumlah, dan frekuensi penggunaan data. Kontrak pintar mengotomatisasi proses ini, memastikan kontributor diberi kompensasi dengan adil dan transparan.
Lapisan inti ini memungkinkan kontribusi, verifikasi, dan pencatatan data ke dalam DLP, mengubah data menjadi aset digital yang dapat ditransfer di atas rantai. Pembuat DLP menyebarkan kontrak pintar untuk menetapkan tujuan, metode verifikasi, dan parameter kontribusi. Kontributor data mengirimkan data untuk divalidasi, dan modul PoC mengevaluasi kualitas data dan memberikan hak pengelolaan dan imbalan.
Berfungsi sebagai lapisan aplikasi Vana, platform ini memfasilitasi kolaborasi antara kontributor data dan pengembang. Ini menyediakan infrastruktur untuk membangun model pelatihan AI terdistribusi dan AI DApps menggunakan likuiditas di DLPs.
Ledger terdesentralisasi yang mendasari ekosistem Vana, Connectome bertindak sebagai peta aliran data real-time. Ini mencatat semua transaksi data real-time menggunakan konsensus Proof of Stake, memastikan transfer efisien token DLP dan memungkinkan akses data lintas-DLP. Sepenuhnya kompatibel dengan EVM, ini memungkinkan interoperabilitas dengan jaringan, protokol, dan aplikasi DeFi lainnya.
(Sumber: Vana)
Vana memberikan pendekatan baru dengan fokus pada likuiditas dan pemberdayaan data pengguna. Model pertukaran data terdesentralisasi ini tidak hanya mendukung pelatihan AI dan pasar data tetapi juga memungkinkan berbagi data lintas platform dan kepemilikan yang mulus di ekosistem Web3. Pada akhirnya, ini mendorong internet terbuka di mana pengguna dapat memiliki dan mengelola data mereka serta produk cerdas yang dibuat darinya.
Pada tahun 2006, ilmuwan data Clive Humby dengan terkenal mengatakan, "Data adalah minyak baru." Selama dua dekade terakhir, kita telah menyaksikan evolusi teknologi yang cepat yang "memurnikan" sumber daya ini, seperti analitik big data dan pembelajaran mesin, yang telah membuka nilai yang belum pernah terjadi sebelumnya dari data. Menurut IDC, pada tahun 2025, ruang data global akan berkembang menjadi 163 ZB, dengan sebagian besar berasal dari individu. Ketika IoT, perangkat wearable, kecerdasan buatan, dan layanan yang dipersonalisasi menjadi lebih luas, sebagian besar data yang diperlukan untuk penggunaan komersial akan berasal dari individu.
Solusi data Web3 mengatasi batasan infrastruktur tradisional dengan memanfaatkan jaringan node terdistribusi. Jaringan ini memungkinkan pengumpulan data yang lebih luas dan efisien sambil meningkatkan aksesibilitas dan verifikasi waktu nyata dari dataset tertentu. Teknologi Web3 memastikan keaslian dan integritas data sambil melindungi privasi pengguna, mendorong model pemanfaatan data yang lebih adil. Arsitektur terdesentralisasi ini mendemokratisasi akses data dan memberdayakan pengguna untuk berbagi manfaat ekonomi dari ekonomi data.
Baik OpenLayer maupun Grass mengandalkan model pengguna-node untuk meningkatkan proses pengumpulan data tertentu, sementara Vana memonetisasi data pengguna pribadi. Pendekatan-pendekatan ini tidak hanya meningkatkan efisiensi tetapi juga memungkinkan pengguna biasa untuk berpartisipasi dalam nilai yang diciptakan oleh ekonomi data, menciptakan situasi saling menguntungkan bagi pengguna dan pengembang.
Melalui tokenomics, solusi data Web3 mendesain ulang model insentif, membentuk mekanisme distribusi nilai yang lebih adil. Sistem-sistem ini menarik partisipasi pengguna yang signifikan, sumber daya perangkat keras, dan investasi modal, mengoptimalkan operasi seluruh jaringan data.
Solusi Web3 menawarkan modularitas dan skalabilitas, memungkinkan untuk iterasi teknologi dan ekspansi ekosistem. Misalnya: desain modular OpenLayer memberikan fleksibilitas untuk kemajuan di masa depan; arsitektur terdistribusi Grass mengoptimalkan pelatihan model AI dengan menyediakan dataset yang beragam dan berkualitas tinggi.
Dari generasi data, penyimpanan, dan verifikasi hingga pertukaran dan analisis, solusi yang didukung oleh Web3 mengatasi kekurangan infrastruktur tradisional. Dengan memungkinkan pengguna memonetisasi data mereka, solusi-solusi ini secara mendasar mengubah ekonomi data.
Saat teknologi berkembang dan skenario aplikasi meluas, lapisan data terdesentralisasi siap menjadi pondasi infrastruktur generasi mendatang. Mereka akan mendukung berbagai industri yang didorong data sambil memberdayakan pengguna untuk mengambil kontrol atas data dan potensi ekonominya.