Hubungan antara AI dan Crypto telah menunjukkan gelombang yang berbeda. Sejak AlphaGo mengalahkan pemain Go profesional pada tahun 2016, upaya untuk menggabungkan keduanya, seperti kemunculan proyek-proyek spontan seperti Fetch.AI, telah disaksikan di dunia kripto. Dengan munculnya GPT-4 pada tahun 2023, tren AI + Crypto telah bangkit kembali, dicontohkan dengan penerbitan WorldCoin. Umat manusia tampaknya siap memasuki era utopis di mana AI bertanggung jawab atas produktivitas, dan Crypto menangani distribusi.
Sentimen ini mencapai puncaknya setelah OpenAI meluncurkan aplikasi Sora untuk sintesis teks-ke-video. Namun, emosi sering kali melibatkan unsur irasional. Li Yizhou, misalnya, tampaknya merupakan bagian dari segmen yang disalahpahami, yang dicontohkan oleh:
Dalam artikel ini, fokusnya adalah pada manfaat yang dapat diberikan oleh Kripto kepada AI, karena proyek Kripto saat ini yang menekankan pada aplikasi AI sebagian besar dilihat sebagai tipu muslihat pemasaran dan tidak kondusif untuk diskusi kita.
Untuk waktu yang lama, titik fokus dalam diskusi tentang AI adalah apakah "kemunculan" kecerdasan buatan akan mengarah pada penciptaan makhluk hidup seperti yang ada di "The Matrix" atau peradaban berbasis silikon. Kekhawatiran tentang interaksi antara manusia dan teknologi AI terus berlanjut, dengan contoh baru-baru ini seperti kemunculan Sora dan contoh sebelumnya seperti GPT-4 (2023), AlphaGo (2016), dan Deep Blue IBM yang mengalahkan juara dunia catur pada tahun 1997.
Sementara kekhawatiran tersebut belum terwujud, mari kita rileks dan menguraikan secara singkat mekanisme di balik AI.
Berawal dari regresi linier, yang pada dasarnya adalah persamaan linier sederhana, seperti mekanisme penurunan berat badan oleh Jia Ling, seorang aktor terkenal Tiongkok, kita dapat membuat generalisasi berikut. Di sini, x dan y mewakili hubungan antara asupan kalori dan berat badan, yang menunjukkan bahwa makan lebih banyak secara alami akan meningkatkan berat badan, dan jika Anda ingin menurunkan berat badan, Anda harus makan lebih sedikit.
Namun, pendekatan ini membawa beberapa masalah. Pertama, ada batasan fisiologis untuk tinggi dan berat badan manusia, dan tidak mungkin Anda akan bertemu dengan raksasa setinggi 3 meter atau wanita berbobot ribuan kilogram. Oleh karena itu, mempertimbangkan situasi di luar batas-batas ini tidak memiliki signifikansi praktis. Kedua, hanya makan lebih sedikit dan berolahraga lebih banyak tidak sesuai dengan prinsip-prinsip ilmiah penurunan berat badan dan, dalam kasus yang parah, dapat membahayakan tubuh.
Kami memperkenalkan Indeks Massa Tubuh (BMI), yang mengukur hubungan antara berat badan dan tinggi badan dengan membagi berat badan dengan kuadrat tinggi badan. Melalui tiga faktor-makan, tidur, dan olahraga-untuk menilai hubungan antara tinggi dan berat badan, kita sekarang membutuhkan tiga parameter dan dua keluaran. Regresi linier terbukti tidak cukup, sehingga memunculkan jaringan saraf. Seperti namanya, jaringan saraf meniru struktur otak manusia, dengan kemungkinan lebih banyak berpikir akan menghasilkan lebih banyak rasionalitas. Meningkatkan frekuensi dan kedalaman berpikir, yang dikenal sebagai pembelajaran mendalam (saya membuat analogi yang agak longgar di sini), memungkinkan pertimbangan yang lebih menyeluruh sebelum mengambil tindakan.
Gambaran Singkat Sejarah Perkembangan Algoritma AI
Namun demikian, peningkatan jumlah lapisan tidak terbatas; masih ada batasnya. Setelah ambang batas kritis tercapai, efektivitas dapat menurun. Oleh karena itu, menjadi penting untuk memahami hubungan antara informasi yang ada dengan cara yang lebih masuk akal. Misalnya, pemahaman mendalam tentang hubungan yang lebih bernuansa antara tinggi dan berat badan, menemukan faktor-faktor yang sebelumnya tidak disadari, atau Jia Ling menemukan seorang pelatih top tetapi ragu-ragu untuk secara langsung mengungkapkan keinginannya untuk menurunkan berat badan.
Dalam skenario seperti itu, Jia Ling dan pelatih menjadi lawan dalam penyandian dan penyandian balik, menyampaikan makna bolak-balik yang mewakili maksud sebenarnya dari kedua belah pihak. Namun, tidak seperti pernyataan langsung "Saya ingin menurunkan berat badan, ini hadiah untuk pelatih," niat sebenarnya dari kedua belah pihak tersembunyi di balik "makna."
Kami melihat sebuah fakta: jika jumlah iterasi antara kedua belah pihak mencukupi, makna dari setiap komunikasi menjadi lebih mudah untuk diuraikan.
Jika kita memperluas model ini, model ini mewakili apa yang sehari-hari dikenal sebagai Model Bahasa Besar (LLM), yang memeriksa hubungan kontekstual antara kata dan kalimat. Saat ini, model besar telah berkembang untuk menyelidiki skenario seperti gambar dan video.
Dalam spektrum AI, apakah itu regresi linier sederhana atau Transformer yang sangat kompleks, semuanya adalah algoritme atau model. Selain itu, ada dua faktor penting: daya komputasi dan data.
Deskripsi: Sejarah singkat perkembangan AI, Sumber: https://ourworldindata.org/brief-history-of-ai
Sederhananya, AI adalah mesin yang memproses data, melakukan komputasi, dan memberikan hasil. Namun, dibandingkan dengan entitas fisik seperti robot, AI lebih bersifat virtual. Dalam hal daya komputasi, data, dan model, proses operasional saat ini dalam komersialisasi Web2 adalah sebagai berikut:
Proses Kerja AI
Seperti yang telah disebutkan sebelumnya, aplikasi AI memiliki berbagai macam domain, seperti koreksi kode yang disebutkan Vitalik, yang telah digunakan. Melihat dari perspektif yang berbeda, kontribusi Crypto terhadap AI terutama berfokus pada area non-teknis, seperti pasar data yang terdesentralisasi, platform daya komputasi yang terdesentralisasi, dll. Ada beberapa percobaan dengan Model Bahasa Besar (Large Language Model/LLM) yang terdesentralisasi. Namun, sangat penting untuk dicatat bahwa menganalisis kode Crypto dengan AI dan menjalankan model AI berskala besar pada blockchain pada dasarnya berbeda. Memasukkan beberapa elemen Crypto ke dalam model AI hampir tidak dapat dianggap sebagai integrasi yang sempurna.
Saat ini, Crypto unggul dalam produksi dan insentif. Tidak perlu mengubah paradigma produksi AI secara paksa dengan Crypto. Pilihan rasionalnya adalah mengintegrasikan Crypto ke dalam alur kerja AI dan memberdayakan AI dengan Crypto. Berikut adalah beberapa potensi integrasi yang telah saya rangkum:
Keempat aspek ini adalah skenario potensial yang menurut saya dapat memberdayakan AI. AI adalah alat serbaguna, dan area dan proyek AI untuk Crypto tidak dibahas lebih lanjut di sini; Anda dapat menjelajahinya sendiri.
Dapat diamati bahwa Crypto saat ini terutama berperan dalam enkripsi, perlindungan privasi, dan desain ekonomi. Satu-satunya upaya integrasi teknis adalah zkML. Di sini, mari kita bertukar pikiran sedikit: jika, di masa depan, Solana TPS benar-benar dapat mencapai 100.000+, dan jika kombinasi Filecoin dan Solana sempurna, bisakah kita menciptakan lingkungan LLM on-chain? Hal ini berpotensi membangun AI on-chain yang nyata, mengubah hubungan yang tidak setara saat ini di mana Crypto diintegrasikan ke dalam AI.
Seperti yang diketahui oleh semua orang, kartu grafis NVIDIA RTX 4090 merupakan komoditas berharga yang saat ini sulit didapatkan di negara Asia Timur tertentu. Yang lebih parah lagi, individu, perusahaan kecil, dan institusi akademis juga mengalami krisis kartu grafis. Bagaimanapun juga, perusahaan komersial besar adalah pembelanja besar. Jika jalur ketiga dapat dibuka di luar pembelian pribadi dan penyedia cloud, ini jelas akan memiliki nilai bisnis yang praktis, melepaskan diri dari tujuan spekulatif semata. Pendekatan logis dari Web3 untuk AI seharusnya adalah, "Jika Web3 tidak digunakan, proyek ini tidak dapat dilanjutkan."
Alur Kerja AI dari Perspektif Web3
Sumber data: Rumput dan Ekosistem Otomotif DePIN
Grass, yang diperkenalkan oleh Wynd Network, adalah sebuah pasar untuk menjual bandwidth menganggur. Grass berfungsi sebagai jaringan terbuka untuk akuisisi dan distribusi data, yang membedakannya dari pengumpulan dan penjualan data sederhana. Grass memiliki fungsi untuk membersihkan dan memvalidasi data untuk menavigasi lingkungan jaringan yang semakin tertutup. Selain itu, Grass bertujuan untuk berinteraksi langsung dengan model-model AI, memberikan mereka set data yang siap digunakan. Dataset AI memerlukan penanganan profesional, termasuk penyempurnaan manual yang ekstensif untuk memenuhi kebutuhan spesifik model AI.
Memperluas hal ini, Grass membahas masalah penjualan data, sementara sektor DePIN Web3 dapat menghasilkan data yang dibutuhkan oleh AI. Sektor ini terutama berfokus pada pengemudian otomatis kendaraan. Secara tradisional, pengemudian otonom mengharuskan perusahaan mengumpulkan data yang sesuai. Namun, proyek seperti DIMO dan Hivemapper beroperasi secara langsung pada kendaraan, mengumpulkan semakin banyak informasi mengemudi dan data jalan.
Dalam skenario mengemudi otonom sebelumnya, teknologi untuk pengenalan kendaraan dan peta presisi tinggi sangat penting. Informasi seperti peta presisi tinggi telah diakumulasikan oleh perusahaan seperti NavInfo, sehingga menciptakan hambatan industri. Jika pendatang baru memanfaatkan data Web3, mereka mungkin memiliki kesempatan untuk menyalip pesaing di tikungan.
Pemrosesan Data: Membebaskan Manusia yang Diperbudak oleh AI
Kecerdasan buatan dapat dibagi menjadi dua bagian: anotasi manual dan algoritme cerdas. Di wilayah dunia ketiga seperti Kenya dan Filipina, di mana kurva nilai untuk anotasi manual paling rendah, orang-orang bertanggung jawab atas tugas ini. Sementara itu, perusahaan prapemrosesan AI di Eropa dan Amerika Serikat mengambil bagian terbesar dari pendapatan tersebut, dan kemudian menjualnya ke perusahaan riset dan pengembangan AI.
Dengan kemajuan AI, semakin banyak perusahaan yang mengincar bisnis ini. Dalam menghadapi persaingan, harga satuan untuk anotasi data terus menurun. Bisnis ini terutama melibatkan pelabelan data, mirip dengan tugas-tugas seperti mengenali captcha, tanpa ambang batas teknis, dan bahkan harga yang sangat rendah seperti 0,01 RMB.
Source: https://aim.baidu.com/product/0793f1f1-f1cb-4f9f-b3a7-ef31335bd7f0
Dalam skenario ini, platform anotasi data Web3 seperti Public AI memiliki pasar bisnis yang praktis. Mereka menghubungkan perusahaan AI dengan pekerja anotasi data, menggantikan model persaingan harga rendah bisnis sederhana dengan sistem insentif. Namun, penting untuk dicatat bahwa perusahaan yang sudah matang seperti Scale AI menjamin kualitas yang dapat diandalkan dalam teknologi anotasi. Untuk platform anotasi data yang terdesentralisasi, mengendalikan kualitas dan mencegah penyalahgunaan adalah kebutuhan mutlak. Pada dasarnya, ini merupakan layanan perusahaan C2B2B, di mana skala dan kuantitas data saja tidak dapat meyakinkan perusahaan.
Kebebasan Perangkat Keras: Render Jaringan dan Bittensor
Perlu diklarifikasi bahwa, tidak seperti rig penambangan Bitcoin, saat ini tidak ada perangkat keras Web3 AI khusus. Daya komputasi dan platform yang ada saat ini ditransformasikan dari perangkat keras yang sudah matang dengan tambahan lapisan insentif Crypto, yang pada dasarnya berada di bawah sektor DePIN. Namun, karena ini berbeda dari proyek sumber data, ini termasuk dalam alur kerja AI di sini.
Untuk definisi DePIN, silakan merujuk ke artikel yang saya tulis sebelumnya: DePIN sebelum Helium: Menjelajahi Bitcoin, Arweave, dan STEPN
Render Network adalah proyek yang sudah lama ada dan pada awalnya tidak dirancang untuk AI. Perusahaan ini mulai beroperasi pada tahun 2017, dengan fokus pada rendering, seperti yang disarankan oleh namanya. Pada waktu itu, GPU tidak diminati, tetapi peluang pasar secara bertahap muncul. Pasar GPU, terutama GPU kelas atas yang dimonopoli oleh NVIDIA, menghambat masuknya pengguna rendering, AI, dan metaverse karena harganya yang selangit. Jika sebuah saluran dapat dibangun antara permintaan dan penawaran, model ekonomi yang mirip dengan sepeda bersama mungkin memiliki peluang untuk dibangun.
Selain itu, sumber daya GPU tidak memerlukan transfer perangkat keras yang sebenarnya; sumber daya tersebut dapat dialokasikan menggunakan sumber daya perangkat lunak. Perlu disebutkan bahwa Render Network beralih ke ekosistem Solana pada tahun 2023, meninggalkan Polygon. Perpindahan ke Solana, bahkan sebelum kebangkitannya, telah terbukti menjadi keputusan yang tepat dari waktu ke waktu. Untuk penggunaan dan distribusi GPU, jaringan berkecepatan tinggi adalah persyaratan yang sangat penting.
Jika Render Network dapat dianggap sebagai proyek yang sudah mapan, Bittensor saat ini mendapatkan momentum.
BitTensor dibangun di atas Polkadot, dengan tujuan melatih model AI melalui insentif ekonomi. Node bersaing untuk melatih model AI dengan kesalahan minimal atau efisiensi maksimum, menyerupai proses on-chain klasik dalam proyek-proyek Crypto. Namun, proses pelatihan yang sebenarnya masih membutuhkan GPU NVIDIA dan platform tradisional, membuatnya mirip dengan platform kompetisi seperti Kaggle.
zkML dan UBI: Aspek Ganda dari Worldcoin
Zero-Knowledge Machine Learning (zkML) memperkenalkan teknologi zk ke dalam proses pelatihan model AI untuk mengatasi masalah seperti kebocoran data, kegagalan privasi, dan verifikasi model. Dua yang pertama mudah dimengerti - data terenkripsi zk masih bisa dilatih tanpa membocorkan informasi pribadi atau privat.
Verifikasi model mengacu pada evaluasi model sumber tertutup. Dengan teknologi zk, nilai target dapat ditetapkan, sehingga memungkinkan model sumber tertutup untuk membuktikan kemampuannya melalui verifikasi hasil tanpa mengungkapkan proses perhitungan.
Worldcoin tidak hanya membayangkan zkML sejak awal, tetapi juga mengadvokasi Pendapatan Dasar Universal (UBI). Dalam visinya, produktivitas AI di masa depan akan jauh melampaui batas permintaan manusia. Tantangan sebenarnya adalah distribusi manfaat AI yang adil, dan konsep UBI akan dibagikan secara global melalui token $WLD, yang membutuhkan pengenalan biometrik orang sungguhan untuk mematuhi prinsip-prinsip keadilan.
Tentu saja, zkML dan UBI masih dalam tahap percobaan awal, tetapi mereka adalah perkembangan yang menarik yang akan terus saya ikuti dengan cermat.
Perkembangan AI, yang diwakili oleh Transformer dan Large Language Models (LLM), secara bertahap menghadapi hambatan, mirip dengan regresi linier dan jaringan saraf. Tidaklah layak untuk meningkatkan parameter model atau volume data tanpa batas, karena keuntungan marjinal akan berkurang.
AI mungkin merupakan pemain unggulan yang muncul dengan kebijaksanaan, tetapi masalah halusinasi saat ini sangat parah. Dapat diamati bahwa kepercayaan bahwa Crypto dapat mengubah AI adalah bentuk kepercayaan dan halusinasi standar. Meskipun penambahan Crypto mungkin secara teknis tidak dapat menyelesaikan masalah halusinasi, setidaknya dapat mengubah beberapa aspek dari perspektif keadilan dan transparansi.
Referensi:
Hubungan antara AI dan Crypto telah menunjukkan gelombang yang berbeda. Sejak AlphaGo mengalahkan pemain Go profesional pada tahun 2016, upaya untuk menggabungkan keduanya, seperti kemunculan proyek-proyek spontan seperti Fetch.AI, telah disaksikan di dunia kripto. Dengan munculnya GPT-4 pada tahun 2023, tren AI + Crypto telah bangkit kembali, dicontohkan dengan penerbitan WorldCoin. Umat manusia tampaknya siap memasuki era utopis di mana AI bertanggung jawab atas produktivitas, dan Crypto menangani distribusi.
Sentimen ini mencapai puncaknya setelah OpenAI meluncurkan aplikasi Sora untuk sintesis teks-ke-video. Namun, emosi sering kali melibatkan unsur irasional. Li Yizhou, misalnya, tampaknya merupakan bagian dari segmen yang disalahpahami, yang dicontohkan oleh:
Dalam artikel ini, fokusnya adalah pada manfaat yang dapat diberikan oleh Kripto kepada AI, karena proyek Kripto saat ini yang menekankan pada aplikasi AI sebagian besar dilihat sebagai tipu muslihat pemasaran dan tidak kondusif untuk diskusi kita.
Untuk waktu yang lama, titik fokus dalam diskusi tentang AI adalah apakah "kemunculan" kecerdasan buatan akan mengarah pada penciptaan makhluk hidup seperti yang ada di "The Matrix" atau peradaban berbasis silikon. Kekhawatiran tentang interaksi antara manusia dan teknologi AI terus berlanjut, dengan contoh baru-baru ini seperti kemunculan Sora dan contoh sebelumnya seperti GPT-4 (2023), AlphaGo (2016), dan Deep Blue IBM yang mengalahkan juara dunia catur pada tahun 1997.
Sementara kekhawatiran tersebut belum terwujud, mari kita rileks dan menguraikan secara singkat mekanisme di balik AI.
Berawal dari regresi linier, yang pada dasarnya adalah persamaan linier sederhana, seperti mekanisme penurunan berat badan oleh Jia Ling, seorang aktor terkenal Tiongkok, kita dapat membuat generalisasi berikut. Di sini, x dan y mewakili hubungan antara asupan kalori dan berat badan, yang menunjukkan bahwa makan lebih banyak secara alami akan meningkatkan berat badan, dan jika Anda ingin menurunkan berat badan, Anda harus makan lebih sedikit.
Namun, pendekatan ini membawa beberapa masalah. Pertama, ada batasan fisiologis untuk tinggi dan berat badan manusia, dan tidak mungkin Anda akan bertemu dengan raksasa setinggi 3 meter atau wanita berbobot ribuan kilogram. Oleh karena itu, mempertimbangkan situasi di luar batas-batas ini tidak memiliki signifikansi praktis. Kedua, hanya makan lebih sedikit dan berolahraga lebih banyak tidak sesuai dengan prinsip-prinsip ilmiah penurunan berat badan dan, dalam kasus yang parah, dapat membahayakan tubuh.
Kami memperkenalkan Indeks Massa Tubuh (BMI), yang mengukur hubungan antara berat badan dan tinggi badan dengan membagi berat badan dengan kuadrat tinggi badan. Melalui tiga faktor-makan, tidur, dan olahraga-untuk menilai hubungan antara tinggi dan berat badan, kita sekarang membutuhkan tiga parameter dan dua keluaran. Regresi linier terbukti tidak cukup, sehingga memunculkan jaringan saraf. Seperti namanya, jaringan saraf meniru struktur otak manusia, dengan kemungkinan lebih banyak berpikir akan menghasilkan lebih banyak rasionalitas. Meningkatkan frekuensi dan kedalaman berpikir, yang dikenal sebagai pembelajaran mendalam (saya membuat analogi yang agak longgar di sini), memungkinkan pertimbangan yang lebih menyeluruh sebelum mengambil tindakan.
Gambaran Singkat Sejarah Perkembangan Algoritma AI
Namun demikian, peningkatan jumlah lapisan tidak terbatas; masih ada batasnya. Setelah ambang batas kritis tercapai, efektivitas dapat menurun. Oleh karena itu, menjadi penting untuk memahami hubungan antara informasi yang ada dengan cara yang lebih masuk akal. Misalnya, pemahaman mendalam tentang hubungan yang lebih bernuansa antara tinggi dan berat badan, menemukan faktor-faktor yang sebelumnya tidak disadari, atau Jia Ling menemukan seorang pelatih top tetapi ragu-ragu untuk secara langsung mengungkapkan keinginannya untuk menurunkan berat badan.
Dalam skenario seperti itu, Jia Ling dan pelatih menjadi lawan dalam penyandian dan penyandian balik, menyampaikan makna bolak-balik yang mewakili maksud sebenarnya dari kedua belah pihak. Namun, tidak seperti pernyataan langsung "Saya ingin menurunkan berat badan, ini hadiah untuk pelatih," niat sebenarnya dari kedua belah pihak tersembunyi di balik "makna."
Kami melihat sebuah fakta: jika jumlah iterasi antara kedua belah pihak mencukupi, makna dari setiap komunikasi menjadi lebih mudah untuk diuraikan.
Jika kita memperluas model ini, model ini mewakili apa yang sehari-hari dikenal sebagai Model Bahasa Besar (LLM), yang memeriksa hubungan kontekstual antara kata dan kalimat. Saat ini, model besar telah berkembang untuk menyelidiki skenario seperti gambar dan video.
Dalam spektrum AI, apakah itu regresi linier sederhana atau Transformer yang sangat kompleks, semuanya adalah algoritme atau model. Selain itu, ada dua faktor penting: daya komputasi dan data.
Deskripsi: Sejarah singkat perkembangan AI, Sumber: https://ourworldindata.org/brief-history-of-ai
Sederhananya, AI adalah mesin yang memproses data, melakukan komputasi, dan memberikan hasil. Namun, dibandingkan dengan entitas fisik seperti robot, AI lebih bersifat virtual. Dalam hal daya komputasi, data, dan model, proses operasional saat ini dalam komersialisasi Web2 adalah sebagai berikut:
Proses Kerja AI
Seperti yang telah disebutkan sebelumnya, aplikasi AI memiliki berbagai macam domain, seperti koreksi kode yang disebutkan Vitalik, yang telah digunakan. Melihat dari perspektif yang berbeda, kontribusi Crypto terhadap AI terutama berfokus pada area non-teknis, seperti pasar data yang terdesentralisasi, platform daya komputasi yang terdesentralisasi, dll. Ada beberapa percobaan dengan Model Bahasa Besar (Large Language Model/LLM) yang terdesentralisasi. Namun, sangat penting untuk dicatat bahwa menganalisis kode Crypto dengan AI dan menjalankan model AI berskala besar pada blockchain pada dasarnya berbeda. Memasukkan beberapa elemen Crypto ke dalam model AI hampir tidak dapat dianggap sebagai integrasi yang sempurna.
Saat ini, Crypto unggul dalam produksi dan insentif. Tidak perlu mengubah paradigma produksi AI secara paksa dengan Crypto. Pilihan rasionalnya adalah mengintegrasikan Crypto ke dalam alur kerja AI dan memberdayakan AI dengan Crypto. Berikut adalah beberapa potensi integrasi yang telah saya rangkum:
Keempat aspek ini adalah skenario potensial yang menurut saya dapat memberdayakan AI. AI adalah alat serbaguna, dan area dan proyek AI untuk Crypto tidak dibahas lebih lanjut di sini; Anda dapat menjelajahinya sendiri.
Dapat diamati bahwa Crypto saat ini terutama berperan dalam enkripsi, perlindungan privasi, dan desain ekonomi. Satu-satunya upaya integrasi teknis adalah zkML. Di sini, mari kita bertukar pikiran sedikit: jika, di masa depan, Solana TPS benar-benar dapat mencapai 100.000+, dan jika kombinasi Filecoin dan Solana sempurna, bisakah kita menciptakan lingkungan LLM on-chain? Hal ini berpotensi membangun AI on-chain yang nyata, mengubah hubungan yang tidak setara saat ini di mana Crypto diintegrasikan ke dalam AI.
Seperti yang diketahui oleh semua orang, kartu grafis NVIDIA RTX 4090 merupakan komoditas berharga yang saat ini sulit didapatkan di negara Asia Timur tertentu. Yang lebih parah lagi, individu, perusahaan kecil, dan institusi akademis juga mengalami krisis kartu grafis. Bagaimanapun juga, perusahaan komersial besar adalah pembelanja besar. Jika jalur ketiga dapat dibuka di luar pembelian pribadi dan penyedia cloud, ini jelas akan memiliki nilai bisnis yang praktis, melepaskan diri dari tujuan spekulatif semata. Pendekatan logis dari Web3 untuk AI seharusnya adalah, "Jika Web3 tidak digunakan, proyek ini tidak dapat dilanjutkan."
Alur Kerja AI dari Perspektif Web3
Sumber data: Rumput dan Ekosistem Otomotif DePIN
Grass, yang diperkenalkan oleh Wynd Network, adalah sebuah pasar untuk menjual bandwidth menganggur. Grass berfungsi sebagai jaringan terbuka untuk akuisisi dan distribusi data, yang membedakannya dari pengumpulan dan penjualan data sederhana. Grass memiliki fungsi untuk membersihkan dan memvalidasi data untuk menavigasi lingkungan jaringan yang semakin tertutup. Selain itu, Grass bertujuan untuk berinteraksi langsung dengan model-model AI, memberikan mereka set data yang siap digunakan. Dataset AI memerlukan penanganan profesional, termasuk penyempurnaan manual yang ekstensif untuk memenuhi kebutuhan spesifik model AI.
Memperluas hal ini, Grass membahas masalah penjualan data, sementara sektor DePIN Web3 dapat menghasilkan data yang dibutuhkan oleh AI. Sektor ini terutama berfokus pada pengemudian otomatis kendaraan. Secara tradisional, pengemudian otonom mengharuskan perusahaan mengumpulkan data yang sesuai. Namun, proyek seperti DIMO dan Hivemapper beroperasi secara langsung pada kendaraan, mengumpulkan semakin banyak informasi mengemudi dan data jalan.
Dalam skenario mengemudi otonom sebelumnya, teknologi untuk pengenalan kendaraan dan peta presisi tinggi sangat penting. Informasi seperti peta presisi tinggi telah diakumulasikan oleh perusahaan seperti NavInfo, sehingga menciptakan hambatan industri. Jika pendatang baru memanfaatkan data Web3, mereka mungkin memiliki kesempatan untuk menyalip pesaing di tikungan.
Pemrosesan Data: Membebaskan Manusia yang Diperbudak oleh AI
Kecerdasan buatan dapat dibagi menjadi dua bagian: anotasi manual dan algoritme cerdas. Di wilayah dunia ketiga seperti Kenya dan Filipina, di mana kurva nilai untuk anotasi manual paling rendah, orang-orang bertanggung jawab atas tugas ini. Sementara itu, perusahaan prapemrosesan AI di Eropa dan Amerika Serikat mengambil bagian terbesar dari pendapatan tersebut, dan kemudian menjualnya ke perusahaan riset dan pengembangan AI.
Dengan kemajuan AI, semakin banyak perusahaan yang mengincar bisnis ini. Dalam menghadapi persaingan, harga satuan untuk anotasi data terus menurun. Bisnis ini terutama melibatkan pelabelan data, mirip dengan tugas-tugas seperti mengenali captcha, tanpa ambang batas teknis, dan bahkan harga yang sangat rendah seperti 0,01 RMB.
Source: https://aim.baidu.com/product/0793f1f1-f1cb-4f9f-b3a7-ef31335bd7f0
Dalam skenario ini, platform anotasi data Web3 seperti Public AI memiliki pasar bisnis yang praktis. Mereka menghubungkan perusahaan AI dengan pekerja anotasi data, menggantikan model persaingan harga rendah bisnis sederhana dengan sistem insentif. Namun, penting untuk dicatat bahwa perusahaan yang sudah matang seperti Scale AI menjamin kualitas yang dapat diandalkan dalam teknologi anotasi. Untuk platform anotasi data yang terdesentralisasi, mengendalikan kualitas dan mencegah penyalahgunaan adalah kebutuhan mutlak. Pada dasarnya, ini merupakan layanan perusahaan C2B2B, di mana skala dan kuantitas data saja tidak dapat meyakinkan perusahaan.
Kebebasan Perangkat Keras: Render Jaringan dan Bittensor
Perlu diklarifikasi bahwa, tidak seperti rig penambangan Bitcoin, saat ini tidak ada perangkat keras Web3 AI khusus. Daya komputasi dan platform yang ada saat ini ditransformasikan dari perangkat keras yang sudah matang dengan tambahan lapisan insentif Crypto, yang pada dasarnya berada di bawah sektor DePIN. Namun, karena ini berbeda dari proyek sumber data, ini termasuk dalam alur kerja AI di sini.
Untuk definisi DePIN, silakan merujuk ke artikel yang saya tulis sebelumnya: DePIN sebelum Helium: Menjelajahi Bitcoin, Arweave, dan STEPN
Render Network adalah proyek yang sudah lama ada dan pada awalnya tidak dirancang untuk AI. Perusahaan ini mulai beroperasi pada tahun 2017, dengan fokus pada rendering, seperti yang disarankan oleh namanya. Pada waktu itu, GPU tidak diminati, tetapi peluang pasar secara bertahap muncul. Pasar GPU, terutama GPU kelas atas yang dimonopoli oleh NVIDIA, menghambat masuknya pengguna rendering, AI, dan metaverse karena harganya yang selangit. Jika sebuah saluran dapat dibangun antara permintaan dan penawaran, model ekonomi yang mirip dengan sepeda bersama mungkin memiliki peluang untuk dibangun.
Selain itu, sumber daya GPU tidak memerlukan transfer perangkat keras yang sebenarnya; sumber daya tersebut dapat dialokasikan menggunakan sumber daya perangkat lunak. Perlu disebutkan bahwa Render Network beralih ke ekosistem Solana pada tahun 2023, meninggalkan Polygon. Perpindahan ke Solana, bahkan sebelum kebangkitannya, telah terbukti menjadi keputusan yang tepat dari waktu ke waktu. Untuk penggunaan dan distribusi GPU, jaringan berkecepatan tinggi adalah persyaratan yang sangat penting.
Jika Render Network dapat dianggap sebagai proyek yang sudah mapan, Bittensor saat ini mendapatkan momentum.
BitTensor dibangun di atas Polkadot, dengan tujuan melatih model AI melalui insentif ekonomi. Node bersaing untuk melatih model AI dengan kesalahan minimal atau efisiensi maksimum, menyerupai proses on-chain klasik dalam proyek-proyek Crypto. Namun, proses pelatihan yang sebenarnya masih membutuhkan GPU NVIDIA dan platform tradisional, membuatnya mirip dengan platform kompetisi seperti Kaggle.
zkML dan UBI: Aspek Ganda dari Worldcoin
Zero-Knowledge Machine Learning (zkML) memperkenalkan teknologi zk ke dalam proses pelatihan model AI untuk mengatasi masalah seperti kebocoran data, kegagalan privasi, dan verifikasi model. Dua yang pertama mudah dimengerti - data terenkripsi zk masih bisa dilatih tanpa membocorkan informasi pribadi atau privat.
Verifikasi model mengacu pada evaluasi model sumber tertutup. Dengan teknologi zk, nilai target dapat ditetapkan, sehingga memungkinkan model sumber tertutup untuk membuktikan kemampuannya melalui verifikasi hasil tanpa mengungkapkan proses perhitungan.
Worldcoin tidak hanya membayangkan zkML sejak awal, tetapi juga mengadvokasi Pendapatan Dasar Universal (UBI). Dalam visinya, produktivitas AI di masa depan akan jauh melampaui batas permintaan manusia. Tantangan sebenarnya adalah distribusi manfaat AI yang adil, dan konsep UBI akan dibagikan secara global melalui token $WLD, yang membutuhkan pengenalan biometrik orang sungguhan untuk mematuhi prinsip-prinsip keadilan.
Tentu saja, zkML dan UBI masih dalam tahap percobaan awal, tetapi mereka adalah perkembangan yang menarik yang akan terus saya ikuti dengan cermat.
Perkembangan AI, yang diwakili oleh Transformer dan Large Language Models (LLM), secara bertahap menghadapi hambatan, mirip dengan regresi linier dan jaringan saraf. Tidaklah layak untuk meningkatkan parameter model atau volume data tanpa batas, karena keuntungan marjinal akan berkurang.
AI mungkin merupakan pemain unggulan yang muncul dengan kebijaksanaan, tetapi masalah halusinasi saat ini sangat parah. Dapat diamati bahwa kepercayaan bahwa Crypto dapat mengubah AI adalah bentuk kepercayaan dan halusinasi standar. Meskipun penambahan Crypto mungkin secara teknis tidak dapat menyelesaikan masalah halusinasi, setidaknya dapat mengubah beberapa aspek dari perspektif keadilan dan transparansi.
Referensi: