Kripto sebagai Ilusi AI

Menengah3/5/2024, 10:04:31 AM
Artikel ini mengeksplorasi potensi integrasi AI dan mata uang kripto, menekankan bahwa integrasi yang sebenarnya melibatkan penggabungan Crypto ke dalam alur kerja AI dan memberdayakan AI dengan Crypto.
  • Kemunculan: Fenomena di mana banyak entitas kecil berinteraksi untuk menghasilkan keseluruhan yang lebih besar, menunjukkan karakteristik baru yang tidak dimiliki oleh masing-masing komponen, seperti kemunculan yang diamati dalam sistem biologis yang dipelajari dalam kimia.
  • Halusinasi: Kecenderungan model untuk menghasilkan data yang menipu, dengan model AI yang menghasilkan output yang tampak benar tetapi sebenarnya salah.

Hubungan antara AI dan Crypto telah menunjukkan gelombang yang berbeda. Sejak AlphaGo mengalahkan pemain Go profesional pada tahun 2016, upaya untuk menggabungkan keduanya, seperti kemunculan proyek-proyek spontan seperti Fetch.AI, telah disaksikan di dunia kripto. Dengan munculnya GPT-4 pada tahun 2023, tren AI + Crypto telah bangkit kembali, dicontohkan dengan penerbitan WorldCoin. Umat manusia tampaknya siap memasuki era utopis di mana AI bertanggung jawab atas produktivitas, dan Crypto menangani distribusi.

Sentimen ini mencapai puncaknya setelah OpenAI meluncurkan aplikasi Sora untuk sintesis teks-ke-video. Namun, emosi sering kali melibatkan unsur irasional. Li Yizhou, misalnya, tampaknya merupakan bagian dari segmen yang disalahpahami, yang dicontohkan oleh:

  • Penggabungan aplikasi AI tertentu dengan pengembangan algoritma. Meskipun Sora dan prinsip-prinsip Transformer yang mendasari GPT-4 adalah sumber terbuka, penggunaan keduanya memerlukan pembayaran ke OpenAI.
  • Kombinasi AI dan Crypto saat ini lebih kepada Crypto yang mengambil inisiatif untuk mendekati AI, karena raksasa AI besar belum menunjukkan kemauan yang jelas. Pada tahap ini, apa yang dapat dilakukan AI untuk Crypto lebih besar daripada apa yang dapat dilakukan Crypto untuk AI.
  • Menggunakan teknologi AI dalam aplikasi Crypto tidak sama dengan integrasi AI dan Crypto, seperti yang terlihat pada aplikasi seperti game blockchain, GameFi, proyek metaverse, Web3 Games, dan persona digital di alam semesta AW.
  • Kontribusi yang dapat diberikan Crypto untuk pengembangan teknologi AI terutama melibatkan desentralisasi dan insentif token dalam tiga komponen AI: daya komputasi, data, dan model.
  • WorldCoin berfungsi sebagai integrasi yang sukses dari keduanya, dengan zkML yang diposisikan di persimpangan teknologi AI dan Kripto, dan teori UBI (Universal Basic Income) yang sedang menjalani implementasi skala besar pertamanya.

Dalam artikel ini, fokusnya adalah pada manfaat yang dapat diberikan oleh Kripto kepada AI, karena proyek Kripto saat ini yang menekankan pada aplikasi AI sebagian besar dilihat sebagai tipu muslihat pemasaran dan tidak kondusif untuk diskusi kita.

Dari Regresi Linier ke Transformator

Untuk waktu yang lama, titik fokus dalam diskusi tentang AI adalah apakah "kemunculan" kecerdasan buatan akan mengarah pada penciptaan makhluk hidup seperti yang ada di "The Matrix" atau peradaban berbasis silikon. Kekhawatiran tentang interaksi antara manusia dan teknologi AI terus berlanjut, dengan contoh baru-baru ini seperti kemunculan Sora dan contoh sebelumnya seperti GPT-4 (2023), AlphaGo (2016), dan Deep Blue IBM yang mengalahkan juara dunia catur pada tahun 1997.

Sementara kekhawatiran tersebut belum terwujud, mari kita rileks dan menguraikan secara singkat mekanisme di balik AI.

Berawal dari regresi linier, yang pada dasarnya adalah persamaan linier sederhana, seperti mekanisme penurunan berat badan oleh Jia Ling, seorang aktor terkenal Tiongkok, kita dapat membuat generalisasi berikut. Di sini, x dan y mewakili hubungan antara asupan kalori dan berat badan, yang menunjukkan bahwa makan lebih banyak secara alami akan meningkatkan berat badan, dan jika Anda ingin menurunkan berat badan, Anda harus makan lebih sedikit.

Namun, pendekatan ini membawa beberapa masalah. Pertama, ada batasan fisiologis untuk tinggi dan berat badan manusia, dan tidak mungkin Anda akan bertemu dengan raksasa setinggi 3 meter atau wanita berbobot ribuan kilogram. Oleh karena itu, mempertimbangkan situasi di luar batas-batas ini tidak memiliki signifikansi praktis. Kedua, hanya makan lebih sedikit dan berolahraga lebih banyak tidak sesuai dengan prinsip-prinsip ilmiah penurunan berat badan dan, dalam kasus yang parah, dapat membahayakan tubuh.

Kami memperkenalkan Indeks Massa Tubuh (BMI), yang mengukur hubungan antara berat badan dan tinggi badan dengan membagi berat badan dengan kuadrat tinggi badan. Melalui tiga faktor-makan, tidur, dan olahraga-untuk menilai hubungan antara tinggi dan berat badan, kita sekarang membutuhkan tiga parameter dan dua keluaran. Regresi linier terbukti tidak cukup, sehingga memunculkan jaringan saraf. Seperti namanya, jaringan saraf meniru struktur otak manusia, dengan kemungkinan lebih banyak berpikir akan menghasilkan lebih banyak rasionalitas. Meningkatkan frekuensi dan kedalaman berpikir, yang dikenal sebagai pembelajaran mendalam (saya membuat analogi yang agak longgar di sini), memungkinkan pertimbangan yang lebih menyeluruh sebelum mengambil tindakan.


Gambaran Singkat Sejarah Perkembangan Algoritma AI

Namun demikian, peningkatan jumlah lapisan tidak terbatas; masih ada batasnya. Setelah ambang batas kritis tercapai, efektivitas dapat menurun. Oleh karena itu, menjadi penting untuk memahami hubungan antara informasi yang ada dengan cara yang lebih masuk akal. Misalnya, pemahaman mendalam tentang hubungan yang lebih bernuansa antara tinggi dan berat badan, menemukan faktor-faktor yang sebelumnya tidak disadari, atau Jia Ling menemukan seorang pelatih top tetapi ragu-ragu untuk secara langsung mengungkapkan keinginannya untuk menurunkan berat badan.


Dalam skenario seperti itu, Jia Ling dan pelatih menjadi lawan dalam penyandian dan penyandian balik, menyampaikan makna bolak-balik yang mewakili maksud sebenarnya dari kedua belah pihak. Namun, tidak seperti pernyataan langsung "Saya ingin menurunkan berat badan, ini hadiah untuk pelatih," niat sebenarnya dari kedua belah pihak tersembunyi di balik "makna."

Kami melihat sebuah fakta: jika jumlah iterasi antara kedua belah pihak mencukupi, makna dari setiap komunikasi menjadi lebih mudah untuk diuraikan.

Jika kita memperluas model ini, model ini mewakili apa yang sehari-hari dikenal sebagai Model Bahasa Besar (LLM), yang memeriksa hubungan kontekstual antara kata dan kalimat. Saat ini, model besar telah berkembang untuk menyelidiki skenario seperti gambar dan video.

Dalam spektrum AI, apakah itu regresi linier sederhana atau Transformer yang sangat kompleks, semuanya adalah algoritme atau model. Selain itu, ada dua faktor penting: daya komputasi dan data.


Deskripsi: Sejarah singkat perkembangan AI, Sumber: https://ourworldindata.org/brief-history-of-ai

Sederhananya, AI adalah mesin yang memproses data, melakukan komputasi, dan memberikan hasil. Namun, dibandingkan dengan entitas fisik seperti robot, AI lebih bersifat virtual. Dalam hal daya komputasi, data, dan model, proses operasional saat ini dalam komersialisasi Web2 adalah sebagai berikut:

  • Data dibagi menjadi data publik, data milik perusahaan, dan data komersial, yang membutuhkan anotasi dan prapemrosesan profesional. Sebagai contoh, Scale AI menyediakan prapemrosesan data untuk perusahaan-perusahaan AI utama.
  • Daya komputasi dibagi menjadi dua mode: membangun sendiri dan penyewaan komputasi awan. Saat ini, NVIDIA mendominasi perangkat keras GPU, dan perpustakaan CUDA telah dipersiapkan selama bertahun-tahun. Ekosistem perangkat keras dan perangkat lunak didominasi oleh satu perusahaan. Pilihan kedua adalah penyewaan daya komputasi dari penyedia layanan cloud, seperti Microsoft Azure, Google Cloud, dan AWS, yang menyediakan layanan komputasi satu atap dan penyebaran model.
  • Model dapat diklasifikasikan ke dalam kerangka kerja dan algoritma. Pertarungan model telah berakhir, dengan TensorFlow dari Google muncul sebagai yang pertama sementara mengalami kemunduran awal, dan PyTorch dari Meta muncul belakangan tetapi memimpin. Namun, baik itu Google, yang memperkenalkan Transformer, atau Meta, dengan PyTorch, keduanya secara bertahap tertinggal di belakang OpenAI dalam hal komersialisasi. Namun demikian, kekuatan mereka tetap tangguh; algoritme saat ini didominasi oleh Transformer, dan berbagai model besar terutama bersaing dari segi sumber data dan detail.


Proses Kerja AI

Seperti yang telah disebutkan sebelumnya, aplikasi AI memiliki berbagai macam domain, seperti koreksi kode yang disebutkan Vitalik, yang telah digunakan. Melihat dari perspektif yang berbeda, kontribusi Crypto terhadap AI terutama berfokus pada area non-teknis, seperti pasar data yang terdesentralisasi, platform daya komputasi yang terdesentralisasi, dll. Ada beberapa percobaan dengan Model Bahasa Besar (Large Language Model/LLM) yang terdesentralisasi. Namun, sangat penting untuk dicatat bahwa menganalisis kode Crypto dengan AI dan menjalankan model AI berskala besar pada blockchain pada dasarnya berbeda. Memasukkan beberapa elemen Crypto ke dalam model AI hampir tidak dapat dianggap sebagai integrasi yang sempurna.

Saat ini, Crypto unggul dalam produksi dan insentif. Tidak perlu mengubah paradigma produksi AI secara paksa dengan Crypto. Pilihan rasionalnya adalah mengintegrasikan Crypto ke dalam alur kerja AI dan memberdayakan AI dengan Crypto. Berikut adalah beberapa potensi integrasi yang telah saya rangkum:

  1. Produksi data yang terdesentralisasi, seperti pengumpulan data DePIN, dan keterbukaan data on-chain yang berisi data transaksi yang kaya untuk analisis keuangan, analisis keamanan, dan pelatihan data.
  2. Platform prapemrosesan yang terdesentralisasi, di mana pra-pelatihan tradisional tidak menimbulkan hambatan teknis yang tidak dapat diatasi. Di balik model-model besar di Eropa dan Amerika Serikat, terdapat tenaga kerja berintensitas tinggi dari para pembuat anotasi manual di dunia ketiga.
  3. Platform daya komputasi terdesentralisasi, dengan insentif terdesentralisasi dan pemanfaatan bandwidth pribadi, daya komputasi GPU, dan sumber daya perangkat keras lainnya.
  4. zkML, karena metode privasi tradisional seperti desensitisasi data mungkin tidak dapat menyelesaikan masalah dengan sempurna. zkML dapat menyembunyikan arah data dan secara efektif menilai keaslian dan keefektifan model sumber terbuka dan sumber tertutup.

Keempat aspek ini adalah skenario potensial yang menurut saya dapat memberdayakan AI. AI adalah alat serbaguna, dan area dan proyek AI untuk Crypto tidak dibahas lebih lanjut di sini; Anda dapat menjelajahinya sendiri.

Dapat diamati bahwa Crypto saat ini terutama berperan dalam enkripsi, perlindungan privasi, dan desain ekonomi. Satu-satunya upaya integrasi teknis adalah zkML. Di sini, mari kita bertukar pikiran sedikit: jika, di masa depan, Solana TPS benar-benar dapat mencapai 100.000+, dan jika kombinasi Filecoin dan Solana sempurna, bisakah kita menciptakan lingkungan LLM on-chain? Hal ini berpotensi membangun AI on-chain yang nyata, mengubah hubungan yang tidak setara saat ini di mana Crypto diintegrasikan ke dalam AI.

Integrasi Web3 ke dalam Alur Kerja AI

Seperti yang diketahui oleh semua orang, kartu grafis NVIDIA RTX 4090 merupakan komoditas berharga yang saat ini sulit didapatkan di negara Asia Timur tertentu. Yang lebih parah lagi, individu, perusahaan kecil, dan institusi akademis juga mengalami krisis kartu grafis. Bagaimanapun juga, perusahaan komersial besar adalah pembelanja besar. Jika jalur ketiga dapat dibuka di luar pembelian pribadi dan penyedia cloud, ini jelas akan memiliki nilai bisnis yang praktis, melepaskan diri dari tujuan spekulatif semata. Pendekatan logis dari Web3 untuk AI seharusnya adalah, "Jika Web3 tidak digunakan, proyek ini tidak dapat dilanjutkan."


Alur Kerja AI dari Perspektif Web3

Sumber data: Rumput dan Ekosistem Otomotif DePIN

Grass, yang diperkenalkan oleh Wynd Network, adalah sebuah pasar untuk menjual bandwidth menganggur. Grass berfungsi sebagai jaringan terbuka untuk akuisisi dan distribusi data, yang membedakannya dari pengumpulan dan penjualan data sederhana. Grass memiliki fungsi untuk membersihkan dan memvalidasi data untuk menavigasi lingkungan jaringan yang semakin tertutup. Selain itu, Grass bertujuan untuk berinteraksi langsung dengan model-model AI, memberikan mereka set data yang siap digunakan. Dataset AI memerlukan penanganan profesional, termasuk penyempurnaan manual yang ekstensif untuk memenuhi kebutuhan spesifik model AI.

Memperluas hal ini, Grass membahas masalah penjualan data, sementara sektor DePIN Web3 dapat menghasilkan data yang dibutuhkan oleh AI. Sektor ini terutama berfokus pada pengemudian otomatis kendaraan. Secara tradisional, pengemudian otonom mengharuskan perusahaan mengumpulkan data yang sesuai. Namun, proyek seperti DIMO dan Hivemapper beroperasi secara langsung pada kendaraan, mengumpulkan semakin banyak informasi mengemudi dan data jalan.

Dalam skenario mengemudi otonom sebelumnya, teknologi untuk pengenalan kendaraan dan peta presisi tinggi sangat penting. Informasi seperti peta presisi tinggi telah diakumulasikan oleh perusahaan seperti NavInfo, sehingga menciptakan hambatan industri. Jika pendatang baru memanfaatkan data Web3, mereka mungkin memiliki kesempatan untuk menyalip pesaing di tikungan.

Pemrosesan Data: Membebaskan Manusia yang Diperbudak oleh AI

Kecerdasan buatan dapat dibagi menjadi dua bagian: anotasi manual dan algoritme cerdas. Di wilayah dunia ketiga seperti Kenya dan Filipina, di mana kurva nilai untuk anotasi manual paling rendah, orang-orang bertanggung jawab atas tugas ini. Sementara itu, perusahaan prapemrosesan AI di Eropa dan Amerika Serikat mengambil bagian terbesar dari pendapatan tersebut, dan kemudian menjualnya ke perusahaan riset dan pengembangan AI.

Dengan kemajuan AI, semakin banyak perusahaan yang mengincar bisnis ini. Dalam menghadapi persaingan, harga satuan untuk anotasi data terus menurun. Bisnis ini terutama melibatkan pelabelan data, mirip dengan tugas-tugas seperti mengenali captcha, tanpa ambang batas teknis, dan bahkan harga yang sangat rendah seperti 0,01 RMB.


Source: https://aim.baidu.com/product/0793f1f1-f1cb-4f9f-b3a7-ef31335bd7f0

Dalam skenario ini, platform anotasi data Web3 seperti Public AI memiliki pasar bisnis yang praktis. Mereka menghubungkan perusahaan AI dengan pekerja anotasi data, menggantikan model persaingan harga rendah bisnis sederhana dengan sistem insentif. Namun, penting untuk dicatat bahwa perusahaan yang sudah matang seperti Scale AI menjamin kualitas yang dapat diandalkan dalam teknologi anotasi. Untuk platform anotasi data yang terdesentralisasi, mengendalikan kualitas dan mencegah penyalahgunaan adalah kebutuhan mutlak. Pada dasarnya, ini merupakan layanan perusahaan C2B2B, di mana skala dan kuantitas data saja tidak dapat meyakinkan perusahaan.

Kebebasan Perangkat Keras: Render Jaringan dan Bittensor

Perlu diklarifikasi bahwa, tidak seperti rig penambangan Bitcoin, saat ini tidak ada perangkat keras Web3 AI khusus. Daya komputasi dan platform yang ada saat ini ditransformasikan dari perangkat keras yang sudah matang dengan tambahan lapisan insentif Crypto, yang pada dasarnya berada di bawah sektor DePIN. Namun, karena ini berbeda dari proyek sumber data, ini termasuk dalam alur kerja AI di sini.

Untuk definisi DePIN, silakan merujuk ke artikel yang saya tulis sebelumnya: DePIN sebelum Helium: Menjelajahi Bitcoin, Arweave, dan STEPN

Render Network adalah proyek yang sudah lama ada dan pada awalnya tidak dirancang untuk AI. Perusahaan ini mulai beroperasi pada tahun 2017, dengan fokus pada rendering, seperti yang disarankan oleh namanya. Pada waktu itu, GPU tidak diminati, tetapi peluang pasar secara bertahap muncul. Pasar GPU, terutama GPU kelas atas yang dimonopoli oleh NVIDIA, menghambat masuknya pengguna rendering, AI, dan metaverse karena harganya yang selangit. Jika sebuah saluran dapat dibangun antara permintaan dan penawaran, model ekonomi yang mirip dengan sepeda bersama mungkin memiliki peluang untuk dibangun.

Selain itu, sumber daya GPU tidak memerlukan transfer perangkat keras yang sebenarnya; sumber daya tersebut dapat dialokasikan menggunakan sumber daya perangkat lunak. Perlu disebutkan bahwa Render Network beralih ke ekosistem Solana pada tahun 2023, meninggalkan Polygon. Perpindahan ke Solana, bahkan sebelum kebangkitannya, telah terbukti menjadi keputusan yang tepat dari waktu ke waktu. Untuk penggunaan dan distribusi GPU, jaringan berkecepatan tinggi adalah persyaratan yang sangat penting.

Jika Render Network dapat dianggap sebagai proyek yang sudah mapan, Bittensor saat ini mendapatkan momentum.

BitTensor dibangun di atas Polkadot, dengan tujuan melatih model AI melalui insentif ekonomi. Node bersaing untuk melatih model AI dengan kesalahan minimal atau efisiensi maksimum, menyerupai proses on-chain klasik dalam proyek-proyek Crypto. Namun, proses pelatihan yang sebenarnya masih membutuhkan GPU NVIDIA dan platform tradisional, membuatnya mirip dengan platform kompetisi seperti Kaggle.

zkML dan UBI: Aspek Ganda dari Worldcoin

Zero-Knowledge Machine Learning (zkML) memperkenalkan teknologi zk ke dalam proses pelatihan model AI untuk mengatasi masalah seperti kebocoran data, kegagalan privasi, dan verifikasi model. Dua yang pertama mudah dimengerti - data terenkripsi zk masih bisa dilatih tanpa membocorkan informasi pribadi atau privat.

Verifikasi model mengacu pada evaluasi model sumber tertutup. Dengan teknologi zk, nilai target dapat ditetapkan, sehingga memungkinkan model sumber tertutup untuk membuktikan kemampuannya melalui verifikasi hasil tanpa mengungkapkan proses perhitungan.

Worldcoin tidak hanya membayangkan zkML sejak awal, tetapi juga mengadvokasi Pendapatan Dasar Universal (UBI). Dalam visinya, produktivitas AI di masa depan akan jauh melampaui batas permintaan manusia. Tantangan sebenarnya adalah distribusi manfaat AI yang adil, dan konsep UBI akan dibagikan secara global melalui token $WLD, yang membutuhkan pengenalan biometrik orang sungguhan untuk mematuhi prinsip-prinsip keadilan.

Tentu saja, zkML dan UBI masih dalam tahap percobaan awal, tetapi mereka adalah perkembangan yang menarik yang akan terus saya ikuti dengan cermat.

Kesimpulan

Perkembangan AI, yang diwakili oleh Transformer dan Large Language Models (LLM), secara bertahap menghadapi hambatan, mirip dengan regresi linier dan jaringan saraf. Tidaklah layak untuk meningkatkan parameter model atau volume data tanpa batas, karena keuntungan marjinal akan berkurang.

AI mungkin merupakan pemain unggulan yang muncul dengan kebijaksanaan, tetapi masalah halusinasi saat ini sangat parah. Dapat diamati bahwa kepercayaan bahwa Crypto dapat mengubah AI adalah bentuk kepercayaan dan halusinasi standar. Meskipun penambahan Crypto mungkin secara teknis tidak dapat menyelesaikan masalah halusinasi, setidaknya dapat mengubah beberapa aspek dari perspektif keadilan dan transparansi.

Referensi:

  1. OpenAI: "Laporan Teknis GPT-4", 2023; arXiv:2303.08774.
  2. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Lion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin: "Perhatian Adalah Yang Anda Butuhkan", 2017; arXiv: 1706.03762.
  3. Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Catur, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei: "Hukum Penskalaan untuk Model Bahasa Saraf", 2020; arXiv:2001.08361.
  4. Hao Liu, Wilson Yan, Matei Zaharia, Pieter Abbeel: "Model Dunia pada Video Berdurasi Jutaan Menit dan Bahasa Dengan RingAttention", 2024; arXiv:2402.08268.
  5. Max Roser (2022) - "Sejarah singkat kecerdasan buatan: Dunia telah berubah dengan cepat - apa yang akan terjadi selanjutnya?" Diterbitkan secara online di OurWorldInData.org. Diambil dari: 'https://ourworldindata.org/brief-history-of-ai'[Sumber Daya Online]
  6. Pengantar pembelajaran mesin tanpa pengetahuan (ZKML)
  7. Memahami Perpotongan antara Kripto dan AI
  8. Rumput adalah Lapisan Data dari AI
  9. Bittensor: Pasar Intelijen Peer-to-Peer

Penafian: Penafian

  1. Artikel ini dicetak ulang dari[佐爷歪脖山], Semua hak cipta adalah milik penulis asli[佐爷]. Jika ada keberatan dengan pencetakan ulang ini, silakan hubungi tim Gate Learn, dan mereka akan segera menanganinya.
  2. Penafian Tanggung Jawab: Pandangan dan pendapat yang diungkapkan dalam artikel ini semata-mata merupakan pandangan dan pendapat penulis dan bukan merupakan saran investasi.
  3. Penerjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel terjemahan dilarang.

Kripto sebagai Ilusi AI

Menengah3/5/2024, 10:04:31 AM
Artikel ini mengeksplorasi potensi integrasi AI dan mata uang kripto, menekankan bahwa integrasi yang sebenarnya melibatkan penggabungan Crypto ke dalam alur kerja AI dan memberdayakan AI dengan Crypto.
  • Kemunculan: Fenomena di mana banyak entitas kecil berinteraksi untuk menghasilkan keseluruhan yang lebih besar, menunjukkan karakteristik baru yang tidak dimiliki oleh masing-masing komponen, seperti kemunculan yang diamati dalam sistem biologis yang dipelajari dalam kimia.
  • Halusinasi: Kecenderungan model untuk menghasilkan data yang menipu, dengan model AI yang menghasilkan output yang tampak benar tetapi sebenarnya salah.

Hubungan antara AI dan Crypto telah menunjukkan gelombang yang berbeda. Sejak AlphaGo mengalahkan pemain Go profesional pada tahun 2016, upaya untuk menggabungkan keduanya, seperti kemunculan proyek-proyek spontan seperti Fetch.AI, telah disaksikan di dunia kripto. Dengan munculnya GPT-4 pada tahun 2023, tren AI + Crypto telah bangkit kembali, dicontohkan dengan penerbitan WorldCoin. Umat manusia tampaknya siap memasuki era utopis di mana AI bertanggung jawab atas produktivitas, dan Crypto menangani distribusi.

Sentimen ini mencapai puncaknya setelah OpenAI meluncurkan aplikasi Sora untuk sintesis teks-ke-video. Namun, emosi sering kali melibatkan unsur irasional. Li Yizhou, misalnya, tampaknya merupakan bagian dari segmen yang disalahpahami, yang dicontohkan oleh:

  • Penggabungan aplikasi AI tertentu dengan pengembangan algoritma. Meskipun Sora dan prinsip-prinsip Transformer yang mendasari GPT-4 adalah sumber terbuka, penggunaan keduanya memerlukan pembayaran ke OpenAI.
  • Kombinasi AI dan Crypto saat ini lebih kepada Crypto yang mengambil inisiatif untuk mendekati AI, karena raksasa AI besar belum menunjukkan kemauan yang jelas. Pada tahap ini, apa yang dapat dilakukan AI untuk Crypto lebih besar daripada apa yang dapat dilakukan Crypto untuk AI.
  • Menggunakan teknologi AI dalam aplikasi Crypto tidak sama dengan integrasi AI dan Crypto, seperti yang terlihat pada aplikasi seperti game blockchain, GameFi, proyek metaverse, Web3 Games, dan persona digital di alam semesta AW.
  • Kontribusi yang dapat diberikan Crypto untuk pengembangan teknologi AI terutama melibatkan desentralisasi dan insentif token dalam tiga komponen AI: daya komputasi, data, dan model.
  • WorldCoin berfungsi sebagai integrasi yang sukses dari keduanya, dengan zkML yang diposisikan di persimpangan teknologi AI dan Kripto, dan teori UBI (Universal Basic Income) yang sedang menjalani implementasi skala besar pertamanya.

Dalam artikel ini, fokusnya adalah pada manfaat yang dapat diberikan oleh Kripto kepada AI, karena proyek Kripto saat ini yang menekankan pada aplikasi AI sebagian besar dilihat sebagai tipu muslihat pemasaran dan tidak kondusif untuk diskusi kita.

Dari Regresi Linier ke Transformator

Untuk waktu yang lama, titik fokus dalam diskusi tentang AI adalah apakah "kemunculan" kecerdasan buatan akan mengarah pada penciptaan makhluk hidup seperti yang ada di "The Matrix" atau peradaban berbasis silikon. Kekhawatiran tentang interaksi antara manusia dan teknologi AI terus berlanjut, dengan contoh baru-baru ini seperti kemunculan Sora dan contoh sebelumnya seperti GPT-4 (2023), AlphaGo (2016), dan Deep Blue IBM yang mengalahkan juara dunia catur pada tahun 1997.

Sementara kekhawatiran tersebut belum terwujud, mari kita rileks dan menguraikan secara singkat mekanisme di balik AI.

Berawal dari regresi linier, yang pada dasarnya adalah persamaan linier sederhana, seperti mekanisme penurunan berat badan oleh Jia Ling, seorang aktor terkenal Tiongkok, kita dapat membuat generalisasi berikut. Di sini, x dan y mewakili hubungan antara asupan kalori dan berat badan, yang menunjukkan bahwa makan lebih banyak secara alami akan meningkatkan berat badan, dan jika Anda ingin menurunkan berat badan, Anda harus makan lebih sedikit.

Namun, pendekatan ini membawa beberapa masalah. Pertama, ada batasan fisiologis untuk tinggi dan berat badan manusia, dan tidak mungkin Anda akan bertemu dengan raksasa setinggi 3 meter atau wanita berbobot ribuan kilogram. Oleh karena itu, mempertimbangkan situasi di luar batas-batas ini tidak memiliki signifikansi praktis. Kedua, hanya makan lebih sedikit dan berolahraga lebih banyak tidak sesuai dengan prinsip-prinsip ilmiah penurunan berat badan dan, dalam kasus yang parah, dapat membahayakan tubuh.

Kami memperkenalkan Indeks Massa Tubuh (BMI), yang mengukur hubungan antara berat badan dan tinggi badan dengan membagi berat badan dengan kuadrat tinggi badan. Melalui tiga faktor-makan, tidur, dan olahraga-untuk menilai hubungan antara tinggi dan berat badan, kita sekarang membutuhkan tiga parameter dan dua keluaran. Regresi linier terbukti tidak cukup, sehingga memunculkan jaringan saraf. Seperti namanya, jaringan saraf meniru struktur otak manusia, dengan kemungkinan lebih banyak berpikir akan menghasilkan lebih banyak rasionalitas. Meningkatkan frekuensi dan kedalaman berpikir, yang dikenal sebagai pembelajaran mendalam (saya membuat analogi yang agak longgar di sini), memungkinkan pertimbangan yang lebih menyeluruh sebelum mengambil tindakan.


Gambaran Singkat Sejarah Perkembangan Algoritma AI

Namun demikian, peningkatan jumlah lapisan tidak terbatas; masih ada batasnya. Setelah ambang batas kritis tercapai, efektivitas dapat menurun. Oleh karena itu, menjadi penting untuk memahami hubungan antara informasi yang ada dengan cara yang lebih masuk akal. Misalnya, pemahaman mendalam tentang hubungan yang lebih bernuansa antara tinggi dan berat badan, menemukan faktor-faktor yang sebelumnya tidak disadari, atau Jia Ling menemukan seorang pelatih top tetapi ragu-ragu untuk secara langsung mengungkapkan keinginannya untuk menurunkan berat badan.


Dalam skenario seperti itu, Jia Ling dan pelatih menjadi lawan dalam penyandian dan penyandian balik, menyampaikan makna bolak-balik yang mewakili maksud sebenarnya dari kedua belah pihak. Namun, tidak seperti pernyataan langsung "Saya ingin menurunkan berat badan, ini hadiah untuk pelatih," niat sebenarnya dari kedua belah pihak tersembunyi di balik "makna."

Kami melihat sebuah fakta: jika jumlah iterasi antara kedua belah pihak mencukupi, makna dari setiap komunikasi menjadi lebih mudah untuk diuraikan.

Jika kita memperluas model ini, model ini mewakili apa yang sehari-hari dikenal sebagai Model Bahasa Besar (LLM), yang memeriksa hubungan kontekstual antara kata dan kalimat. Saat ini, model besar telah berkembang untuk menyelidiki skenario seperti gambar dan video.

Dalam spektrum AI, apakah itu regresi linier sederhana atau Transformer yang sangat kompleks, semuanya adalah algoritme atau model. Selain itu, ada dua faktor penting: daya komputasi dan data.


Deskripsi: Sejarah singkat perkembangan AI, Sumber: https://ourworldindata.org/brief-history-of-ai

Sederhananya, AI adalah mesin yang memproses data, melakukan komputasi, dan memberikan hasil. Namun, dibandingkan dengan entitas fisik seperti robot, AI lebih bersifat virtual. Dalam hal daya komputasi, data, dan model, proses operasional saat ini dalam komersialisasi Web2 adalah sebagai berikut:

  • Data dibagi menjadi data publik, data milik perusahaan, dan data komersial, yang membutuhkan anotasi dan prapemrosesan profesional. Sebagai contoh, Scale AI menyediakan prapemrosesan data untuk perusahaan-perusahaan AI utama.
  • Daya komputasi dibagi menjadi dua mode: membangun sendiri dan penyewaan komputasi awan. Saat ini, NVIDIA mendominasi perangkat keras GPU, dan perpustakaan CUDA telah dipersiapkan selama bertahun-tahun. Ekosistem perangkat keras dan perangkat lunak didominasi oleh satu perusahaan. Pilihan kedua adalah penyewaan daya komputasi dari penyedia layanan cloud, seperti Microsoft Azure, Google Cloud, dan AWS, yang menyediakan layanan komputasi satu atap dan penyebaran model.
  • Model dapat diklasifikasikan ke dalam kerangka kerja dan algoritma. Pertarungan model telah berakhir, dengan TensorFlow dari Google muncul sebagai yang pertama sementara mengalami kemunduran awal, dan PyTorch dari Meta muncul belakangan tetapi memimpin. Namun, baik itu Google, yang memperkenalkan Transformer, atau Meta, dengan PyTorch, keduanya secara bertahap tertinggal di belakang OpenAI dalam hal komersialisasi. Namun demikian, kekuatan mereka tetap tangguh; algoritme saat ini didominasi oleh Transformer, dan berbagai model besar terutama bersaing dari segi sumber data dan detail.


Proses Kerja AI

Seperti yang telah disebutkan sebelumnya, aplikasi AI memiliki berbagai macam domain, seperti koreksi kode yang disebutkan Vitalik, yang telah digunakan. Melihat dari perspektif yang berbeda, kontribusi Crypto terhadap AI terutama berfokus pada area non-teknis, seperti pasar data yang terdesentralisasi, platform daya komputasi yang terdesentralisasi, dll. Ada beberapa percobaan dengan Model Bahasa Besar (Large Language Model/LLM) yang terdesentralisasi. Namun, sangat penting untuk dicatat bahwa menganalisis kode Crypto dengan AI dan menjalankan model AI berskala besar pada blockchain pada dasarnya berbeda. Memasukkan beberapa elemen Crypto ke dalam model AI hampir tidak dapat dianggap sebagai integrasi yang sempurna.

Saat ini, Crypto unggul dalam produksi dan insentif. Tidak perlu mengubah paradigma produksi AI secara paksa dengan Crypto. Pilihan rasionalnya adalah mengintegrasikan Crypto ke dalam alur kerja AI dan memberdayakan AI dengan Crypto. Berikut adalah beberapa potensi integrasi yang telah saya rangkum:

  1. Produksi data yang terdesentralisasi, seperti pengumpulan data DePIN, dan keterbukaan data on-chain yang berisi data transaksi yang kaya untuk analisis keuangan, analisis keamanan, dan pelatihan data.
  2. Platform prapemrosesan yang terdesentralisasi, di mana pra-pelatihan tradisional tidak menimbulkan hambatan teknis yang tidak dapat diatasi. Di balik model-model besar di Eropa dan Amerika Serikat, terdapat tenaga kerja berintensitas tinggi dari para pembuat anotasi manual di dunia ketiga.
  3. Platform daya komputasi terdesentralisasi, dengan insentif terdesentralisasi dan pemanfaatan bandwidth pribadi, daya komputasi GPU, dan sumber daya perangkat keras lainnya.
  4. zkML, karena metode privasi tradisional seperti desensitisasi data mungkin tidak dapat menyelesaikan masalah dengan sempurna. zkML dapat menyembunyikan arah data dan secara efektif menilai keaslian dan keefektifan model sumber terbuka dan sumber tertutup.

Keempat aspek ini adalah skenario potensial yang menurut saya dapat memberdayakan AI. AI adalah alat serbaguna, dan area dan proyek AI untuk Crypto tidak dibahas lebih lanjut di sini; Anda dapat menjelajahinya sendiri.

Dapat diamati bahwa Crypto saat ini terutama berperan dalam enkripsi, perlindungan privasi, dan desain ekonomi. Satu-satunya upaya integrasi teknis adalah zkML. Di sini, mari kita bertukar pikiran sedikit: jika, di masa depan, Solana TPS benar-benar dapat mencapai 100.000+, dan jika kombinasi Filecoin dan Solana sempurna, bisakah kita menciptakan lingkungan LLM on-chain? Hal ini berpotensi membangun AI on-chain yang nyata, mengubah hubungan yang tidak setara saat ini di mana Crypto diintegrasikan ke dalam AI.

Integrasi Web3 ke dalam Alur Kerja AI

Seperti yang diketahui oleh semua orang, kartu grafis NVIDIA RTX 4090 merupakan komoditas berharga yang saat ini sulit didapatkan di negara Asia Timur tertentu. Yang lebih parah lagi, individu, perusahaan kecil, dan institusi akademis juga mengalami krisis kartu grafis. Bagaimanapun juga, perusahaan komersial besar adalah pembelanja besar. Jika jalur ketiga dapat dibuka di luar pembelian pribadi dan penyedia cloud, ini jelas akan memiliki nilai bisnis yang praktis, melepaskan diri dari tujuan spekulatif semata. Pendekatan logis dari Web3 untuk AI seharusnya adalah, "Jika Web3 tidak digunakan, proyek ini tidak dapat dilanjutkan."


Alur Kerja AI dari Perspektif Web3

Sumber data: Rumput dan Ekosistem Otomotif DePIN

Grass, yang diperkenalkan oleh Wynd Network, adalah sebuah pasar untuk menjual bandwidth menganggur. Grass berfungsi sebagai jaringan terbuka untuk akuisisi dan distribusi data, yang membedakannya dari pengumpulan dan penjualan data sederhana. Grass memiliki fungsi untuk membersihkan dan memvalidasi data untuk menavigasi lingkungan jaringan yang semakin tertutup. Selain itu, Grass bertujuan untuk berinteraksi langsung dengan model-model AI, memberikan mereka set data yang siap digunakan. Dataset AI memerlukan penanganan profesional, termasuk penyempurnaan manual yang ekstensif untuk memenuhi kebutuhan spesifik model AI.

Memperluas hal ini, Grass membahas masalah penjualan data, sementara sektor DePIN Web3 dapat menghasilkan data yang dibutuhkan oleh AI. Sektor ini terutama berfokus pada pengemudian otomatis kendaraan. Secara tradisional, pengemudian otonom mengharuskan perusahaan mengumpulkan data yang sesuai. Namun, proyek seperti DIMO dan Hivemapper beroperasi secara langsung pada kendaraan, mengumpulkan semakin banyak informasi mengemudi dan data jalan.

Dalam skenario mengemudi otonom sebelumnya, teknologi untuk pengenalan kendaraan dan peta presisi tinggi sangat penting. Informasi seperti peta presisi tinggi telah diakumulasikan oleh perusahaan seperti NavInfo, sehingga menciptakan hambatan industri. Jika pendatang baru memanfaatkan data Web3, mereka mungkin memiliki kesempatan untuk menyalip pesaing di tikungan.

Pemrosesan Data: Membebaskan Manusia yang Diperbudak oleh AI

Kecerdasan buatan dapat dibagi menjadi dua bagian: anotasi manual dan algoritme cerdas. Di wilayah dunia ketiga seperti Kenya dan Filipina, di mana kurva nilai untuk anotasi manual paling rendah, orang-orang bertanggung jawab atas tugas ini. Sementara itu, perusahaan prapemrosesan AI di Eropa dan Amerika Serikat mengambil bagian terbesar dari pendapatan tersebut, dan kemudian menjualnya ke perusahaan riset dan pengembangan AI.

Dengan kemajuan AI, semakin banyak perusahaan yang mengincar bisnis ini. Dalam menghadapi persaingan, harga satuan untuk anotasi data terus menurun. Bisnis ini terutama melibatkan pelabelan data, mirip dengan tugas-tugas seperti mengenali captcha, tanpa ambang batas teknis, dan bahkan harga yang sangat rendah seperti 0,01 RMB.


Source: https://aim.baidu.com/product/0793f1f1-f1cb-4f9f-b3a7-ef31335bd7f0

Dalam skenario ini, platform anotasi data Web3 seperti Public AI memiliki pasar bisnis yang praktis. Mereka menghubungkan perusahaan AI dengan pekerja anotasi data, menggantikan model persaingan harga rendah bisnis sederhana dengan sistem insentif. Namun, penting untuk dicatat bahwa perusahaan yang sudah matang seperti Scale AI menjamin kualitas yang dapat diandalkan dalam teknologi anotasi. Untuk platform anotasi data yang terdesentralisasi, mengendalikan kualitas dan mencegah penyalahgunaan adalah kebutuhan mutlak. Pada dasarnya, ini merupakan layanan perusahaan C2B2B, di mana skala dan kuantitas data saja tidak dapat meyakinkan perusahaan.

Kebebasan Perangkat Keras: Render Jaringan dan Bittensor

Perlu diklarifikasi bahwa, tidak seperti rig penambangan Bitcoin, saat ini tidak ada perangkat keras Web3 AI khusus. Daya komputasi dan platform yang ada saat ini ditransformasikan dari perangkat keras yang sudah matang dengan tambahan lapisan insentif Crypto, yang pada dasarnya berada di bawah sektor DePIN. Namun, karena ini berbeda dari proyek sumber data, ini termasuk dalam alur kerja AI di sini.

Untuk definisi DePIN, silakan merujuk ke artikel yang saya tulis sebelumnya: DePIN sebelum Helium: Menjelajahi Bitcoin, Arweave, dan STEPN

Render Network adalah proyek yang sudah lama ada dan pada awalnya tidak dirancang untuk AI. Perusahaan ini mulai beroperasi pada tahun 2017, dengan fokus pada rendering, seperti yang disarankan oleh namanya. Pada waktu itu, GPU tidak diminati, tetapi peluang pasar secara bertahap muncul. Pasar GPU, terutama GPU kelas atas yang dimonopoli oleh NVIDIA, menghambat masuknya pengguna rendering, AI, dan metaverse karena harganya yang selangit. Jika sebuah saluran dapat dibangun antara permintaan dan penawaran, model ekonomi yang mirip dengan sepeda bersama mungkin memiliki peluang untuk dibangun.

Selain itu, sumber daya GPU tidak memerlukan transfer perangkat keras yang sebenarnya; sumber daya tersebut dapat dialokasikan menggunakan sumber daya perangkat lunak. Perlu disebutkan bahwa Render Network beralih ke ekosistem Solana pada tahun 2023, meninggalkan Polygon. Perpindahan ke Solana, bahkan sebelum kebangkitannya, telah terbukti menjadi keputusan yang tepat dari waktu ke waktu. Untuk penggunaan dan distribusi GPU, jaringan berkecepatan tinggi adalah persyaratan yang sangat penting.

Jika Render Network dapat dianggap sebagai proyek yang sudah mapan, Bittensor saat ini mendapatkan momentum.

BitTensor dibangun di atas Polkadot, dengan tujuan melatih model AI melalui insentif ekonomi. Node bersaing untuk melatih model AI dengan kesalahan minimal atau efisiensi maksimum, menyerupai proses on-chain klasik dalam proyek-proyek Crypto. Namun, proses pelatihan yang sebenarnya masih membutuhkan GPU NVIDIA dan platform tradisional, membuatnya mirip dengan platform kompetisi seperti Kaggle.

zkML dan UBI: Aspek Ganda dari Worldcoin

Zero-Knowledge Machine Learning (zkML) memperkenalkan teknologi zk ke dalam proses pelatihan model AI untuk mengatasi masalah seperti kebocoran data, kegagalan privasi, dan verifikasi model. Dua yang pertama mudah dimengerti - data terenkripsi zk masih bisa dilatih tanpa membocorkan informasi pribadi atau privat.

Verifikasi model mengacu pada evaluasi model sumber tertutup. Dengan teknologi zk, nilai target dapat ditetapkan, sehingga memungkinkan model sumber tertutup untuk membuktikan kemampuannya melalui verifikasi hasil tanpa mengungkapkan proses perhitungan.

Worldcoin tidak hanya membayangkan zkML sejak awal, tetapi juga mengadvokasi Pendapatan Dasar Universal (UBI). Dalam visinya, produktivitas AI di masa depan akan jauh melampaui batas permintaan manusia. Tantangan sebenarnya adalah distribusi manfaat AI yang adil, dan konsep UBI akan dibagikan secara global melalui token $WLD, yang membutuhkan pengenalan biometrik orang sungguhan untuk mematuhi prinsip-prinsip keadilan.

Tentu saja, zkML dan UBI masih dalam tahap percobaan awal, tetapi mereka adalah perkembangan yang menarik yang akan terus saya ikuti dengan cermat.

Kesimpulan

Perkembangan AI, yang diwakili oleh Transformer dan Large Language Models (LLM), secara bertahap menghadapi hambatan, mirip dengan regresi linier dan jaringan saraf. Tidaklah layak untuk meningkatkan parameter model atau volume data tanpa batas, karena keuntungan marjinal akan berkurang.

AI mungkin merupakan pemain unggulan yang muncul dengan kebijaksanaan, tetapi masalah halusinasi saat ini sangat parah. Dapat diamati bahwa kepercayaan bahwa Crypto dapat mengubah AI adalah bentuk kepercayaan dan halusinasi standar. Meskipun penambahan Crypto mungkin secara teknis tidak dapat menyelesaikan masalah halusinasi, setidaknya dapat mengubah beberapa aspek dari perspektif keadilan dan transparansi.

Referensi:

  1. OpenAI: "Laporan Teknis GPT-4", 2023; arXiv:2303.08774.
  2. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Lion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin: "Perhatian Adalah Yang Anda Butuhkan", 2017; arXiv: 1706.03762.
  3. Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Catur, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei: "Hukum Penskalaan untuk Model Bahasa Saraf", 2020; arXiv:2001.08361.
  4. Hao Liu, Wilson Yan, Matei Zaharia, Pieter Abbeel: "Model Dunia pada Video Berdurasi Jutaan Menit dan Bahasa Dengan RingAttention", 2024; arXiv:2402.08268.
  5. Max Roser (2022) - "Sejarah singkat kecerdasan buatan: Dunia telah berubah dengan cepat - apa yang akan terjadi selanjutnya?" Diterbitkan secara online di OurWorldInData.org. Diambil dari: 'https://ourworldindata.org/brief-history-of-ai'[Sumber Daya Online]
  6. Pengantar pembelajaran mesin tanpa pengetahuan (ZKML)
  7. Memahami Perpotongan antara Kripto dan AI
  8. Rumput adalah Lapisan Data dari AI
  9. Bittensor: Pasar Intelijen Peer-to-Peer

Penafian: Penafian

  1. Artikel ini dicetak ulang dari[佐爷歪脖山], Semua hak cipta adalah milik penulis asli[佐爷]. Jika ada keberatan dengan pencetakan ulang ini, silakan hubungi tim Gate Learn, dan mereka akan segera menanganinya.
  2. Penafian Tanggung Jawab: Pandangan dan pendapat yang diungkapkan dalam artikel ini semata-mata merupakan pandangan dan pendapat penulis dan bukan merupakan saran investasi.
  3. Penerjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel terjemahan dilarang.
Empieza ahora
¡Regístrate y recibe un bono de
$100
!