Sora Muncul: Akankah 2024 Menjadi Tahun Revolusi AI+Web3?

Pemula2/29/2024, 2:39:27 PM
Selain Depin, percikan api seperti apa yang bisa dinyalakan oleh jalinan Web3 dan AI? Peluang apa saja yang ada di jalur Sora? Artikel ini juga merenungkan kemungkinan Web3 di era AI.

Kata Pengantar

Pada tanggal 16 Februari, OpenAI mengumumkan model difusi generatif teks-ke-video terbarunya yang diberi nama "Sora," yang menandai tonggak sejarah baru dalam AI generatif dengan kemampuannya menghasilkan video berkualitas tinggi di berbagai jenis data visual. Tidak seperti alat pembuat video AI seperti Pika, yang menghasilkan beberapa detik video dari beberapa gambar, Sora melatih ruang laten terkompresi dari video dan gambar, memecahnya menjadi potongan-potongan spatiotemporal untuk pembuatan video yang dapat diskalakan. Selain itu, model ini menunjukkan kemampuan simulasi dunia fisik dan digital, dengan demo 60 detik yang dideskripsikan sebagai "simulator universal dunia fisik."

Sora melanjutkan jalur teknis "sumber data-Transformator-Difusi-kemunculan" yang terlihat pada model GPT sebelumnya, yang mengindikasikan kematangan pengembangannya juga bergantung pada kekuatan komputasi. Mengingat volume data yang lebih besar yang diperlukan untuk pelatihan video dibandingkan dengan teks, permintaan daya komputasi diperkirakan akan meningkat lebih lanjut. Namun, seperti yang telah dibahas dalam artikel kami sebelumnya "Pratinjau Sektor yang Menjanjikan: Pasar Daya Komputasi Terdesentralisasi," pentingnya daya komputasi di era AI telah dieksplorasi, dan dengan meningkatnya popularitas AI, banyak proyek daya komputasi telah muncul, menguntungkan proyek-proyek Depin lainnya (penyimpanan, daya komputasi, dll.) dengan lonjakan nilai. Selain Depin, artikel ini bertujuan untuk memperbarui dan melengkapi diskusi sebelumnya, merenungkan percikan yang mungkin muncul dari jalinan Web3 dan AI dan peluang dalam lintasan ini di era AI.

Perkembangan AI: Tiga Arah Utama

Kecerdasan Buatan (AI) adalah bidang yang sedang berkembang yang berfokus pada peniruan, perluasan, dan pengayaan kecerdasan manusia. Sejak awal kemunculannya pada tahun 1950-an dan 1960-an, AI telah mengalami evolusi selama lebih dari setengah abad, muncul sebagai teknologi penting yang mendorong transformasi masyarakat dan berbagai industri. Sepanjang perjalanan ini, kemajuan yang saling terkait dari tiga arah penelitian utama-simbolisme, koneksionisme, dan behaviorisme-telah meletakkan dasar bagi kemajuan pesat AI saat ini.

Simbolisme

Simbolisme, yang juga disebut sebagai logika atau penalaran berbasis aturan, menyatakan bahwa meniru kecerdasan manusia melalui pemrosesan simbol adalah hal yang mungkin dilakukan. Pendekatan ini menggunakan simbol untuk merepresentasikan dan memanipulasi objek, konsep, dan hubungannya dalam domain masalah tertentu, menggunakan penalaran logis untuk menyelesaikan masalah. Simbolisme telah mencapai kesuksesan yang luar biasa, terutama dalam sistem pakar dan representasi pengetahuan. Prinsip utamanya adalah bahwa perilaku cerdas dapat direalisasikan melalui manipulasi simbol dan inferensi logis, dengan simbol-simbol yang berfungsi sebagai abstraksi tingkat tinggi dari dunia nyata.

Koneksiisme

Koneksionisme, atau dikenal juga sebagai pendekatan jaringan saraf, berusaha mencapai kecerdasan dengan meniru struktur dan fungsi otak manusia. Metodologi ini membangun jaringan yang terdiri dari banyak unit pemrosesan sederhana yang mirip dengan neuron dan menyesuaikan kekuatan koneksi di antara unit-unit ini, mirip dengan sinapsis, untuk memfasilitasi pembelajaran. Menekankan pembelajaran dan generalisasi dari data, koneksionisme sangat cocok untuk tugas-tugas seperti pengenalan pola, klasifikasi, dan pemetaan input-output yang berkelanjutan. Pembelajaran mendalam, sebuah evolusi dari koneksionisme, telah mencapai terobosan dalam berbagai bidang seperti pengenalan gambar dan ucapan, serta pemrosesan bahasa alami.

Behaviorisme

Behaviorisme, yang terkait erat dengan robotika biomimetik dan penelitian sistem cerdas otonom, menggarisbawahi bahwa agen cerdas dapat belajar melalui interaksi lingkungan. Berbeda dengan pendekatan sebelumnya, behaviorisme tidak berfokus pada simulasi representasi internal atau proses kognitif, melainkan mencapai perilaku adaptif melalui siklus persepsi-tindakan. Ini menyatakan bahwa kecerdasan terwujud melalui interaksi dan pembelajaran lingkungan yang dinamis, sehingga sangat efektif untuk robot bergerak dan sistem kontrol adaptif yang beroperasi di lingkungan yang kompleks dan tidak dapat diprediksi.

Terlepas dari perbedaan mendasarnya, ketiga arah penelitian ini dapat bersinergi dan saling melengkapi dalam penelitian dan aplikasi AI praktis, yang secara kolektif mendorong pengembangan bidang ini.

Prinsip-prinsip AIGC

Bidang Artificial Intelligence Generated Content (AIGC) yang sedang berkembang merupakan evolusi dan penerapan koneksionisme, yang memfasilitasi pembuatan konten baru dengan meniru kreativitas manusia. Model-model ini dilatih menggunakan set data yang luas dan algoritma pembelajaran mendalam untuk melihat struktur, hubungan, dan pola yang mendasari data. Didorong oleh masukan dari pengguna, mereka menghasilkan beragam output termasuk gambar, video, kode, musik, desain, terjemahan, jawaban atas pertanyaan, dan teks. Saat ini, AIGC pada dasarnya terdiri dari tiga elemen: Deep Learning (DL), Big Data, dan Kekuatan Komputasi Masif.

Pembelajaran Mendalam

Deep Learning, bagian dari Machine Learning (ML), menggunakan algoritme yang dimodelkan berdasarkan jaringan saraf otak manusia. Seperti halnya otak manusia yang terdiri dari neuron-neuron yang saling terhubung yang memproses informasi, jaringan saraf deep learning terdiri dari beberapa lapisan neuron buatan yang melakukan komputasi di dalam komputer. Neuron buatan ini, atau node, memanfaatkan operasi matematika untuk memproses data dan memecahkan masalah yang kompleks melalui algoritme pembelajaran yang mendalam.

Jaringan syaraf terdiri dari lapisan-lapisan: input, tersembunyi, dan output, dengan parameter yang menghubungkan lapisan-lapisan ini.

- Lapisan Input: Lapisan pertama dari jaringan saraf, menerima data masukan eksternal. Setiap neuron dalam lapisan ini berhubungan dengan fitur dari data input. Misalnya, dalam memproses data gambar, masing-masing neuron dapat merepresentasikan nilai piksel.

- Lapisan Tersembunyi: Mengikuti lapisan input, lapisan tersembunyi memproses dan mengirimkan data melalui jaringan. Lapisan-lapisan ini menganalisis informasi pada berbagai tingkatan, mengadaptasi perilaku mereka saat menerima masukan baru. Jaringan deep learning dapat memiliki ratusan lapisan tersembunyi, yang memungkinkan analisis masalah dari berbagai sisi. Misalnya, ketika mengklasifikasikan hewan yang tidak dikenal dari sebuah gambar, jaringan dapat membandingkannya dengan hewan yang dikenal dengan menilai karakteristik seperti bentuk telinga, jumlah kaki, dan ukuran pupil. Lapisan tersembunyi berfungsi serupa, masing-masing memproses fitur hewan yang berbeda untuk membantu klasifikasi yang akurat.

- Lapisan Keluaran: Lapisan terakhir dari jaringan saraf, menghasilkan output jaringan. Neuron dalam lapisan ini mewakili kategori atau nilai output potensial. Dalam tugas klasifikasi, setiap neuron mungkin berhubungan dengan kategori, sementara dalam tugas regresi, lapisan keluaran dapat menampilkan satu neuron yang nilainya memprediksi hasil.

- Parameter: Dalam jaringan saraf, koneksi antara lapisan yang berbeda diwakili oleh bobot dan bias, yang dioptimalkan selama proses pelatihan untuk memungkinkan jaringan mengenali pola dalam data secara akurat dan membuat prediksi. Meningkatkan parameter dapat meningkatkan kapasitas model jaringan syaraf tiruan, yaitu kemampuan untuk mempelajari dan merepresentasikan pola yang kompleks dalam data. Namun demikian, hal ini juga meningkatkan permintaan daya komputasi.

Big Data

Pelatihan jaringan saraf tiruan yang efektif biasanya membutuhkan data yang luas, beragam, berkualitas tinggi, dan multi-sumber. Data tersebut menjadi landasan untuk melatih dan memvalidasi model pembelajaran mesin. Melalui analisis big data, model pembelajaran mesin dapat mengidentifikasi pola dan hubungan dalam data, sehingga memudahkan prediksi atau klasifikasi.

Kekuatan Komputasi yang Sangat Besar

Struktur multi-lapisan jaringan saraf yang rumit, berbagai parameter, persyaratan untuk memproses data besar, metode pelatihan berulang (yang melibatkan perhitungan propagasi maju dan mundur yang berulang, termasuk perhitungan fungsi aktivasi dan loss, perhitungan gradien, dan pembaruan bobot), kebutuhan komputasi presisi tinggi, kemampuan komputasi paralel, teknik pengoptimalan dan pengaturan, serta proses evaluasi dan validasi model secara kolektif berkontribusi pada tuntutan komputasi yang substansial.

Sora

Sora, model AI generasi video terbaru dari OpenAI, menandakan kemajuan substansial dalam kapasitas kecerdasan buatan untuk memproses dan memahami data visual yang beragam. Dengan menggunakan jaringan kompresi video dan teknik patch spatiotemporal, Sora dapat mengkonversi sejumlah besar data visual yang diambil di seluruh dunia dan dari berbagai perangkat ke dalam representasi terpadu. Kemampuan ini memungkinkan pemrosesan dan pemahaman yang efisien atas konten visual yang rumit. Sora menggunakan model Difusi yang dikondisikan dengan teks untuk menghasilkan video atau gambar yang sangat berkorelasi dengan petunjuk teks, menampilkan kreativitas dan kemampuan beradaptasi yang luar biasa.

Terlepas dari terobosan Sora dalam pembuatan video dan simulasi interaksi dunia nyata, Sora menghadapi keterbatasan tertentu. Hal ini mencakup akurasi simulasi dunia fisik, konsistensi dalam menghasilkan video yang panjang, pemahaman instruksi teks yang kompleks, dan efisiensi dalam pelatihan dan pembuatan. Pada dasarnya, Sora mengikuti lintasan teknis "big data-Transformer-Difusi-kemunculan", yang difasilitasi oleh kekuatan komputasi monopoli OpenAI dan keunggulan penggerak pertama, yang menghasilkan suatu bentuk estetika brute-force. Namun, perusahaan AI lainnya masih memiliki potensi untuk melampaui Sora melalui inovasi teknologi.

Meskipun koneksi Sora dengan blockchain masih sederhana, diperkirakan dalam satu atau dua tahun ke depan, pengaruh Sora akan mengarah pada kemunculan dan perkembangan pesat alat generasi AI berkualitas tinggi lainnya. Perkembangan ini diharapkan dapat berdampak pada berbagai sektor Web3 seperti GameFi, platform sosial, platform kreatif, Depin, dll. Oleh karena itu, memperoleh pemahaman umum tentang Sora sangatlah penting, dan merenungkan bagaimana AI akan berintegrasi secara efektif dengan Web3 di masa depan menjadi pertimbangan yang sangat penting.

Empat Jalur Integrasi AI x Web3

Seperti yang telah dibahas sebelumnya, komponen fundamental yang penting untuk AI generatif dapat diringkas menjadi tiga elemen utama: algoritme, data, dan daya komputasi. Sebaliknya, AI, sebagai alat universal dengan efek yang luas pada metode produksi, merevolusi cara industri beroperasi. Sementara itu, dampak signifikan dari teknologi blockchain ada dua: teknologi ini merestrukturisasi hubungan produksi dan memungkinkan desentralisasi. Dengan demikian, konvergensi kedua teknologi ini dapat memunculkan empat jalur potensial:

Daya Komputasi Terdesentralisasi

Bagian ini bertujuan untuk memberikan wawasan tentang lanskap daya komputasi saat ini. Dalam bidang AI, daya komputasi memiliki arti yang sangat penting. Permintaan akan daya komputasi dalam AI, terutama yang disoroti setelah kemunculan Sora, telah mencapai tingkat yang belum pernah terjadi sebelumnya. Selama Forum Ekonomi Dunia di Davos, Swiss, pada tahun 2024, CEO OpenAI, Sam Altman, menekankan bahwa daya komputasi dan energi saat ini merupakan kendala utama, mengisyaratkan kesetaraan mereka di masa depan dengan mata uang. Selanjutnya, pada tanggal 10 Februari, Sam Altman mengumumkan rencana terobosan melalui Twitter untuk mengumpulkan dana sebesar 7 triliun USD (setara dengan 40% dari PDB Tiongkok pada tahun 2023) untuk merevolusi industri semikonduktor global, yang bertujuan untuk membangun kerajaan semikonduktor. Sebelumnya, pertimbangan saya mengenai daya komputasi terbatas pada pembatasan nasional dan monopoli perusahaan; namun, gagasan mengenai satu entitas yang bercita-cita untuk mendominasi sektor semikonduktor global benar-benar luar biasa.

Pentingnya daya komputasi yang terdesentralisasi sangat jelas. Fitur-fitur Blockchain menawarkan solusi untuk masalah monopoli yang lazim terjadi dalam daya komputasi dan biaya selangit yang terkait dengan perolehan GPU khusus. Dari perspektif kebutuhan AI, pemanfaatan daya komputasi dapat dikategorikan ke dalam dua aspek: inferensi dan pelatihan. Proyek-proyek yang terutama berfokus pada pelatihan masih langka karena integrasi kompleks yang diperlukan untuk jaringan terdesentralisasi dan permintaan perangkat keras yang substansial, sehingga menimbulkan hambatan yang signifikan dalam implementasi. Sebaliknya, tugas inferensi relatif lebih sederhana, dengan desain jaringan terdesentralisasi yang tidak terlalu rumit dan kebutuhan perangkat keras dan bandwidth yang lebih rendah, sehingga mewakili jalan yang lebih mudah diakses.

Lanskap daya komputasi terpusat memiliki potensi yang sangat besar, sering kali dikaitkan dengan deskriptor "tingkat triliun", dan tetap menjadi topik yang sangat sensasional di era AI. Namun demikian, setelah mengamati banyak proyek baru-baru ini, banyak yang tampaknya merupakan upaya yang disusun dengan tergesa-gesa yang bertujuan untuk memanfaatkan tren. Meskipun proyek-proyek ini sering memperjuangkan desentralisasi, mereka cenderung menghindari diskusi tentang inefisiensi jaringan yang terdesentralisasi. Selain itu, terdapat tingkat keseragaman yang tinggi dalam desain, dengan banyak proyek yang mengadopsi pendekatan serupa (seperti desain penambangan L2 plus satu klik), yang berpotensi menyebabkan kegagalan dan menyulitkan upaya untuk membedakannya dari perlombaan AI tradisional.

Algoritma dan Sistem Kolaborasi Model

Algoritme pembelajaran mesin dirancang untuk mempelajari pola dan aturan dari data, sehingga memungkinkan mereka untuk membuat prediksi atau keputusan berdasarkan pola yang dipelajari ini. Karena kerumitan yang terlibat dalam desain dan pengoptimalannya, algoritme pada dasarnya merupakan teknologi yang intensif, membutuhkan keahlian mendalam dan inovasi teknologi. Mereka berfungsi sebagai tulang punggung pelatihan model AI, menentukan bagaimana data diproses untuk mendapatkan wawasan yang berguna atau membuat keputusan. Algoritme AI generatif yang terkenal, seperti Generative Adversarial Networks (GAN), Variational Autoencoders (VAE), dan Transformers, dirancang untuk domain tertentu seperti melukis, pengenalan bahasa, terjemahan, atau pembuatan video, dan sangat penting dalam melatih model AI khusus.

Banyaknya algoritme dan model dengan kekuatan yang berbeda-beda, menimbulkan pertanyaan: dapatkah semua itu diintegrasikan ke dalam model yang serbaguna? Bittensor, sebuah proyek yang baru-baru ini menonjol, memelopori upaya ke arah ini dengan mendorong kolaborasi di antara berbagai model dan algoritme AI, sehingga mendorong pengembangan model AI yang lebih efisien dan mumpuni. Inisiatif lain, seperti Commune AI, berfokus pada mendorong kolaborasi kode, meskipun berbagi algoritme dan model tetap menjadi tantangan karena sifatnya yang eksklusif di dalam perusahaan AI.

Konsep ekosistem kolaboratif AI sangat menarik, memanfaatkan teknologi blockchain untuk mengurangi kelemahan yang terkait dengan algoritme AI yang terisolasi. Namun demikian, kemampuannya untuk menghasilkan nilai yang sesuai masih belum ditentukan. Perusahaan AI yang sudah mapan, yang dilengkapi dengan algoritme dan model eksklusif, memiliki kemampuan yang kuat dalam memperbarui, mengulang, dan mengintegrasikan teknologi mereka. Sebagai contoh, OpenAI telah berkembang dengan cepat dari model pembuatan teks awal ke model generatif multi-domain dalam rentang waktu dua tahun. Proyek seperti Bittensor mungkin perlu mengeksplorasi jalur inovatif dalam domain yang ditargetkan agar dapat bersaing secara efektif.

Data Besar yang Terdesentralisasi

Dari sudut pandang yang sederhana, mengintegrasikan data pribadi untuk memicu AI dan menganotasi data adalah jalan yang selaras dengan teknologi blockchain. Perhatian utama berkisar pada cara menggagalkan data sampah dan aktivitas jahat. Selain itu, penyimpanan data dapat menguntungkan untuk proyek-proyek Depin seperti FIL dan AR.

Melihatnya dari sudut pandang yang lebih rumit, memanfaatkan data blockchain untuk machine learning (ML) untuk mengatasi aksesibilitas data blockchain menghadirkan arah lain yang menarik, seperti yang dieksplorasi oleh Giza.

Secara teori, data blockchain dapat diakses kapan saja dan mencerminkan keadaan seluruh blockchain. Namun, bagi mereka yang berada di luar ekosistem blockchain, mengakses set data yang luas ini tidaklah mudah. Menyimpan seluruh blockchain membutuhkan keahlian yang substansial dan sumber daya perangkat keras khusus.

Untuk mengatasi tantangan dalam mengakses data blockchain, industri ini telah menyaksikan munculnya beberapa solusi. Sebagai contoh, penyedia RPC menawarkan akses node melalui API, sementara layanan pengindeksan memfasilitasi pengambilan data melalui SQL dan GraphQL, yang memainkan peran penting dalam memitigasi masalah ini. Namun demikian, metode ini memiliki keterbatasan. Layanan RPC tidak memadai untuk kasus penggunaan dengan kepadatan tinggi yang membutuhkan kueri data yang ekstensif dan sering kali gagal memenuhi permintaan. Sementara itu, meskipun layanan pengindeksan menawarkan pendekatan yang lebih terstruktur untuk pengambilan data, kerumitan protokol Web3 membuat pembuatan kueri yang efisien menjadi sangat menantang, terkadang membutuhkan ratusan atau bahkan ribuan baris kode yang rumit. Kerumitan ini menjadi penghalang yang signifikan bagi praktisi data umum dan mereka yang memiliki pemahaman terbatas tentang seluk-beluk Web3. Dampak kolektif dari keterbatasan ini menggarisbawahi perlunya metode yang lebih mudah diakses dan digunakan untuk mendapatkan dan memanfaatkan data blockchain, yang dapat memacu aplikasi dan inovasi yang lebih luas di lapangan.

Oleh karena itu, penggabungan ZKML (Zero-Knowledge Proof Machine Learning, yang meringankan beban pembelajaran mesin pada chain) dengan data blockchain berkualitas tinggi berpotensi menghasilkan set data yang dapat mengatasi tantangan aksesibilitas data blockchain. AI memiliki potensi untuk secara signifikan menurunkan hambatan dalam mengakses data blockchain. Seiring berjalannya waktu, para pengembang, peneliti, dan penggemar ML dapat memperoleh akses ke set data yang lebih berkualitas tinggi dan relevan untuk membuat solusi yang efektif dan inovatif.

Pemberdayaan AI untuk Dapps

Sejak meledaknya ChatGPT3 pada tahun 2023, pemberdayaan AI untuk Dapps telah menjadi arah yang sangat umum. AI generatif yang dapat diterapkan secara luas dapat diintegrasikan melalui API, sehingga menyederhanakan dan mempercanggih platform data, bot perdagangan, ensiklopedia blockchain, dan aplikasi lainnya. Ini juga dapat berfungsi sebagai chatbots (seperti Myshell) atau teman AI (seperti Sleepless AI), dan bahkan membuat NPC dalam game blockchain menggunakan AI generatif. Namun, karena hambatan teknis yang rendah, sebagian besar implementasi hanya berupa penyesuaian setelah mengintegrasikan API, dan integrasi dengan proyek itu sendiri sering kali tidak sempurna, oleh karena itu jarang disebutkan.

Dengan munculnya Sora, saya pribadi percaya bahwa pemberdayaan AI untuk GameFi (termasuk metaverse) dan platform kreatif akan menjadi fokus utama di masa mendatang. Mengingat sifat bottom-up dari bidang Web3, mustahil untuk menghasilkan produk yang bisa langsung bersaing dengan game tradisional atau perusahaan kreatif. Namun, kemunculan Sora memiliki potensi untuk memecahkan kebuntuan ini, mungkin hanya dalam waktu dua hingga tiga tahun. Dari demo Sora, tampaknya ia mampu bersaing dengan perusahaan-perusahaan drama mikro. Selain itu, budaya komunitas yang aktif di Web3 dapat menumbuhkan banyak sekali ide menarik. Ketika satu-satunya batasan adalah imajinasi, hambatan antara industri bottom-up dan industri tradisional top-down akan runtuh.

Kesimpulan

Seiring dengan kemajuan alat AI generatif, kita siap untuk mengalami "momen iPhone" yang lebih transformatif di masa depan. Terlepas dari keraguan awal seputar integrasi AI dengan Web3, saya yakin bahwa lintasan saat ini secara umum berada di jalur yang benar, meskipun dengan tiga poin utama yang perlu diperhatikan: kebutuhan, efisiensi, dan kompatibilitas. Meskipun konvergensi domain-domain ini masih dalam tahap eksplorasi, hal ini seharusnya tidak menghalangi kita untuk membayangkan adopsi arus utama di pasar bullish yang akan datang.

Mempertahankan pola pikir keingintahuan dan penerimaan terhadap ide-ide baru sangatlah penting. Preseden historis, seperti transisi cepat dari kereta kuda ke mobil dan evolusi prasasti ke NFT masa lalu, menggarisbawahi pentingnya menghindari bias yang berlebihan, yang sering kali mengakibatkan hilangnya peluang.

Penafian: Penafian

  1. Artikel ini dicetak ulang dari[Deep Tide], Semua hak cipta adalah milik penulis asli[YBB Capital Zeke]. Jika ada keberatan dengan pencetakan ulang ini, silakan hubungi tim Gate Learn, dan mereka akan segera menanganinya.
  2. Penafian Tanggung Jawab: Pandangan dan pendapat yang diungkapkan dalam artikel ini semata-mata merupakan pandangan dan pendapat penulis dan bukan merupakan saran investasi.
  3. Penerjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel terjemahan dilarang.

Sora Muncul: Akankah 2024 Menjadi Tahun Revolusi AI+Web3?

Pemula2/29/2024, 2:39:27 PM
Selain Depin, percikan api seperti apa yang bisa dinyalakan oleh jalinan Web3 dan AI? Peluang apa saja yang ada di jalur Sora? Artikel ini juga merenungkan kemungkinan Web3 di era AI.

Kata Pengantar

Pada tanggal 16 Februari, OpenAI mengumumkan model difusi generatif teks-ke-video terbarunya yang diberi nama "Sora," yang menandai tonggak sejarah baru dalam AI generatif dengan kemampuannya menghasilkan video berkualitas tinggi di berbagai jenis data visual. Tidak seperti alat pembuat video AI seperti Pika, yang menghasilkan beberapa detik video dari beberapa gambar, Sora melatih ruang laten terkompresi dari video dan gambar, memecahnya menjadi potongan-potongan spatiotemporal untuk pembuatan video yang dapat diskalakan. Selain itu, model ini menunjukkan kemampuan simulasi dunia fisik dan digital, dengan demo 60 detik yang dideskripsikan sebagai "simulator universal dunia fisik."

Sora melanjutkan jalur teknis "sumber data-Transformator-Difusi-kemunculan" yang terlihat pada model GPT sebelumnya, yang mengindikasikan kematangan pengembangannya juga bergantung pada kekuatan komputasi. Mengingat volume data yang lebih besar yang diperlukan untuk pelatihan video dibandingkan dengan teks, permintaan daya komputasi diperkirakan akan meningkat lebih lanjut. Namun, seperti yang telah dibahas dalam artikel kami sebelumnya "Pratinjau Sektor yang Menjanjikan: Pasar Daya Komputasi Terdesentralisasi," pentingnya daya komputasi di era AI telah dieksplorasi, dan dengan meningkatnya popularitas AI, banyak proyek daya komputasi telah muncul, menguntungkan proyek-proyek Depin lainnya (penyimpanan, daya komputasi, dll.) dengan lonjakan nilai. Selain Depin, artikel ini bertujuan untuk memperbarui dan melengkapi diskusi sebelumnya, merenungkan percikan yang mungkin muncul dari jalinan Web3 dan AI dan peluang dalam lintasan ini di era AI.

Perkembangan AI: Tiga Arah Utama

Kecerdasan Buatan (AI) adalah bidang yang sedang berkembang yang berfokus pada peniruan, perluasan, dan pengayaan kecerdasan manusia. Sejak awal kemunculannya pada tahun 1950-an dan 1960-an, AI telah mengalami evolusi selama lebih dari setengah abad, muncul sebagai teknologi penting yang mendorong transformasi masyarakat dan berbagai industri. Sepanjang perjalanan ini, kemajuan yang saling terkait dari tiga arah penelitian utama-simbolisme, koneksionisme, dan behaviorisme-telah meletakkan dasar bagi kemajuan pesat AI saat ini.

Simbolisme

Simbolisme, yang juga disebut sebagai logika atau penalaran berbasis aturan, menyatakan bahwa meniru kecerdasan manusia melalui pemrosesan simbol adalah hal yang mungkin dilakukan. Pendekatan ini menggunakan simbol untuk merepresentasikan dan memanipulasi objek, konsep, dan hubungannya dalam domain masalah tertentu, menggunakan penalaran logis untuk menyelesaikan masalah. Simbolisme telah mencapai kesuksesan yang luar biasa, terutama dalam sistem pakar dan representasi pengetahuan. Prinsip utamanya adalah bahwa perilaku cerdas dapat direalisasikan melalui manipulasi simbol dan inferensi logis, dengan simbol-simbol yang berfungsi sebagai abstraksi tingkat tinggi dari dunia nyata.

Koneksiisme

Koneksionisme, atau dikenal juga sebagai pendekatan jaringan saraf, berusaha mencapai kecerdasan dengan meniru struktur dan fungsi otak manusia. Metodologi ini membangun jaringan yang terdiri dari banyak unit pemrosesan sederhana yang mirip dengan neuron dan menyesuaikan kekuatan koneksi di antara unit-unit ini, mirip dengan sinapsis, untuk memfasilitasi pembelajaran. Menekankan pembelajaran dan generalisasi dari data, koneksionisme sangat cocok untuk tugas-tugas seperti pengenalan pola, klasifikasi, dan pemetaan input-output yang berkelanjutan. Pembelajaran mendalam, sebuah evolusi dari koneksionisme, telah mencapai terobosan dalam berbagai bidang seperti pengenalan gambar dan ucapan, serta pemrosesan bahasa alami.

Behaviorisme

Behaviorisme, yang terkait erat dengan robotika biomimetik dan penelitian sistem cerdas otonom, menggarisbawahi bahwa agen cerdas dapat belajar melalui interaksi lingkungan. Berbeda dengan pendekatan sebelumnya, behaviorisme tidak berfokus pada simulasi representasi internal atau proses kognitif, melainkan mencapai perilaku adaptif melalui siklus persepsi-tindakan. Ini menyatakan bahwa kecerdasan terwujud melalui interaksi dan pembelajaran lingkungan yang dinamis, sehingga sangat efektif untuk robot bergerak dan sistem kontrol adaptif yang beroperasi di lingkungan yang kompleks dan tidak dapat diprediksi.

Terlepas dari perbedaan mendasarnya, ketiga arah penelitian ini dapat bersinergi dan saling melengkapi dalam penelitian dan aplikasi AI praktis, yang secara kolektif mendorong pengembangan bidang ini.

Prinsip-prinsip AIGC

Bidang Artificial Intelligence Generated Content (AIGC) yang sedang berkembang merupakan evolusi dan penerapan koneksionisme, yang memfasilitasi pembuatan konten baru dengan meniru kreativitas manusia. Model-model ini dilatih menggunakan set data yang luas dan algoritma pembelajaran mendalam untuk melihat struktur, hubungan, dan pola yang mendasari data. Didorong oleh masukan dari pengguna, mereka menghasilkan beragam output termasuk gambar, video, kode, musik, desain, terjemahan, jawaban atas pertanyaan, dan teks. Saat ini, AIGC pada dasarnya terdiri dari tiga elemen: Deep Learning (DL), Big Data, dan Kekuatan Komputasi Masif.

Pembelajaran Mendalam

Deep Learning, bagian dari Machine Learning (ML), menggunakan algoritme yang dimodelkan berdasarkan jaringan saraf otak manusia. Seperti halnya otak manusia yang terdiri dari neuron-neuron yang saling terhubung yang memproses informasi, jaringan saraf deep learning terdiri dari beberapa lapisan neuron buatan yang melakukan komputasi di dalam komputer. Neuron buatan ini, atau node, memanfaatkan operasi matematika untuk memproses data dan memecahkan masalah yang kompleks melalui algoritme pembelajaran yang mendalam.

Jaringan syaraf terdiri dari lapisan-lapisan: input, tersembunyi, dan output, dengan parameter yang menghubungkan lapisan-lapisan ini.

- Lapisan Input: Lapisan pertama dari jaringan saraf, menerima data masukan eksternal. Setiap neuron dalam lapisan ini berhubungan dengan fitur dari data input. Misalnya, dalam memproses data gambar, masing-masing neuron dapat merepresentasikan nilai piksel.

- Lapisan Tersembunyi: Mengikuti lapisan input, lapisan tersembunyi memproses dan mengirimkan data melalui jaringan. Lapisan-lapisan ini menganalisis informasi pada berbagai tingkatan, mengadaptasi perilaku mereka saat menerima masukan baru. Jaringan deep learning dapat memiliki ratusan lapisan tersembunyi, yang memungkinkan analisis masalah dari berbagai sisi. Misalnya, ketika mengklasifikasikan hewan yang tidak dikenal dari sebuah gambar, jaringan dapat membandingkannya dengan hewan yang dikenal dengan menilai karakteristik seperti bentuk telinga, jumlah kaki, dan ukuran pupil. Lapisan tersembunyi berfungsi serupa, masing-masing memproses fitur hewan yang berbeda untuk membantu klasifikasi yang akurat.

- Lapisan Keluaran: Lapisan terakhir dari jaringan saraf, menghasilkan output jaringan. Neuron dalam lapisan ini mewakili kategori atau nilai output potensial. Dalam tugas klasifikasi, setiap neuron mungkin berhubungan dengan kategori, sementara dalam tugas regresi, lapisan keluaran dapat menampilkan satu neuron yang nilainya memprediksi hasil.

- Parameter: Dalam jaringan saraf, koneksi antara lapisan yang berbeda diwakili oleh bobot dan bias, yang dioptimalkan selama proses pelatihan untuk memungkinkan jaringan mengenali pola dalam data secara akurat dan membuat prediksi. Meningkatkan parameter dapat meningkatkan kapasitas model jaringan syaraf tiruan, yaitu kemampuan untuk mempelajari dan merepresentasikan pola yang kompleks dalam data. Namun demikian, hal ini juga meningkatkan permintaan daya komputasi.

Big Data

Pelatihan jaringan saraf tiruan yang efektif biasanya membutuhkan data yang luas, beragam, berkualitas tinggi, dan multi-sumber. Data tersebut menjadi landasan untuk melatih dan memvalidasi model pembelajaran mesin. Melalui analisis big data, model pembelajaran mesin dapat mengidentifikasi pola dan hubungan dalam data, sehingga memudahkan prediksi atau klasifikasi.

Kekuatan Komputasi yang Sangat Besar

Struktur multi-lapisan jaringan saraf yang rumit, berbagai parameter, persyaratan untuk memproses data besar, metode pelatihan berulang (yang melibatkan perhitungan propagasi maju dan mundur yang berulang, termasuk perhitungan fungsi aktivasi dan loss, perhitungan gradien, dan pembaruan bobot), kebutuhan komputasi presisi tinggi, kemampuan komputasi paralel, teknik pengoptimalan dan pengaturan, serta proses evaluasi dan validasi model secara kolektif berkontribusi pada tuntutan komputasi yang substansial.

Sora

Sora, model AI generasi video terbaru dari OpenAI, menandakan kemajuan substansial dalam kapasitas kecerdasan buatan untuk memproses dan memahami data visual yang beragam. Dengan menggunakan jaringan kompresi video dan teknik patch spatiotemporal, Sora dapat mengkonversi sejumlah besar data visual yang diambil di seluruh dunia dan dari berbagai perangkat ke dalam representasi terpadu. Kemampuan ini memungkinkan pemrosesan dan pemahaman yang efisien atas konten visual yang rumit. Sora menggunakan model Difusi yang dikondisikan dengan teks untuk menghasilkan video atau gambar yang sangat berkorelasi dengan petunjuk teks, menampilkan kreativitas dan kemampuan beradaptasi yang luar biasa.

Terlepas dari terobosan Sora dalam pembuatan video dan simulasi interaksi dunia nyata, Sora menghadapi keterbatasan tertentu. Hal ini mencakup akurasi simulasi dunia fisik, konsistensi dalam menghasilkan video yang panjang, pemahaman instruksi teks yang kompleks, dan efisiensi dalam pelatihan dan pembuatan. Pada dasarnya, Sora mengikuti lintasan teknis "big data-Transformer-Difusi-kemunculan", yang difasilitasi oleh kekuatan komputasi monopoli OpenAI dan keunggulan penggerak pertama, yang menghasilkan suatu bentuk estetika brute-force. Namun, perusahaan AI lainnya masih memiliki potensi untuk melampaui Sora melalui inovasi teknologi.

Meskipun koneksi Sora dengan blockchain masih sederhana, diperkirakan dalam satu atau dua tahun ke depan, pengaruh Sora akan mengarah pada kemunculan dan perkembangan pesat alat generasi AI berkualitas tinggi lainnya. Perkembangan ini diharapkan dapat berdampak pada berbagai sektor Web3 seperti GameFi, platform sosial, platform kreatif, Depin, dll. Oleh karena itu, memperoleh pemahaman umum tentang Sora sangatlah penting, dan merenungkan bagaimana AI akan berintegrasi secara efektif dengan Web3 di masa depan menjadi pertimbangan yang sangat penting.

Empat Jalur Integrasi AI x Web3

Seperti yang telah dibahas sebelumnya, komponen fundamental yang penting untuk AI generatif dapat diringkas menjadi tiga elemen utama: algoritme, data, dan daya komputasi. Sebaliknya, AI, sebagai alat universal dengan efek yang luas pada metode produksi, merevolusi cara industri beroperasi. Sementara itu, dampak signifikan dari teknologi blockchain ada dua: teknologi ini merestrukturisasi hubungan produksi dan memungkinkan desentralisasi. Dengan demikian, konvergensi kedua teknologi ini dapat memunculkan empat jalur potensial:

Daya Komputasi Terdesentralisasi

Bagian ini bertujuan untuk memberikan wawasan tentang lanskap daya komputasi saat ini. Dalam bidang AI, daya komputasi memiliki arti yang sangat penting. Permintaan akan daya komputasi dalam AI, terutama yang disoroti setelah kemunculan Sora, telah mencapai tingkat yang belum pernah terjadi sebelumnya. Selama Forum Ekonomi Dunia di Davos, Swiss, pada tahun 2024, CEO OpenAI, Sam Altman, menekankan bahwa daya komputasi dan energi saat ini merupakan kendala utama, mengisyaratkan kesetaraan mereka di masa depan dengan mata uang. Selanjutnya, pada tanggal 10 Februari, Sam Altman mengumumkan rencana terobosan melalui Twitter untuk mengumpulkan dana sebesar 7 triliun USD (setara dengan 40% dari PDB Tiongkok pada tahun 2023) untuk merevolusi industri semikonduktor global, yang bertujuan untuk membangun kerajaan semikonduktor. Sebelumnya, pertimbangan saya mengenai daya komputasi terbatas pada pembatasan nasional dan monopoli perusahaan; namun, gagasan mengenai satu entitas yang bercita-cita untuk mendominasi sektor semikonduktor global benar-benar luar biasa.

Pentingnya daya komputasi yang terdesentralisasi sangat jelas. Fitur-fitur Blockchain menawarkan solusi untuk masalah monopoli yang lazim terjadi dalam daya komputasi dan biaya selangit yang terkait dengan perolehan GPU khusus. Dari perspektif kebutuhan AI, pemanfaatan daya komputasi dapat dikategorikan ke dalam dua aspek: inferensi dan pelatihan. Proyek-proyek yang terutama berfokus pada pelatihan masih langka karena integrasi kompleks yang diperlukan untuk jaringan terdesentralisasi dan permintaan perangkat keras yang substansial, sehingga menimbulkan hambatan yang signifikan dalam implementasi. Sebaliknya, tugas inferensi relatif lebih sederhana, dengan desain jaringan terdesentralisasi yang tidak terlalu rumit dan kebutuhan perangkat keras dan bandwidth yang lebih rendah, sehingga mewakili jalan yang lebih mudah diakses.

Lanskap daya komputasi terpusat memiliki potensi yang sangat besar, sering kali dikaitkan dengan deskriptor "tingkat triliun", dan tetap menjadi topik yang sangat sensasional di era AI. Namun demikian, setelah mengamati banyak proyek baru-baru ini, banyak yang tampaknya merupakan upaya yang disusun dengan tergesa-gesa yang bertujuan untuk memanfaatkan tren. Meskipun proyek-proyek ini sering memperjuangkan desentralisasi, mereka cenderung menghindari diskusi tentang inefisiensi jaringan yang terdesentralisasi. Selain itu, terdapat tingkat keseragaman yang tinggi dalam desain, dengan banyak proyek yang mengadopsi pendekatan serupa (seperti desain penambangan L2 plus satu klik), yang berpotensi menyebabkan kegagalan dan menyulitkan upaya untuk membedakannya dari perlombaan AI tradisional.

Algoritma dan Sistem Kolaborasi Model

Algoritme pembelajaran mesin dirancang untuk mempelajari pola dan aturan dari data, sehingga memungkinkan mereka untuk membuat prediksi atau keputusan berdasarkan pola yang dipelajari ini. Karena kerumitan yang terlibat dalam desain dan pengoptimalannya, algoritme pada dasarnya merupakan teknologi yang intensif, membutuhkan keahlian mendalam dan inovasi teknologi. Mereka berfungsi sebagai tulang punggung pelatihan model AI, menentukan bagaimana data diproses untuk mendapatkan wawasan yang berguna atau membuat keputusan. Algoritme AI generatif yang terkenal, seperti Generative Adversarial Networks (GAN), Variational Autoencoders (VAE), dan Transformers, dirancang untuk domain tertentu seperti melukis, pengenalan bahasa, terjemahan, atau pembuatan video, dan sangat penting dalam melatih model AI khusus.

Banyaknya algoritme dan model dengan kekuatan yang berbeda-beda, menimbulkan pertanyaan: dapatkah semua itu diintegrasikan ke dalam model yang serbaguna? Bittensor, sebuah proyek yang baru-baru ini menonjol, memelopori upaya ke arah ini dengan mendorong kolaborasi di antara berbagai model dan algoritme AI, sehingga mendorong pengembangan model AI yang lebih efisien dan mumpuni. Inisiatif lain, seperti Commune AI, berfokus pada mendorong kolaborasi kode, meskipun berbagi algoritme dan model tetap menjadi tantangan karena sifatnya yang eksklusif di dalam perusahaan AI.

Konsep ekosistem kolaboratif AI sangat menarik, memanfaatkan teknologi blockchain untuk mengurangi kelemahan yang terkait dengan algoritme AI yang terisolasi. Namun demikian, kemampuannya untuk menghasilkan nilai yang sesuai masih belum ditentukan. Perusahaan AI yang sudah mapan, yang dilengkapi dengan algoritme dan model eksklusif, memiliki kemampuan yang kuat dalam memperbarui, mengulang, dan mengintegrasikan teknologi mereka. Sebagai contoh, OpenAI telah berkembang dengan cepat dari model pembuatan teks awal ke model generatif multi-domain dalam rentang waktu dua tahun. Proyek seperti Bittensor mungkin perlu mengeksplorasi jalur inovatif dalam domain yang ditargetkan agar dapat bersaing secara efektif.

Data Besar yang Terdesentralisasi

Dari sudut pandang yang sederhana, mengintegrasikan data pribadi untuk memicu AI dan menganotasi data adalah jalan yang selaras dengan teknologi blockchain. Perhatian utama berkisar pada cara menggagalkan data sampah dan aktivitas jahat. Selain itu, penyimpanan data dapat menguntungkan untuk proyek-proyek Depin seperti FIL dan AR.

Melihatnya dari sudut pandang yang lebih rumit, memanfaatkan data blockchain untuk machine learning (ML) untuk mengatasi aksesibilitas data blockchain menghadirkan arah lain yang menarik, seperti yang dieksplorasi oleh Giza.

Secara teori, data blockchain dapat diakses kapan saja dan mencerminkan keadaan seluruh blockchain. Namun, bagi mereka yang berada di luar ekosistem blockchain, mengakses set data yang luas ini tidaklah mudah. Menyimpan seluruh blockchain membutuhkan keahlian yang substansial dan sumber daya perangkat keras khusus.

Untuk mengatasi tantangan dalam mengakses data blockchain, industri ini telah menyaksikan munculnya beberapa solusi. Sebagai contoh, penyedia RPC menawarkan akses node melalui API, sementara layanan pengindeksan memfasilitasi pengambilan data melalui SQL dan GraphQL, yang memainkan peran penting dalam memitigasi masalah ini. Namun demikian, metode ini memiliki keterbatasan. Layanan RPC tidak memadai untuk kasus penggunaan dengan kepadatan tinggi yang membutuhkan kueri data yang ekstensif dan sering kali gagal memenuhi permintaan. Sementara itu, meskipun layanan pengindeksan menawarkan pendekatan yang lebih terstruktur untuk pengambilan data, kerumitan protokol Web3 membuat pembuatan kueri yang efisien menjadi sangat menantang, terkadang membutuhkan ratusan atau bahkan ribuan baris kode yang rumit. Kerumitan ini menjadi penghalang yang signifikan bagi praktisi data umum dan mereka yang memiliki pemahaman terbatas tentang seluk-beluk Web3. Dampak kolektif dari keterbatasan ini menggarisbawahi perlunya metode yang lebih mudah diakses dan digunakan untuk mendapatkan dan memanfaatkan data blockchain, yang dapat memacu aplikasi dan inovasi yang lebih luas di lapangan.

Oleh karena itu, penggabungan ZKML (Zero-Knowledge Proof Machine Learning, yang meringankan beban pembelajaran mesin pada chain) dengan data blockchain berkualitas tinggi berpotensi menghasilkan set data yang dapat mengatasi tantangan aksesibilitas data blockchain. AI memiliki potensi untuk secara signifikan menurunkan hambatan dalam mengakses data blockchain. Seiring berjalannya waktu, para pengembang, peneliti, dan penggemar ML dapat memperoleh akses ke set data yang lebih berkualitas tinggi dan relevan untuk membuat solusi yang efektif dan inovatif.

Pemberdayaan AI untuk Dapps

Sejak meledaknya ChatGPT3 pada tahun 2023, pemberdayaan AI untuk Dapps telah menjadi arah yang sangat umum. AI generatif yang dapat diterapkan secara luas dapat diintegrasikan melalui API, sehingga menyederhanakan dan mempercanggih platform data, bot perdagangan, ensiklopedia blockchain, dan aplikasi lainnya. Ini juga dapat berfungsi sebagai chatbots (seperti Myshell) atau teman AI (seperti Sleepless AI), dan bahkan membuat NPC dalam game blockchain menggunakan AI generatif. Namun, karena hambatan teknis yang rendah, sebagian besar implementasi hanya berupa penyesuaian setelah mengintegrasikan API, dan integrasi dengan proyek itu sendiri sering kali tidak sempurna, oleh karena itu jarang disebutkan.

Dengan munculnya Sora, saya pribadi percaya bahwa pemberdayaan AI untuk GameFi (termasuk metaverse) dan platform kreatif akan menjadi fokus utama di masa mendatang. Mengingat sifat bottom-up dari bidang Web3, mustahil untuk menghasilkan produk yang bisa langsung bersaing dengan game tradisional atau perusahaan kreatif. Namun, kemunculan Sora memiliki potensi untuk memecahkan kebuntuan ini, mungkin hanya dalam waktu dua hingga tiga tahun. Dari demo Sora, tampaknya ia mampu bersaing dengan perusahaan-perusahaan drama mikro. Selain itu, budaya komunitas yang aktif di Web3 dapat menumbuhkan banyak sekali ide menarik. Ketika satu-satunya batasan adalah imajinasi, hambatan antara industri bottom-up dan industri tradisional top-down akan runtuh.

Kesimpulan

Seiring dengan kemajuan alat AI generatif, kita siap untuk mengalami "momen iPhone" yang lebih transformatif di masa depan. Terlepas dari keraguan awal seputar integrasi AI dengan Web3, saya yakin bahwa lintasan saat ini secara umum berada di jalur yang benar, meskipun dengan tiga poin utama yang perlu diperhatikan: kebutuhan, efisiensi, dan kompatibilitas. Meskipun konvergensi domain-domain ini masih dalam tahap eksplorasi, hal ini seharusnya tidak menghalangi kita untuk membayangkan adopsi arus utama di pasar bullish yang akan datang.

Mempertahankan pola pikir keingintahuan dan penerimaan terhadap ide-ide baru sangatlah penting. Preseden historis, seperti transisi cepat dari kereta kuda ke mobil dan evolusi prasasti ke NFT masa lalu, menggarisbawahi pentingnya menghindari bias yang berlebihan, yang sering kali mengakibatkan hilangnya peluang.

Penafian: Penafian

  1. Artikel ini dicetak ulang dari[Deep Tide], Semua hak cipta adalah milik penulis asli[YBB Capital Zeke]. Jika ada keberatan dengan pencetakan ulang ini, silakan hubungi tim Gate Learn, dan mereka akan segera menanganinya.
  2. Penafian Tanggung Jawab: Pandangan dan pendapat yang diungkapkan dalam artikel ini semata-mata merupakan pandangan dan pendapat penulis dan bukan merupakan saran investasi.
  3. Penerjemahan artikel ke dalam bahasa lain dilakukan oleh tim Gate Learn. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel terjemahan dilarang.
Start Now
Sign up and get a
$100
Voucher!