Kecerdasan Buatan dan teknologi blockchain mewakili dua kekuatan transformatif yang membentuk kembali dunia kita. AI memperkuat kemampuan kognitif manusia melalui pembelajaran mesin dan jaringan saraf, sementara teknologi blockchain memperkenalkan kelangkaan digital yang dapat diverifikasi dan memungkinkan bentuk-bentuk baru koordinasi tanpa kepercayaan. Ketika teknologi ini bertemu, mereka meletakkan dasar untuk iterasi baru internet — tempat agen otonom berinteraksi dengan sistem terdesentralisasi. "Agentic Web" ini memperkenalkan kelas baru warga digital: agen AI yang dapat menavigasi, bernegosiasi, dan bertransaksi secara independen. Transformasi ini mendistribusikan kembali kekuatan di dunia digital, memungkinkan individu untuk merebut kembali kedaulatan atas data mereka sambil mengembangkan ekosistem di mana kecerdasan manusia dan buatan berkolaborasi dengan cara yang belum pernah terjadi sebelumnya.
Untuk memahami ke mana kita akan, mari kita pertama-tama melacak evolusi web melalui iterasi utamanya, masing-masing ditandai oleh kemampuan yang berbeda dan paradigma arsitektur:
Sementara dua generasi pertama web berfokus pada penyebaran informasi, dua generasi terakhir memungkinkan penambahan informasi. Web 3.0 memperkenalkan kepemilikan data melalui token, dan sekarang Web 4.0 memberikan kecerdasan melalui Large Language Models (LLM).
LLM mewakili lonjakan kuantum dalam kecerdasan mesin, berfungsi sebagai sistem pencocok pola dinamis yang mengubah pengetahuan luas menjadi pemahaman kontekstual melalui komputasi probabilistik. Namun, potensi sebenarnya mereka muncul ketika terstruktur sebagai agen - berkembang dari pengolah informasi murni menjadi entitas yang berorientasi pada tujuan yang dapat mempersepsi, berpikir, dan bertindak. Transformasi ini menciptakan kecerdasan emergent yang mampu berkolaborasi secara berkesinambungan dan bermakna melalui bahasa dan tindakan.
Istilah “agen” memperkenalkan paradigma baru untuk interaksi manusia-AI, melampaui batasan dan asosiasi negatif dari chatbot tradisional. Pergeseran ini bukan sekadar semantik; itu mewakili reconceptualization mendasar tentang bagaimana sistem AI dapat beroperasi secara otonom sambil menjaga kolaborasi yang berarti dengan manusia. Pada dasarnya, alur kerja agen memungkinkan pasar untuk terbentuk di sekitar memecahkan tujuan pengguna tertentu.
Pada akhirnya, Agentic Web mewakili lebih dari sekadar lapisan kecerdasan baru - secara mendasar mengubah cara kita berinteraksi dengan sistem digital. Sementara iterasi web sebelumnya mengandalkan antarmuka statis dan perjalanan pengguna yang telah ditentukan sebelumnya, Agentic Web memperkenalkan infrastruktur runtime dinamis di mana komputasi dan antarmuka beradaptasi secara real-time dengan konteks dan niat pengguna.
Situs web tradisional berfungsi sebagai unit atomik internet saat ini, menyediakan antarmuka yang tetap di mana pengguna membaca, menulis, dan berinteraksi dengan informasi melalui jalur yang ditentukan sebelumnya. Model ini, meskipun fungsional, membatasi pengguna ke antarmuka yang dirancang untuk kasus penggunaan umum daripada kebutuhan individu. Agentic Web membebaskan diri dari pembatasan-pembatasan ini melalui Context-Aware Computation, Adaptive Interface Generation, Predictive Action Flows yang terbuka melalui RAG dan inovasi lain dalam pengambilan informasi real-time.
Pertimbangkan bagaimana TikTok merevolusi konsumsi konten dengan membuat umpan yang sangat dipersonalisasi yang beradaptasi dengan preferensi pengguna secara real-time. Agentic Web memperluas konsep ini di luar rekomendasi konten ke generasi antarmuka keseluruhan. Alih-alih menavigasi melalui tata letak halaman web yang tetap, pengguna berinteraksi dengan antarmuka yang dihasilkan secara dinamis yang memprediksi dan memfasilitasi tindakan berikutnya mereka. Pergeseran dari situs web statis ke antarmuka dinamis yang didorong agen mewakili evolusi mendasar dalam cara kita berinteraksi dengan sistem digital—berpindah dari model interaksi berbasis navigasi ke model interaksi berbasis tujuan.
Arsitektur agen telah menjadi eksplorasi besar bagi para peneliti dan pembangun. Metode baru terus dikembangkan untuk meningkatkan kemampuan pemikiran dan pemecahan masalah mereka. Teknik seperti Chain-of-Thought (CoT), Tree-of-Thought (ToT), dan Graph-of-Thought (GoT) adalah contoh nyata dari inovasi yang dirancang untuk meningkatkan cara LLM mengatasi tugas-tugas kompleks dengan mensimulasikan proses kognitif yang lebih halus dan mirip manusia.
Pemikiran Berantai (CoT) mendorong mendorong model bahasa besar (LLM) untuk memecah tugas kompleks menjadi langkah-langkah yang lebih kecil dan dapat dikelola. Pendekatan ini sangat efektif untuk masalah yang memerlukan penalaran logis, seperti menulis skrip Python pendek atau menyelesaikan persamaan matematika.
Tree-of-Thoughts (ToT) membangun pada CoT dengan memperkenalkan struktur pohon yang memungkinkan eksplorasi dari beberapa jalur pemikiran independen. Peningkatan ini memungkinkan LLM untuk menangani tugas yang lebih rumit. Dalam ToT, setiap "pemikiran" (keluaran teks dari LLM) terhubung langsung hanya dengan pemikiran sebelumnya atau berikutnya dalam rantai lokal (cabang pohon). Meskipun struktur ini menawarkan fleksibilitas lebih dari CoT, tetap terbatas potensi untuk penyebaran ide-ide.
Graph-of-Thought (GoT) mengambil konsep lebih jauh dengan menyatukan struktur data klasik dengan LLMs. Pendekatan ini meluas dari ToT dengan memungkinkan setiap "pemikiran" untuk terhubung ke pemikiran lain dalam struktur graf. Jaringan terhubung ini lebih mirip dengan proses kognitif manusia.
Struktur grafik GoT kemungkinan memberikan representasi yang lebih akurat dari pemikiran manusia dibandingkan dengan CoT atau ToT dalam kebanyakan skenario. Meskipun ada kasus di mana pola pikir kita mungkin menyerupai rantai atau pohon (seperti saat mengembangkan rencana kontingensi atau prosedur operasional standar), ini merupakan pengecualian daripada norma. Model ini lebih mencerminkan pemikiran manusia, yang sering melompat dari berbagai pemikiran daripada mengikuti urutan berurutan yang ketat. Meskipun beberapa skenario, seperti mengembangkan rencana kontingensi atau prosedur standar, mungkin masih mengikuti struktur berbentuk rantai atau pohon, pikiran kita biasanya menciptakan jaringan ide yang kompleks dan saling terhubung yang lebih sesuai dengan struktur grafik.
Pendekatan grafik seperti ini dalam GoT memungkinkan eksplorasi ide yang lebih dinamis dan fleksibel, yang berpotensi mengarah pada kemampuan pemecahan masalah yang lebih kreatif dan komprehensif dalam LLMs.
Operasi berbasis grafik rekursif ini hanya merupakan langkah menuju alur kerja agen. Evolusi berikutnya yang jelas adalah beberapa agen dengan spesialisasi sendiri yang diatur menuju tujuan tertentu. Keindahan agen terletak pada komposisi mereka.
Agen memungkinkan Anda untuk memodulkan dan memparalelkan LLM melalui koordinasi multi-agen.
Konsep sistem multi-agents bukanlah sesuatu yang baru. Akarnya dapat ditelusuri kembali ke “Society of Mind” milik Marvin Minsky, yang mengusulkan bahwa beberapa pikiran modular yang bekerja sama dapat melampaui pikiran tunggal yang monolitik. ChatGPT dan Claude adalah agen tunggal. Mistral mempopulerkan Mixture of Experts. Dengan memperluas ide ini lebih jauh, kami percaya bahwa arsitektur Jaringan Agen akan menjadi keadaan akhir dari topologi kecerdasan ini.
Dari sudut pandang biomimikri, tidak seperti model AI, di mana miliaran neuron identik terhubung dengan cara yang seragam dan dapat diprediksi, otak manusia (pada dasarnya mesin sadar) sangat heterogen - baik pada tingkat organ maupun seluler. Neuron berkomunikasi melalui sinyal rumit, melibatkan gradien neurotransmitter, kaskade intraselular, dan berbagai sistem modulatori, menjadikan fungsi mereka jauh lebih nuansa daripada keadaan biner sederhana.
Ini menunjukkan bahwa dalam biologi, kecerdasan tidak hanya berasal dari jumlah komponen atau ukuran dataset pelatihan yang besar. Sebaliknya, hal itu timbul dari interaksi kompleks antara unit-unit yang beragam dan spesialisasi—suatu proses yang secara inheren analog.
Untuk alasan ini, gagasan mengembangkan jutaan model yang lebih kecil daripada hanya beberapa model besar, dan memungkinkan orkestrasi di antara semua aktor ini, lebih mungkin mengarah pada inovasi dalam arsitektur kognitif, sesuatu yang mirip dengan sistem multi-agen.
Desain sistem multi-agen menawarkan beberapa keuntungan dibandingkan dengan sistem tunggal-agen: lebih mudah dipelihara, lebih mudah dipahami, dan lebih fleksibel untuk diperluas. Bahkan dalam kasus di mana hanya diperlukan antarmuka agen tunggal, mengimplementasikannya dalam kerangka kerja multi-agen dapat membuat sistem lebih modular, menyederhanakan proses bagi pengembang untuk menambah atau menghapus komponen sesuai kebutuhan. Penting untuk diakui bahwa arsitektur multi-agen dapat menjadi cara yang sangat efektif untuk membangun bahkan sistem agen tunggal.
Meskipun model bahasa besar (LLM) telah menunjukkan kemampuan luar biasa—seperti menghasilkan teks mirip manusia, menyelesaikan masalah kompleks, dan menangani berbagai tugas—agen LLM individu menghadapi keterbatasan yang dapat menghambat efektivitas mereka dalam aplikasi dunia nyata.
Di bawah ini, kami menguji lima tantangan utama yang terkait dengan sistem agensial dan mengeksplorasi bagaimana kolaborasi multi-agents dapat mengatasi hambatan ini, membuka potensi penuh dari LLMs.
Sementara sistem multi-agents menawarkan keuntungan yang menarik dalam pemecahan masalah terdistribusi dan optimisasi sumber daya, potensi sebenarnya muncul ketika kita mempertimbangkan implementasinya di tepi jaringan. Saat AI terus berkembang, konvergensi arsitektur multi-agents dengan komputasi tepi menciptakan sinergi yang kuat - memungkinkan bukan hanya kecerdasan kolaboratif, tetapi juga pemrosesan yang efisien secara lokal di berbagai perangkat. Pendekatan terdistribusi ini untuk penyebaran AI secara alami memperluas manfaat sistem multi-agents, membawa kecerdasan kooperatif yang spesialis dan erat ke tempat yang paling dibutuhkan: pengguna akhir.
Proliferasi kecerdasan buatan di seluruh lanskap digital mendorong restrukturisasi fundamental arsitektur komputasi. Ketika kecerdasan menjadi terjalin dalam kain interaksi digital sehari-hari kita, kita menyaksikan pemisahan alami komputasi: pusat data khusus menangani pemikiran kompleks dan tugas-tugas domain-spesifik, sementara perangkat tepi memproses kueri personalisasi yang sensitif terhadap konteks secara lokal. Pergeseran ini menuju inferensi tepi bukan hanya preferensi arsitektural — ini adalah kebutuhan yang didorong oleh beberapa faktor kritis.
Pertama, volume interaksi yang didorong AI akan menghancurkan penyedia inferensi terpusat, menciptakan tuntutan bandwidth yang tidak bisa dipertahankan dan masalah laten yang tidak bisa diatasi.
Kedua, pemrosesan tepi memungkinkan responsifitas waktu nyata yang kritis untuk aplikasi seperti kendaraan otonom, realitas tertambah, dan perangkat IoT.
Ketiga, inferensi lokal menjaga privasi pengguna dengan menyimpan data sensitif di perangkat pribadi. Keempat, komputasi tepi secara dramatis mengurangi konsumsi energi dan jejak karbon dengan meminimalkan pergerakan data melintasi jaringan.
Akhirnya, inferensi tepi memungkinkan fungsionalitas offline dan ketahanan, memastikan kemampuan AI tetap ada bahkan ketika konektivitas jaringan terganggu.
Paradigma kecerdasan terdistribusi ini tidak hanya mewakili optimisasi dari sistem-sistem kami saat ini, tetapi juga merupakan pemikiran ulang mendasar tentang bagaimana kami menerapkan dan berinteraksi dengan AI dalam dunia yang semakin terhubung.
Selain itu, kita sedang menyaksikan pergeseran mendasar dalam tuntutan komputasi dari LLMs. Sementara dekade terakhir ini didominasi oleh tuntutan komputasi besar dalam pelatihan model bahasa besar, sekarang kita memasuki era di mana komputasi waktu inferensi menjadi pusat perhatian. Transisi ini terutama terlihat dalam munculnya sistem AI agensial, seperti yang ditunjukkan oleh terobosan Q* dari OpenAI, yang menunjukkan bagaimana penalaran dinamis membutuhkan sumber daya komputasi real-time yang substansial.
Berbeda dengan komputasi saat pelatihan, yang merupakan investasi satu kali dalam pengembangan model, komputasi saat inferensi mewakili dialog komputasi yang berkelanjutan yang diperlukan bagi agen otonom untuk berpikir, merencanakan, dan beradaptasi dengan situasi baru. Pergeseran ini dari pelatihan model statis ke penalaran agen dinamis mensyaratkan pemikiran ulang radikal terhadap infrastruktur komputasi kita—di mana komputasi tepi menjadi bukan hanya menguntungkan tetapi juga penting.
Saat transformasi ini terjadi, kita menyaksikan munculnya pasar inferensi tepi peer-to-peer, di mana miliaran perangkat terhubung—dari ponsel pintar hingga sistem rumah pintar—membentuk jaringan komputasi dinamis. Perangkat-perangkat ini dapat dengan lancar melakukan perdagangan kapasitas inferensi, menciptakan pasar organik di mana sumber daya komputasi mengalir ke tempat yang paling dibutuhkan. Kapasitas komputasi berlebih dari perangkat yang tidak digunakan menjadi sumber daya berharga, dapat diperdagangkan secara real-time, memungkinkan infrastruktur yang lebih efisien dan tangguh daripada sistem terpusat tradisional.
Demokratisasi komputasi inferensi ini tidak hanya mengoptimalkan pemanfaatan sumber daya, tetapi juga menciptakan peluang ekonomi baru dalam ekosistem digital, di mana setiap perangkat terhubung menjadi penyedia mikro potensial kemampuan AI. Masa depan AI akan ditandai bukan hanya oleh kekuatan model individual, tetapi juga oleh kecerdasan kolektif perangkat tepi yang saling terhubung membentuk pasar inferensi global yang terdemokratisasi, sesuatu yang mirip dengan pasar spot untuk inferensi verifikasi berdasarkan penawaran dan permintaan.
LLMs sekarang memungkinkan kita untuk mengakses jumlah informasi yang besar melalui percakapan, bukan penjelajahan tradisional. Pendekatan percakapan ini akan segera menjadi lebih personal dan lokal, karena internet berubah menjadi platform untuk agen AI daripada pengguna manusia.
Dari sudut pandang pengguna, fokusnya akan bergeser dari mengidentifikasi 'model terbaik' menjadi mendapatkan jawaban paling personal. Kunci untuk jawaban yang lebih baik terletak pada menggabungkan data pengguna sendiri bersama pengetahuan internet umum. Awalnya, jendela konteks yang lebih besar dan penambahan pemulihan generasi (RAG) akan membantu mengintegrasikan data pribadi, tetapi pada akhirnya, data individu akan melampaui data internet umum dalam hal pentingnya.
Ini mengarah pada masa depan di mana kita masing-masing memiliki model AI pribadi yang berinteraksi dengan model ahli internet yang lebih luas. Awalnya, personalisasi akan terjadi bersama model-model jarak jauh, tetapi kekhawatiran tentang privasi dan kecepatan respons akan mendorong interaksi lebih banyak ke perangkat lokal. Ini akan menciptakan batas baru—bukan antara manusia dan mesin, tetapi antara model pribadi kita dan model ahli internet.
Model tradisional internet untuk mengakses data mentah akan menjadi ketinggalan zaman. Sebagai gantinya, model lokal Anda akan berkomunikasi dengan model ahli jarak jauh untuk mengumpulkan informasi, yang akan diproses dan disajikan kepada Anda dengan cara yang paling personal, berkecepatan tinggi. Model pribadi ini akan menjadi semakin penting karena mereka belajar lebih banyak tentang preferensi dan kebiasaan Anda.
Internet akan bertransformasi menjadi ekosistem model yang saling terhubung: model personal lokal yang kontekstual tinggi dan model ahli jarak jauh yang berpengetahuan tinggi. Ini akan melibatkan teknologi baru seperti pembelajaran federasi untuk memperbarui informasi antara model-model ini. Saat ekonomi mesin berkembang, kita harus membayangkan kembali substate komputasi di mana hal ini terjadi, terutama dalam hal komputasi, skalabilitas, dan pembayaran. Hal ini mengarah pada reorganisasi ruang informasi yang berpusat pada agen, berdaulat, sangat dapat disusun, mandiri belajar, dan berkembang.
Dalam Agentic Web, interaksi manusia-agen berkembang menjadi jaringan komunikasi agen-ke-agen yang kompleks. Arsitektur ini menyajikan reimajinasi struktur internet yang mendasar, di mana agen-agen berdaulat menjadi antarmuka utama untuk interaksi digital. Di bawah ini, kami menyoroti primitif-primitif inti yang diperlukan untuk Protokol Agentic.
Identitas Soveren
Agen Otonom
Entitas yang mengarah sendiri yang mampu: Pemahaman bahasa alami dan pemecahan tujuan
Perencanaan multi-langkah dan dekomposisi tugas
Manajemen dan optimasi sumber daya
Belajar dari interaksi dan umpan balik
Infrastruktur Data
Sistem Hibrid yang menggabungkan: zkTLS
Dataset pelatihan tradisional
Pengambilan data web secara real-time dan sintesis data
jaringan RLHF (Penguatan Pembelajaran dari Umpan Balik Manusia) Pengumpulan umpan balik terdistribusi
Mekanisme konsensus berbobot kualitas
Lapisan Komputasi
Protokol inferensi yang dapat diverifikasi memastikan: Integritas komputasi
Reproduktibilitas hasil
Efisiensi sumber daya
Infrastruktur komputasi terdesentralisasi yang menampilkan:Pasar komputasi peer-to-peer
Sistem bukti komputasi
Pengalokasian sumber daya dinamis
Ekosistem Model
Arsitektur model hirarkis: SLM khusus tugas (Small Language Models)
LLM umum
Model multi-modal khusus
Kerangka Koordinasi
Mekanisme tata kelola untuk: Penyelesaian sengketa
Pengalokasian sumber daya
Lingkungan eksekusi paralel yang memungkinkan:Pemrosesan tugas yang bersamaan
Isolasi sumber daya
manajemen negara
Pasaran Agentic
Liquidity yang Dimiliki oleh AgenAgen memiliki sebagian pasokan token mereka pada awalnya
Agen menjadi aset penghasil hasil DAO Agentic.
Desain sistem terdistribusi modern menawarkan inspirasi dan primitif unik untuk memungkinkan Protokol Agentic, khususnya arsitektur yang didorong oleh peristiwa dan lebih langsung, Model Aktor Penghitungan.
Model Aktor menyediakan dasar teoritis yang elegan untuk mengimplementasikan sistem agen. Model komputasi ini memperlakukan “aktor” sebagai primitif universal komputasi, di mana setiap aktor dapat:
Keunggulan utama dari Model Aktor untuk sistem agen mencakup:
Kami mengusulkan Neuron, implementasi praktis dari protokol agentic teoretis ini melalui arsitektur terdistribusi multi-lapisan yang menggabungkan namespace blockchain, jaringan federasi, CRDT, dan DHT, dengan setiap lapisan melayani tujuan yang berbeda dalam tumpukan protokol. Kami mengambil inspirasi dari Urbit dan Holochain, pionir awal dalam desain OS p2p.
Di Neuron, lapisan blockchain menyediakan namespace yang dapat diverifikasi dan identitas, memungkinkan penentuan alamat dan penemuan agen sambil mempertahankan bukti-bukti kriptografi dari kemampuan dan reputasi. Di atas ini, lapisan DHT memfasilitasi penemuan agen dan node yang efisien bersamaan dengan routing konten dengan waktu pencarian O(log n), mengurangi operasi on-chain sambil memungkinkan penemuan peer yang sadar akan lokalitas. Sinkronisasi status antara node federasi ditangani melalui CRDT, memungkinkan agen dan node untuk mempertahankan pandangan yang konsisten dari status bersama tanpa memerlukan konsensus global untuk setiap interaksi.
Arsitektur ini secara alami mengaitkan dengan jaringan federasi di mana agen otonom beroperasi sebagai node penguasa yang tinggal pada perangkat dengan edge inference lokal yang mengimplementasikan pola Model Aktor. Domain federasi dapat diatur berdasarkan kemampuan agen, dengan DHT menyediakan routing dan penemuan yang efisien di dalam dan lintas domain. Setiap agen berfungsi sebagai aktor independen dengan keadaan sendiri, sementara lapisan CRDT memastikan konsistensi akhir di seluruh federasi. Pendekatan berlapis ini memungkinkan beberapa kemampuan kunci:
Koordinasi Terdesentralisasi
Operasi yang dapat diskalakan
Ketahanan Sistem
Pendekatan implementasi ini menyediakan dasar yang kuat untuk membangun sistem agen yang kompleks sambil mempertahankan properti kunci kedaulatan, skalabilitas, dan ketahanan yang diperlukan untuk interaksi agen yang efektif.
Agentic Web menandai evolusi penting dalam interaksi manusia-komputer, melampaui perkembangan sekuensial era sebelumnya untuk membentuk paradigma baru secara mendasar tentang keberadaan digital. Berbeda dengan iterasi sebelumnya yang hanya mengubah cara kita mengonsumsi atau memiliki informasi, Agentic Web mengubah internet dari platform yang berpusat pada manusia menjadi substrat cerdas di mana agen otonom menjadi aktor utama. Transformasi ini didukung oleh konvergensi komputasi edge, model bahasa besar, dan protokol terdesentralisasi, menciptakan ekosistem di mana model AI pribadi berintegrasi dengan sistem ahli yang khusus.
Saat kita menuju masa depan yang berpusat pada agen ini, batas antara kecerdasan manusia dan mesin mulai kabur, digantikan oleh hubungan simbiotik di mana agen AI yang dipersonalisasi berfungsi sebagai perpanjangan digital kita, memahami konteks kita, memprediksi kebutuhan kita, dan secara otonom menavigasi lanskap luas kecerdasan terdistribusi. Web Agentic ini mewakili bukan hanya kemajuan teknologi, tetapi juga pemikiran ulang mendasar tentang potensi manusia di era digital, di mana setiap interaksi menjadi kesempatan untuk kecerdasan yang ditingkatkan dan setiap perangkat menjadi node dalam jaringan global sistem AI kolaboratif.
Sama seperti umat manusia menjelajahi dimensi fisik ruang dan waktu, agen otonom menghuni dimensi dasar mereka sendiri: ruang blok untuk eksistensi dan waktu inferensi untuk pemikiran. Ontologi digital ini mencerminkan realitas fisik kita — di mana manusia melintasi jarak dan mengalami aliran waktu, agen bergerak melalui bukti kriptografi dan siklus komputasi, menciptakan alam semesta paralel keberadaan algoritma.
Tidak dapat dihindari bahwa entitas di ruang laten akan beroperasi di blok desentralisasi.
Kecerdasan Buatan dan teknologi blockchain mewakili dua kekuatan transformatif yang membentuk kembali dunia kita. AI memperkuat kemampuan kognitif manusia melalui pembelajaran mesin dan jaringan saraf, sementara teknologi blockchain memperkenalkan kelangkaan digital yang dapat diverifikasi dan memungkinkan bentuk-bentuk baru koordinasi tanpa kepercayaan. Ketika teknologi ini bertemu, mereka meletakkan dasar untuk iterasi baru internet — tempat agen otonom berinteraksi dengan sistem terdesentralisasi. "Agentic Web" ini memperkenalkan kelas baru warga digital: agen AI yang dapat menavigasi, bernegosiasi, dan bertransaksi secara independen. Transformasi ini mendistribusikan kembali kekuatan di dunia digital, memungkinkan individu untuk merebut kembali kedaulatan atas data mereka sambil mengembangkan ekosistem di mana kecerdasan manusia dan buatan berkolaborasi dengan cara yang belum pernah terjadi sebelumnya.
Untuk memahami ke mana kita akan, mari kita pertama-tama melacak evolusi web melalui iterasi utamanya, masing-masing ditandai oleh kemampuan yang berbeda dan paradigma arsitektur:
Sementara dua generasi pertama web berfokus pada penyebaran informasi, dua generasi terakhir memungkinkan penambahan informasi. Web 3.0 memperkenalkan kepemilikan data melalui token, dan sekarang Web 4.0 memberikan kecerdasan melalui Large Language Models (LLM).
LLM mewakili lonjakan kuantum dalam kecerdasan mesin, berfungsi sebagai sistem pencocok pola dinamis yang mengubah pengetahuan luas menjadi pemahaman kontekstual melalui komputasi probabilistik. Namun, potensi sebenarnya mereka muncul ketika terstruktur sebagai agen - berkembang dari pengolah informasi murni menjadi entitas yang berorientasi pada tujuan yang dapat mempersepsi, berpikir, dan bertindak. Transformasi ini menciptakan kecerdasan emergent yang mampu berkolaborasi secara berkesinambungan dan bermakna melalui bahasa dan tindakan.
Istilah “agen” memperkenalkan paradigma baru untuk interaksi manusia-AI, melampaui batasan dan asosiasi negatif dari chatbot tradisional. Pergeseran ini bukan sekadar semantik; itu mewakili reconceptualization mendasar tentang bagaimana sistem AI dapat beroperasi secara otonom sambil menjaga kolaborasi yang berarti dengan manusia. Pada dasarnya, alur kerja agen memungkinkan pasar untuk terbentuk di sekitar memecahkan tujuan pengguna tertentu.
Pada akhirnya, Agentic Web mewakili lebih dari sekadar lapisan kecerdasan baru - secara mendasar mengubah cara kita berinteraksi dengan sistem digital. Sementara iterasi web sebelumnya mengandalkan antarmuka statis dan perjalanan pengguna yang telah ditentukan sebelumnya, Agentic Web memperkenalkan infrastruktur runtime dinamis di mana komputasi dan antarmuka beradaptasi secara real-time dengan konteks dan niat pengguna.
Situs web tradisional berfungsi sebagai unit atomik internet saat ini, menyediakan antarmuka yang tetap di mana pengguna membaca, menulis, dan berinteraksi dengan informasi melalui jalur yang ditentukan sebelumnya. Model ini, meskipun fungsional, membatasi pengguna ke antarmuka yang dirancang untuk kasus penggunaan umum daripada kebutuhan individu. Agentic Web membebaskan diri dari pembatasan-pembatasan ini melalui Context-Aware Computation, Adaptive Interface Generation, Predictive Action Flows yang terbuka melalui RAG dan inovasi lain dalam pengambilan informasi real-time.
Pertimbangkan bagaimana TikTok merevolusi konsumsi konten dengan membuat umpan yang sangat dipersonalisasi yang beradaptasi dengan preferensi pengguna secara real-time. Agentic Web memperluas konsep ini di luar rekomendasi konten ke generasi antarmuka keseluruhan. Alih-alih menavigasi melalui tata letak halaman web yang tetap, pengguna berinteraksi dengan antarmuka yang dihasilkan secara dinamis yang memprediksi dan memfasilitasi tindakan berikutnya mereka. Pergeseran dari situs web statis ke antarmuka dinamis yang didorong agen mewakili evolusi mendasar dalam cara kita berinteraksi dengan sistem digital—berpindah dari model interaksi berbasis navigasi ke model interaksi berbasis tujuan.
Arsitektur agen telah menjadi eksplorasi besar bagi para peneliti dan pembangun. Metode baru terus dikembangkan untuk meningkatkan kemampuan pemikiran dan pemecahan masalah mereka. Teknik seperti Chain-of-Thought (CoT), Tree-of-Thought (ToT), dan Graph-of-Thought (GoT) adalah contoh nyata dari inovasi yang dirancang untuk meningkatkan cara LLM mengatasi tugas-tugas kompleks dengan mensimulasikan proses kognitif yang lebih halus dan mirip manusia.
Pemikiran Berantai (CoT) mendorong mendorong model bahasa besar (LLM) untuk memecah tugas kompleks menjadi langkah-langkah yang lebih kecil dan dapat dikelola. Pendekatan ini sangat efektif untuk masalah yang memerlukan penalaran logis, seperti menulis skrip Python pendek atau menyelesaikan persamaan matematika.
Tree-of-Thoughts (ToT) membangun pada CoT dengan memperkenalkan struktur pohon yang memungkinkan eksplorasi dari beberapa jalur pemikiran independen. Peningkatan ini memungkinkan LLM untuk menangani tugas yang lebih rumit. Dalam ToT, setiap "pemikiran" (keluaran teks dari LLM) terhubung langsung hanya dengan pemikiran sebelumnya atau berikutnya dalam rantai lokal (cabang pohon). Meskipun struktur ini menawarkan fleksibilitas lebih dari CoT, tetap terbatas potensi untuk penyebaran ide-ide.
Graph-of-Thought (GoT) mengambil konsep lebih jauh dengan menyatukan struktur data klasik dengan LLMs. Pendekatan ini meluas dari ToT dengan memungkinkan setiap "pemikiran" untuk terhubung ke pemikiran lain dalam struktur graf. Jaringan terhubung ini lebih mirip dengan proses kognitif manusia.
Struktur grafik GoT kemungkinan memberikan representasi yang lebih akurat dari pemikiran manusia dibandingkan dengan CoT atau ToT dalam kebanyakan skenario. Meskipun ada kasus di mana pola pikir kita mungkin menyerupai rantai atau pohon (seperti saat mengembangkan rencana kontingensi atau prosedur operasional standar), ini merupakan pengecualian daripada norma. Model ini lebih mencerminkan pemikiran manusia, yang sering melompat dari berbagai pemikiran daripada mengikuti urutan berurutan yang ketat. Meskipun beberapa skenario, seperti mengembangkan rencana kontingensi atau prosedur standar, mungkin masih mengikuti struktur berbentuk rantai atau pohon, pikiran kita biasanya menciptakan jaringan ide yang kompleks dan saling terhubung yang lebih sesuai dengan struktur grafik.
Pendekatan grafik seperti ini dalam GoT memungkinkan eksplorasi ide yang lebih dinamis dan fleksibel, yang berpotensi mengarah pada kemampuan pemecahan masalah yang lebih kreatif dan komprehensif dalam LLMs.
Operasi berbasis grafik rekursif ini hanya merupakan langkah menuju alur kerja agen. Evolusi berikutnya yang jelas adalah beberapa agen dengan spesialisasi sendiri yang diatur menuju tujuan tertentu. Keindahan agen terletak pada komposisi mereka.
Agen memungkinkan Anda untuk memodulkan dan memparalelkan LLM melalui koordinasi multi-agen.
Konsep sistem multi-agents bukanlah sesuatu yang baru. Akarnya dapat ditelusuri kembali ke “Society of Mind” milik Marvin Minsky, yang mengusulkan bahwa beberapa pikiran modular yang bekerja sama dapat melampaui pikiran tunggal yang monolitik. ChatGPT dan Claude adalah agen tunggal. Mistral mempopulerkan Mixture of Experts. Dengan memperluas ide ini lebih jauh, kami percaya bahwa arsitektur Jaringan Agen akan menjadi keadaan akhir dari topologi kecerdasan ini.
Dari sudut pandang biomimikri, tidak seperti model AI, di mana miliaran neuron identik terhubung dengan cara yang seragam dan dapat diprediksi, otak manusia (pada dasarnya mesin sadar) sangat heterogen - baik pada tingkat organ maupun seluler. Neuron berkomunikasi melalui sinyal rumit, melibatkan gradien neurotransmitter, kaskade intraselular, dan berbagai sistem modulatori, menjadikan fungsi mereka jauh lebih nuansa daripada keadaan biner sederhana.
Ini menunjukkan bahwa dalam biologi, kecerdasan tidak hanya berasal dari jumlah komponen atau ukuran dataset pelatihan yang besar. Sebaliknya, hal itu timbul dari interaksi kompleks antara unit-unit yang beragam dan spesialisasi—suatu proses yang secara inheren analog.
Untuk alasan ini, gagasan mengembangkan jutaan model yang lebih kecil daripada hanya beberapa model besar, dan memungkinkan orkestrasi di antara semua aktor ini, lebih mungkin mengarah pada inovasi dalam arsitektur kognitif, sesuatu yang mirip dengan sistem multi-agen.
Desain sistem multi-agen menawarkan beberapa keuntungan dibandingkan dengan sistem tunggal-agen: lebih mudah dipelihara, lebih mudah dipahami, dan lebih fleksibel untuk diperluas. Bahkan dalam kasus di mana hanya diperlukan antarmuka agen tunggal, mengimplementasikannya dalam kerangka kerja multi-agen dapat membuat sistem lebih modular, menyederhanakan proses bagi pengembang untuk menambah atau menghapus komponen sesuai kebutuhan. Penting untuk diakui bahwa arsitektur multi-agen dapat menjadi cara yang sangat efektif untuk membangun bahkan sistem agen tunggal.
Meskipun model bahasa besar (LLM) telah menunjukkan kemampuan luar biasa—seperti menghasilkan teks mirip manusia, menyelesaikan masalah kompleks, dan menangani berbagai tugas—agen LLM individu menghadapi keterbatasan yang dapat menghambat efektivitas mereka dalam aplikasi dunia nyata.
Di bawah ini, kami menguji lima tantangan utama yang terkait dengan sistem agensial dan mengeksplorasi bagaimana kolaborasi multi-agents dapat mengatasi hambatan ini, membuka potensi penuh dari LLMs.
Sementara sistem multi-agents menawarkan keuntungan yang menarik dalam pemecahan masalah terdistribusi dan optimisasi sumber daya, potensi sebenarnya muncul ketika kita mempertimbangkan implementasinya di tepi jaringan. Saat AI terus berkembang, konvergensi arsitektur multi-agents dengan komputasi tepi menciptakan sinergi yang kuat - memungkinkan bukan hanya kecerdasan kolaboratif, tetapi juga pemrosesan yang efisien secara lokal di berbagai perangkat. Pendekatan terdistribusi ini untuk penyebaran AI secara alami memperluas manfaat sistem multi-agents, membawa kecerdasan kooperatif yang spesialis dan erat ke tempat yang paling dibutuhkan: pengguna akhir.
Proliferasi kecerdasan buatan di seluruh lanskap digital mendorong restrukturisasi fundamental arsitektur komputasi. Ketika kecerdasan menjadi terjalin dalam kain interaksi digital sehari-hari kita, kita menyaksikan pemisahan alami komputasi: pusat data khusus menangani pemikiran kompleks dan tugas-tugas domain-spesifik, sementara perangkat tepi memproses kueri personalisasi yang sensitif terhadap konteks secara lokal. Pergeseran ini menuju inferensi tepi bukan hanya preferensi arsitektural — ini adalah kebutuhan yang didorong oleh beberapa faktor kritis.
Pertama, volume interaksi yang didorong AI akan menghancurkan penyedia inferensi terpusat, menciptakan tuntutan bandwidth yang tidak bisa dipertahankan dan masalah laten yang tidak bisa diatasi.
Kedua, pemrosesan tepi memungkinkan responsifitas waktu nyata yang kritis untuk aplikasi seperti kendaraan otonom, realitas tertambah, dan perangkat IoT.
Ketiga, inferensi lokal menjaga privasi pengguna dengan menyimpan data sensitif di perangkat pribadi. Keempat, komputasi tepi secara dramatis mengurangi konsumsi energi dan jejak karbon dengan meminimalkan pergerakan data melintasi jaringan.
Akhirnya, inferensi tepi memungkinkan fungsionalitas offline dan ketahanan, memastikan kemampuan AI tetap ada bahkan ketika konektivitas jaringan terganggu.
Paradigma kecerdasan terdistribusi ini tidak hanya mewakili optimisasi dari sistem-sistem kami saat ini, tetapi juga merupakan pemikiran ulang mendasar tentang bagaimana kami menerapkan dan berinteraksi dengan AI dalam dunia yang semakin terhubung.
Selain itu, kita sedang menyaksikan pergeseran mendasar dalam tuntutan komputasi dari LLMs. Sementara dekade terakhir ini didominasi oleh tuntutan komputasi besar dalam pelatihan model bahasa besar, sekarang kita memasuki era di mana komputasi waktu inferensi menjadi pusat perhatian. Transisi ini terutama terlihat dalam munculnya sistem AI agensial, seperti yang ditunjukkan oleh terobosan Q* dari OpenAI, yang menunjukkan bagaimana penalaran dinamis membutuhkan sumber daya komputasi real-time yang substansial.
Berbeda dengan komputasi saat pelatihan, yang merupakan investasi satu kali dalam pengembangan model, komputasi saat inferensi mewakili dialog komputasi yang berkelanjutan yang diperlukan bagi agen otonom untuk berpikir, merencanakan, dan beradaptasi dengan situasi baru. Pergeseran ini dari pelatihan model statis ke penalaran agen dinamis mensyaratkan pemikiran ulang radikal terhadap infrastruktur komputasi kita—di mana komputasi tepi menjadi bukan hanya menguntungkan tetapi juga penting.
Saat transformasi ini terjadi, kita menyaksikan munculnya pasar inferensi tepi peer-to-peer, di mana miliaran perangkat terhubung—dari ponsel pintar hingga sistem rumah pintar—membentuk jaringan komputasi dinamis. Perangkat-perangkat ini dapat dengan lancar melakukan perdagangan kapasitas inferensi, menciptakan pasar organik di mana sumber daya komputasi mengalir ke tempat yang paling dibutuhkan. Kapasitas komputasi berlebih dari perangkat yang tidak digunakan menjadi sumber daya berharga, dapat diperdagangkan secara real-time, memungkinkan infrastruktur yang lebih efisien dan tangguh daripada sistem terpusat tradisional.
Demokratisasi komputasi inferensi ini tidak hanya mengoptimalkan pemanfaatan sumber daya, tetapi juga menciptakan peluang ekonomi baru dalam ekosistem digital, di mana setiap perangkat terhubung menjadi penyedia mikro potensial kemampuan AI. Masa depan AI akan ditandai bukan hanya oleh kekuatan model individual, tetapi juga oleh kecerdasan kolektif perangkat tepi yang saling terhubung membentuk pasar inferensi global yang terdemokratisasi, sesuatu yang mirip dengan pasar spot untuk inferensi verifikasi berdasarkan penawaran dan permintaan.
LLMs sekarang memungkinkan kita untuk mengakses jumlah informasi yang besar melalui percakapan, bukan penjelajahan tradisional. Pendekatan percakapan ini akan segera menjadi lebih personal dan lokal, karena internet berubah menjadi platform untuk agen AI daripada pengguna manusia.
Dari sudut pandang pengguna, fokusnya akan bergeser dari mengidentifikasi 'model terbaik' menjadi mendapatkan jawaban paling personal. Kunci untuk jawaban yang lebih baik terletak pada menggabungkan data pengguna sendiri bersama pengetahuan internet umum. Awalnya, jendela konteks yang lebih besar dan penambahan pemulihan generasi (RAG) akan membantu mengintegrasikan data pribadi, tetapi pada akhirnya, data individu akan melampaui data internet umum dalam hal pentingnya.
Ini mengarah pada masa depan di mana kita masing-masing memiliki model AI pribadi yang berinteraksi dengan model ahli internet yang lebih luas. Awalnya, personalisasi akan terjadi bersama model-model jarak jauh, tetapi kekhawatiran tentang privasi dan kecepatan respons akan mendorong interaksi lebih banyak ke perangkat lokal. Ini akan menciptakan batas baru—bukan antara manusia dan mesin, tetapi antara model pribadi kita dan model ahli internet.
Model tradisional internet untuk mengakses data mentah akan menjadi ketinggalan zaman. Sebagai gantinya, model lokal Anda akan berkomunikasi dengan model ahli jarak jauh untuk mengumpulkan informasi, yang akan diproses dan disajikan kepada Anda dengan cara yang paling personal, berkecepatan tinggi. Model pribadi ini akan menjadi semakin penting karena mereka belajar lebih banyak tentang preferensi dan kebiasaan Anda.
Internet akan bertransformasi menjadi ekosistem model yang saling terhubung: model personal lokal yang kontekstual tinggi dan model ahli jarak jauh yang berpengetahuan tinggi. Ini akan melibatkan teknologi baru seperti pembelajaran federasi untuk memperbarui informasi antara model-model ini. Saat ekonomi mesin berkembang, kita harus membayangkan kembali substate komputasi di mana hal ini terjadi, terutama dalam hal komputasi, skalabilitas, dan pembayaran. Hal ini mengarah pada reorganisasi ruang informasi yang berpusat pada agen, berdaulat, sangat dapat disusun, mandiri belajar, dan berkembang.
Dalam Agentic Web, interaksi manusia-agen berkembang menjadi jaringan komunikasi agen-ke-agen yang kompleks. Arsitektur ini menyajikan reimajinasi struktur internet yang mendasar, di mana agen-agen berdaulat menjadi antarmuka utama untuk interaksi digital. Di bawah ini, kami menyoroti primitif-primitif inti yang diperlukan untuk Protokol Agentic.
Identitas Soveren
Agen Otonom
Entitas yang mengarah sendiri yang mampu: Pemahaman bahasa alami dan pemecahan tujuan
Perencanaan multi-langkah dan dekomposisi tugas
Manajemen dan optimasi sumber daya
Belajar dari interaksi dan umpan balik
Infrastruktur Data
Sistem Hibrid yang menggabungkan: zkTLS
Dataset pelatihan tradisional
Pengambilan data web secara real-time dan sintesis data
jaringan RLHF (Penguatan Pembelajaran dari Umpan Balik Manusia) Pengumpulan umpan balik terdistribusi
Mekanisme konsensus berbobot kualitas
Lapisan Komputasi
Protokol inferensi yang dapat diverifikasi memastikan: Integritas komputasi
Reproduktibilitas hasil
Efisiensi sumber daya
Infrastruktur komputasi terdesentralisasi yang menampilkan:Pasar komputasi peer-to-peer
Sistem bukti komputasi
Pengalokasian sumber daya dinamis
Ekosistem Model
Arsitektur model hirarkis: SLM khusus tugas (Small Language Models)
LLM umum
Model multi-modal khusus
Kerangka Koordinasi
Mekanisme tata kelola untuk: Penyelesaian sengketa
Pengalokasian sumber daya
Lingkungan eksekusi paralel yang memungkinkan:Pemrosesan tugas yang bersamaan
Isolasi sumber daya
manajemen negara
Pasaran Agentic
Liquidity yang Dimiliki oleh AgenAgen memiliki sebagian pasokan token mereka pada awalnya
Agen menjadi aset penghasil hasil DAO Agentic.
Desain sistem terdistribusi modern menawarkan inspirasi dan primitif unik untuk memungkinkan Protokol Agentic, khususnya arsitektur yang didorong oleh peristiwa dan lebih langsung, Model Aktor Penghitungan.
Model Aktor menyediakan dasar teoritis yang elegan untuk mengimplementasikan sistem agen. Model komputasi ini memperlakukan “aktor” sebagai primitif universal komputasi, di mana setiap aktor dapat:
Keunggulan utama dari Model Aktor untuk sistem agen mencakup:
Kami mengusulkan Neuron, implementasi praktis dari protokol agentic teoretis ini melalui arsitektur terdistribusi multi-lapisan yang menggabungkan namespace blockchain, jaringan federasi, CRDT, dan DHT, dengan setiap lapisan melayani tujuan yang berbeda dalam tumpukan protokol. Kami mengambil inspirasi dari Urbit dan Holochain, pionir awal dalam desain OS p2p.
Di Neuron, lapisan blockchain menyediakan namespace yang dapat diverifikasi dan identitas, memungkinkan penentuan alamat dan penemuan agen sambil mempertahankan bukti-bukti kriptografi dari kemampuan dan reputasi. Di atas ini, lapisan DHT memfasilitasi penemuan agen dan node yang efisien bersamaan dengan routing konten dengan waktu pencarian O(log n), mengurangi operasi on-chain sambil memungkinkan penemuan peer yang sadar akan lokalitas. Sinkronisasi status antara node federasi ditangani melalui CRDT, memungkinkan agen dan node untuk mempertahankan pandangan yang konsisten dari status bersama tanpa memerlukan konsensus global untuk setiap interaksi.
Arsitektur ini secara alami mengaitkan dengan jaringan federasi di mana agen otonom beroperasi sebagai node penguasa yang tinggal pada perangkat dengan edge inference lokal yang mengimplementasikan pola Model Aktor. Domain federasi dapat diatur berdasarkan kemampuan agen, dengan DHT menyediakan routing dan penemuan yang efisien di dalam dan lintas domain. Setiap agen berfungsi sebagai aktor independen dengan keadaan sendiri, sementara lapisan CRDT memastikan konsistensi akhir di seluruh federasi. Pendekatan berlapis ini memungkinkan beberapa kemampuan kunci:
Koordinasi Terdesentralisasi
Operasi yang dapat diskalakan
Ketahanan Sistem
Pendekatan implementasi ini menyediakan dasar yang kuat untuk membangun sistem agen yang kompleks sambil mempertahankan properti kunci kedaulatan, skalabilitas, dan ketahanan yang diperlukan untuk interaksi agen yang efektif.
Agentic Web menandai evolusi penting dalam interaksi manusia-komputer, melampaui perkembangan sekuensial era sebelumnya untuk membentuk paradigma baru secara mendasar tentang keberadaan digital. Berbeda dengan iterasi sebelumnya yang hanya mengubah cara kita mengonsumsi atau memiliki informasi, Agentic Web mengubah internet dari platform yang berpusat pada manusia menjadi substrat cerdas di mana agen otonom menjadi aktor utama. Transformasi ini didukung oleh konvergensi komputasi edge, model bahasa besar, dan protokol terdesentralisasi, menciptakan ekosistem di mana model AI pribadi berintegrasi dengan sistem ahli yang khusus.
Saat kita menuju masa depan yang berpusat pada agen ini, batas antara kecerdasan manusia dan mesin mulai kabur, digantikan oleh hubungan simbiotik di mana agen AI yang dipersonalisasi berfungsi sebagai perpanjangan digital kita, memahami konteks kita, memprediksi kebutuhan kita, dan secara otonom menavigasi lanskap luas kecerdasan terdistribusi. Web Agentic ini mewakili bukan hanya kemajuan teknologi, tetapi juga pemikiran ulang mendasar tentang potensi manusia di era digital, di mana setiap interaksi menjadi kesempatan untuk kecerdasan yang ditingkatkan dan setiap perangkat menjadi node dalam jaringan global sistem AI kolaboratif.
Sama seperti umat manusia menjelajahi dimensi fisik ruang dan waktu, agen otonom menghuni dimensi dasar mereka sendiri: ruang blok untuk eksistensi dan waktu inferensi untuk pemikiran. Ontologi digital ini mencerminkan realitas fisik kita — di mana manusia melintasi jarak dan mengalami aliran waktu, agen bergerak melalui bukti kriptografi dan siklus komputasi, menciptakan alam semesta paralel keberadaan algoritma.
Tidak dapat dihindari bahwa entitas di ruang laten akan beroperasi di blok desentralisasi.