Son yıllarda, Yapay Zeka (AI) ve Web3 teknolojilerinin hızlı gelişimi, küresel çapta geniş bir ilgi gördü. İnsan zekasını simüle eden ve taklit eden bir teknoloji olan yapay zeka, yüz tanıma, doğal dil işleme ve makine öğrenimi gibi alanlarda önemli atılımlar gerçekleştirdi. Yapay zeka teknolojisinin hızla ilerlemesi, çeşitli endüstrilerde muazzam bir dönüşüm ve yenilik getirdi.
Yapay zeka endüstrisi, 2023'te 200 milyar dolarlık bir pazar büyüklüğüne ulaştı ve sektör devleri ve OpenAI, Character.AI ve Midjourney gibi önde gelen oyuncular hızla ortaya çıktı ve yapay zeka patlamasını lider.
Aynı zamanda, gelişmekte olan bir internet modeli olan Web3, internet algımızı ve kullanımımızı yavaş yavaş değiştiriyor. Merkezi olmayan blok zinciri teknolojisine dayanan Web3, akıllı sözleşmeler, dağıtılmış depolama ve merkezi olmayan kimlik doğrulama gibi özellikler aracılığıyla veri paylaşımı ve kontrolü, kullanıcı özerkliği ve güven mekanizmalarının kurulmasını gerçekleştirir. Web3'ün temel fikri, verileri merkezi otoritelerden kurtarmak, kullanıcılara verileri üzerinde kontrol ve verilerinin değerini paylaşma yeteneği vermektir.
Şu anda Web3 endüstrisinin piyasa değeri 25 trilyon dolara ulaştı. Bitcoin, Ethereum ve Solana'den Uniswap ve Stepn gibi uygulama düzeyindeki oyunculara kadar, sürekli olarak yeni anlatılar ve senaryolar ortaya çıkıyor ve giderek daha fazla insanı Web3 endüstrisine katılmaya çekiyor.
Yapay zeka ve Web3'ün entegrasyonunun hem Doğu'dan hem de Batı'dan inşaatçılar ve risk sermayedarları için bir odak noktası olduğu açıktır. Bu iki teknolojinin etkili bir şekilde nasıl birleştirileceğini keşfetmek son derece değerli bir çabadır.
Bu makale, AI+Web3 geliştirmenin mevcut durumuna odaklanacak ve entegrasyonlarının potansiyel değerini ve etkisini keşfedecektir. Önce AI ve Web3'ün temel kavramlarını ve özelliklerini tanıtacağız, ardından aralarındaki ilişkiyi tartışacağız. Bunu takiben, AI+Web3 projelerinin mevcut durumunu analiz edeceğiz ve karşılaştıkları sınırlamaları ve zorlukları inceleyeceğiz. Bu araştırma ile yatırımcılar ve sektör profesyonelleri için değerli referanslar ve içgörüler sağlamayı amaçlıyoruz.
Yapay zeka ve Web3'ün gelişimi bir ölçeğin iki yüzü olarak görülebilir: Yapay zeka üretkenlik iyileştirmeleri sağlarken, Web3 üretim ilişkilerinde devrim yaratıyor. Peki, yapay zeka ve Web3 çarpıştığında ne tür kıvılcımlar yaratabilir? Önce yapay zeka ve Web3 endüstrilerindeki zorlukları ve potansiyel iyileştirmeleri analiz edeceğiz ve ardından bunların birbirlerinin sorunlarını çözmeye nasıl yardımcı olabileceklerini keşfedeceğiz.
Yapay zeka endüstrisinin karşılaştığı zorlukları keşfetmek için önce özünü anlamalıyız. Yapay zeka endüstrisinin özü üç temel unsur etrafında döner: hesaplama gücü, algoritmalar ve veriler.
Mevcut yapay zekanın üç temel unsurunu anladıktan sonra, yapay zekanın bu alanlarda karşılaştığı zorlukları ve zorlukları inceleyelim.
İlk olarak, hesaplama gücü açısından, yapay zeka görevleri, özellikle derin öğrenme modelleri için, model eğitimi ve çıkarımı için genellikle büyük miktarda hesaplama kaynağı gerektirir. Bununla birlikte, büyük ölçekli hesaplama gücünü elde etmek ve yönetmek pahalı ve karmaşık bir zorluktur. Yüksek performanslı bilgi işlem ekipmanının maliyeti, enerji tüketimi ve bakımı önemli konulardır. Bu, yeterli hesaplama gücü elde etmenin zor olabileceği yeni başlayanlar ve bireysel geliştiriciler için özellikle zorlayıcıdır.
Algoritmalar açısından, derin öğrenme algoritmalarının birçok alandaki önemli başarılarına rağmen, hala zorluklar ve zorluklar var. Örneğin, derin sinir ağlarını eğitmek büyük miktarda veri ve hesaplama kaynağı gerektirir. Ek olarak, belirli görevler için modellerin yorumlanabilirliği ve açıklanabilirliği yetersiz olabilir. Görünmeyen veriler üzerindeki model performansı kararsız olabileceğinden, algoritmaların sağlamlığı ve genelleme yetenekleri de çok önemli konulardır. Birçok algoritma arasında en iyi performansı sağlamak için en iyi algoritmayı bulmak devam eden bir araştırmadır.
Veri açısından, veriler yapay zekanın arkasındaki itici güçtür, ancak yüksek kaliteli, çeşitli veriler elde etmek bir zorluk olmaya devam etmektedir. Tıp sektöründeki hassas sağlık verileri gibi bazı alanlardaki verilerin elde edilmesi zor olabilir. Ayrıca, eksik veya önyargılı veriler hatalı model davranışına veya önyargılara yol açabileceğinden, verilerin kalitesi, doğruluğu ve etiketlenmesi kritik konulardır. Veri gizliliğinin ve güvenliğinin korunması da önemli bir husustur.
Ayrıca, yorumlanabilirlik ve şeffaflıkla ilgili sorunlar var. Yapay zeka modellerinin "kara kutu" doğası kamuoyunu ilgilendiriyor. Finans, sağlık ve adalet gibi belirli uygulamalarda, modellerin karar verme sürecinin yorumlanabilir ve izlenebilir olması gerekir. Ancak, mevcut derin öğrenme modelleri genellikle şeffaflıktan yoksundur. Modellerin karar verme sürecini açıklamak ve güvenilir açıklamalar sağlamak zor olmaya devam etmektedir.
Ek olarak, birçok yapay zeka başlangıç projesinin iş modelleri çok net değil ve bu da birçok yapay zeka girişimcisi için kafa karışıklığına neden oluyor.
Web3 endüstrisinde, veri analizi ve kullanıcı deneyiminden akıllı sözleşme güvenlik açıklarına ve bilgisayar korsanı saldırılarına kadar ele alınması gereken çok sayıda zorluk vardır. Üretkenliği artıran bir araç olarak yapay zeka, bu alanlarda önemli bir potansiyele sahiptir.
İlk olarak, veri analizi ve tahmine dayalı yeteneklerde iyileştirme için yer var. Veri analizi ve tahminindeki yapay zeka uygulamalarının Web3 endüstrisi üzerinde önemli bir etkisi olmuştur. Web3 platformları, yapay zeka algoritmaları tarafından akıllı analiz ve madencilik yoluyla büyük miktarda veriden değerli bilgiler çıkarabilir ve daha doğru tahminler ve kararlar alabilir. Bu, özellikle merkezi olmayan finansta (DeFi) risk değerlendirmesi, piyasa tahmini ve varlık yönetimi için önemlidir.
Ek olarak, kullanıcı deneyimini ve kişiselleştirme hizmetlerini geliştirme potansiyeli vardır. Yapay zeka uygulamaları, Web3 platformlarının daha iyi kullanıcı deneyimleri ve kişiselleştirilmiş hizmetler sunmasını sağlar. Web3 platformları, kullanıcı verilerini analiz ederek ve modelleyerek kişiselleştirilmiş öneriler, özelleştirilmiş hizmetler ve akıllı etkileşim deneyimleri sağlayabilir. Bu, Web3 ekosisteminin gelişimini teşvik ederek kullanıcı katılımını ve memnuniyetini artırmaya yardımcı olur. Örneğin, birçok Web3 protokolü, kullanıcılara daha iyi hizmet vermek için ChatGPT gibi yapay zeka araçlarını entegre eder.
Güvenlik ve gizliliğin korunması açısından, yapay zeka uygulamalarının Web3 endüstrisi üzerinde de derin bir etkisi vardır. AI teknolojisi, ağ saldırılarını tespit etmek ve bunlara karşı savunma yapmak, anormal davranışları belirlemek ve daha güçlü güvenlik önlemleri sağlamak için kullanılabilir. Ek olarak, yapay zeka, veri şifreleme ve gizlilik hesaplama gibi teknikler aracılığıyla Web3 platformlarında kullanıcıların kişisel bilgilerini koruyarak veri gizliliği korumasına uygulanabilir. Akıllı sözleşme denetimi ile ilgili olarak, akıllı sözleşmeler yazma ve denetleme süreçlerinde güvenlik açıkları ve güvenlik riskleri olabileceğinden, yapay zeka teknolojisi, otomatik sözleşme denetimi ve güvenlik açığı tespiti için kullanılabilir, bu da sözleşmelerin güvenliğini ve güvenilirliğini artırır.
Yapay zekanın, Web3 endüstrisindeki zorlukların ve potansiyel iyileştirmelerin çeşitli yönlerden ele alınmasına önemli ölçüde katkıda bulunabileceği açıktır.
Yapay zeka ve Web3 projelerini birleştirmek öncelikle iki ana yöne odaklanır: yapay zeka projelerini geliştirmek için blok zinciri teknolojisinden yararlanmak ve Web3 projelerinin iyileştirilmesine hizmet etmek için yapay zeka teknolojisini kullanmak. Bu yol boyunca Io.net, Gensyn, Ritual ve diğerleri dahil olmak üzere çok sayıda proje ortaya çıktı. Aşağıdaki analiz, yapay zekanın Web3'e yardımcı olduğu ve Web3'ün yapay zekayı geliştirdiği farklı alt alanları inceleyecektir.
3.1.1'in Merkezi Olmayan Bilgi İşlem Gücü Yardımcı Oluyor
ChatGPT'nin 2022'nin sonunda OpenAI tarafından piyasaya sürülmesinden bu yana, yapay zeka alanında bir çılgınlığı ateşledi. Piyasaya sürülmesinden sonraki beş gün içinde, kullanıcı tabanı bir milyona ulaştı ve aynı dönüm noktasına ulaşması yaklaşık iki buçuk ay süren Instagram'ın indirme oranını aştı. Daha sonra ChatGPT, aylık aktif kullanıcı sayısının iki ay içinde 100 milyona ve haftalık aktif kullanıcı sayısının Kasım 2023'e kadar 100 milyona ulaşmasıyla hızlı bir büyüme yaşadı. ChatGPT'nin ortaya çıkmasıyla birlikte, yapay zeka sektörü hızla niş bir alandan oldukça saygın bir sektöre geçiş yaptı.
Trendforce'un raporuna göre, ChatGPT'nin çalışması için 30.000 NVIDIA A100 GPU gerekiyor ve GPT-5 gibi gelecekteki modeller daha da fazla hesaplama gücü gerektirecek. Bu, çeşitli yapay zeka şirketleri arasında bir silahlanma yarışına yol açtı, çünkü yeterli hesaplama gücüne sahip olmak, GPU eksikliğine lider yapay zeka arenasında rekabet avantajını korumak için çok önemlidir.
Yapay zekanın yükseliş önce, büyük GPU sağlayıcısı NVIDIA, öncelikle üç büyük bulut hizmetinden müşterilere hizmet veriyordu: AWS, Azure ve GCP. Yapay zekanın yükseliş ile Meta, Oracle gibi büyük teknoloji şirketlerinin yanı sıra diğer veri platformları ve yapay zeka girişimleri de dahil olmak üzere çok sayıda yeni alıcı ortaya çıktı ve hepsi yapay zeka modellerini eğitmek için GPU'ları stoklama yarışına katıldı. Meta ve Tesla gibi büyük teknoloji şirketleri, özelleştirilmiş yapay zeka modelleri ve dahili araştırma alımlarını önemli ölçüde artırdı. Anthropic gibi temel model şirketleri ve Snowflake ve Databricks gibi veri platformları da müşterilerine yapay zeka hizmetleri sağlamada yardımcı olmak için daha fazla GPU satın aldı.
Geçen yıl Semi Analysis tarafından belirtildiği gibi, "GPU zengini" ve "GPU fakiri" şirketler arasında bir ayrım var, sadece birkaçı 20.000'den fazla A100 / H100 GPU'ya sahip ve ekip üyelerinin projeler için 100 ila 1000 GPU kullanmasına izin veriyor. Bu şirketler ya bulut sağlayıcılarıdır ya da OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral ve diğerleri dahil olmak üzere kendi büyük dil modellerini (LLM'ler) oluşturmuşlardır.
Bununla birlikte, şirketlerin çoğu, önemli ölçüde daha az GPU ile mücadele ederek ve ekosistemi ilerletmesi daha zor olan görevlere önemli miktarda zaman ve çaba harcayarak "GPU fakiri" kategorisine düşüş. Üstelik bu durum sadece startup'larla sınırlı değil. Hugging Face, Databricks (MosaicML), Together ve hatta Snowflake gibi en tanınmış yapay zeka şirketlerinden bazıları, 20.000'den az A100/H100 miktarlarına sahiptir. Birinci sınıf teknik yeteneğe sahip olmalarına rağmen, bu şirketler sınırlı GPU arzı tarafından kısıtlanıyor ve bu da onları AI rekabetindeki daha büyük şirketlere kıyasla dezavantajlı hale getiriyor.
Bu eksiklik "GPU zayıf" kategorisiyle sınırlı değil; 2023'ün sonunda bile, lider AI oyuncusu OpenAI, yeterli GPU elde edememesi nedeniyle ücretli kayıtları geçici olarak kapatmak zorunda kaldı ve daha fazla GPU kaynağı tedarik etmek zorunda kaldı.
Yapay zekanın hızlı gelişiminin, GPU'ların talebi ve arzı arasında ciddi bir uyumsuzluğa yol açtığı ve yakın bir arz sıkıntısı yarattığı açıktır.
Bu sorunu çözmek için bazı Web3 projeleri, Web3 teknolojisinin benzersiz özelliklerinden yararlanarak merkezi olmayan bilgi işlem gücü çözümlerini keşfetmeye başladı. Bu projeler arasında Akash, Render, Gensyn ve diğerleri yer alıyor. Bu projeler arasındaki ortak özellik, kullanıcıları boşta GPU bilgi işlem gücü sağlamaya teşvik etmek için belirteçlerin kullanılması ve böylece destek AI istemcilerine bilgi işlem gücünün arz tarafı haline gelmesidir.
Arz tarafı profili temel olarak üç yönden oluşur: bulut hizmeti sağlayıcıları, kripto para madencileri ve işletmeler. Bulut hizmeti sağlayıcıları, kullanıcıların gelir elde etmek için bu sağlayıcılardan boşta kalan bilgi işlem gücünü yeniden satabilecekleri büyük bulut hizmeti sağlayıcılarını (AWS, Azure, GCP gibi) ve GPU bulut hizmeti sağlayıcılarını (Coreweave, Lambda, Crusoe gibi) içerir. Ethereum PoW'den PoS'ye geçişiyle birlikte, boşta GPU bilgi işlem gücü, kripto para madencileri için önemli bir potansiyel arz tarafı haline geldi. Ek olarak, stratejik amaçlarla büyük miktarlarda GPU satın alan Tesla ve Meta gibi büyük işletmeler de arz tarafının bir parçası olarak atıl GPU bilgi işlem güçlerine katkıda bulunabilirler.
Şu anda, bu alandaki oyuncular genellikle iki kategoriye ayrılabilir: yapay zeka çıkarımı için merkezi olmayan bilgi işlem gücünü kullananlar ve bunu yapay zeka eğitimi için kullananlar. İlk kategori Render (işlemeye odaklanmış olsa da, AI hesaplama için de kullanılabilir), Akash, Aethir gibi projeleri içerirken, ikinci kategori io.net (hem çıkarımı hem de eğitimi destekleyen) ve Gensyn gibi projeleri içerir. İkisi arasındaki temel fark, bilgi işlem gücü için farklı gereksinimlerde yatmaktadır.
Önce yapay zeka çıkarımına odaklanan projeleri tartışalım. Bu projeler, kullanıcıları belirteç teşvikleri yoluyla bilgi işlem gücü sağlamaya çeker ve ardından talep tarafına bilgi işlem güç ağı hizmetleri sağlar, böylece boşta bilgi işlem güç arzı ve talebinin eşleştirme kolaylaştırır. Bu tür projelerle ilgili ayrıntılar, Ryze Labs'ımızdan DePIN tarafından hazırlanan bir araştırma raporunda ele alınmıştır, bunları okumaktan çekinmeyin.
Temel nokta, projenin önce tedarikçileri ve ardından kullanıcıları çektiği, böylece projenin soğuk başlatma ve çekirdek çalışma mekanizmasını elde ederek daha fazla genişleme ve geliştirme sağladığı belirteç teşvik mekanizmasında yatmaktadır. Bu döngüde, arz tarafı daha değerli token ödülleri alırken, talep tarafı daha uygun maliyetli hizmetlerden yararlanır. Projenin tokenlerinin değeri ve hem arz hem de talep katılımcılarının büyümesi tutarlı olmaya devam ediyor. Token fiyatı yükseldikçe, daha fazla katılımcı ve spekülatör çekilir ve bu da bir değer yakalama döngüsü yaratır.
Başka bir kategori, Gensyn ve io.net (hem yapay zeka eğitimini hem de çıkarımı destek) gibi yapay zeka eğitimi için merkezi olmayan bilgi işlem gücünün kullanılmasını içerir. Aslında, bu projelerin operasyonel mantığı, AI çıkarım projelerinden temelde farklı değildir. Daha sonra talep tarafı tarafından kullanılan bilgi işlem gücü sağlamak için arz tarafından katılımı çekmek için hala token teşviklerine güveniyorlar.
Merkezi olmayan bir bilgi işlem gücü ağı olan io.net, şu anda 500.000'den fazla GPU'ya sahiptir ve bu da onu merkezi olmayan bilgi işlem gücü projelerinde göze çarpan bir performans haline getirmektedir. Ek olarak, ekosisteminin sürekli gelişimini gösteren Render ve Filecoin'den entegre bilgi işlem gücüne sahiptir.
Ayrıca Gensyn, yapay zeka eğitimini etkinleştirmek için akıllı sözleşmeler aracılığıyla makine öğrenimi görev tahsisini ve ödüllerini kolaylaştırır. Aşağıdaki şemada gösterildiği gibi, Gensyn'de makine öğrenimi eğitim çalışmasının saatlik maliyeti yaklaşık 0,4 USD'dir ve bu, AWS ve GCP'deki 2 USD'nin üzerindeki maliyetten önemli ölçüde daha düşüktür.
Gensyn ekosistemi dört katılımcı kuruluştan oluşur:
Gördüğümüz gibi Gensyn, küresel derin öğrenme modelleri için büyük ölçüde ölçeklenebilir ve uygun maliyetli bir bilgi işlem protokol olmayı hedefliyor. Bununla birlikte, bu alana bakıldığında, çoğu proje neden eğitim yerine yapay zeka çıkarımı için merkezi olmayan bilgi işlem gücünü seçiyor?
Yapay zeka eğitimine ve çıkarımına aşina olmayan arkadaşların ikisi arasındaki farkı anlamalarına da yardımcı olalım:
Hem yapay zeka çıkarımı hem de yapay zeka eğitimi için hesaplama gücü gereksinimlerinin önemli ölçüde farklılık gösterdiği görülebilir. Yapay zeka çıkarımı ve yapay zeka eğitimi için merkezi olmayan bilgi işlem gücünün kullanılabilirliği, yaklaşan zorluk bölümünde daha ayrıntılı olarak analiz edilecektir.
Ayrıca Ritual, ademi merkeziyetçiliği ve güvenliği korumak için dağıtılmış ağları model oluşturucularla birleştirmeyi amaçlamaktadır. İlk ürünü olan Infernet, blok zincirindeki akıllı sözleşmeler off-chain yapay zeka modellerine erişmesini sağlayarak, bu tür sözleşmelerin doğrulama, ademi merkeziyetçilik ve gizlilik korumasını sürdürecek şekilde yapay zekaya erişmesine olanak tanır.
Infernet'in koordinatörü, ağdaki düğümlerin davranışını yönetmekten ve tüketicilerden gelen hesaplama taleplerine yanıt vermekten sorumludur. Kullanıcılar Infernet'i kullandığında, çıkarım ve ispat gibi görevler off-chain gerçekleştirilir, çıktı koordinatöre geri gönderilir ve nihayetinde akıllı sözleşmeler yoluyla on-chain tüketicilere iletilir.
Merkezi olmayan bilgi işlem güç ağlarına ek olarak, veri iletiminin hızını ve verimliliğini artırmayı amaçlayan Grass gibi merkezi olmayan bant genişliği ağları da vardır. Genel olarak, merkezi olmayan bilgi işlem güç ağlarının ortaya çıkışı, yapay zeka bilgi işlem gücünün arz tarafı için yeni bir olasılık sağlayarak yapay zekayı yeni yönlere doğru ilerletiyor.
3.1.2 Merkezi olmayan algoritma modeli
İkinci bölümde bahsedildiği gibi, yapay zekanın üç temel unsuru hesaplama gücü, algoritmalar ve verilerdir. Hesaplama gücü, ademi merkeziyetçilik yoluyla bir tedarik ağı oluşturabildiğine göre, algoritmalar da benzer bir yaklaşım izleyebilir ve algoritma modelleri için bir tedarik ağı oluşturabilir mi?
Bu alandaki projeleri analiz etmeden önce, merkeziyetsiz algoritma modellerinin önemini anlayalım. Birçok kişi, zaten OpenAI'ye sahip olduğumuza göre, neden merkezi olmayan bir algoritma ağına ihtiyacımız olduğunu merak edebilir.
Esasen, merkezi olmayan bir algoritma ağı, birçok farklı AI modelini birbirine bağlayan merkezi olmayan bir AI algoritma hizmeti pazarıdır. Her yapay zeka modelinin kendi uzmanlığı ve becerileri vardır. Kullanıcılar soru sorduğunda, pazar yeri soruyu yanıtlamak için en uygun yapay zeka modelini seçer. OpenAI tarafından geliştirilen Chat-GPT, insanlara benzer metinleri anlayabilen ve üretebilen böyle bir yapay zeka modelidir.
Basit bir ifadeyle, ChatGPT, farklı türdeki sorunları çözmeye yardımcı olan son derece yetenekli bir öğrenci gibidir, merkezi olmayan bir algoritma ağı, sorunları çözmeye yardımcı olan birçok öğrencinin bulunduğu bir okul gibidir. Mevcut öğrenci (ChatGPT) son derece yetenekli olsa da, long vadede dünyanın dört bir yanından öğrenci alabilecek bir okul için büyük bir potansiyel var.
Şu anda, merkezi olmayan algoritma modelleri alanında, deney yapan ve keşfeden bazı projeler de var. Daha sonra, bu niş alanın gelişimini anlamaya yardımcı olmak için temsili proje Bittensor'u bir vaka çalışması olarak kullanacağız.
Bittensor'da, algoritma modellerinin (veya madencilerin) arz tarafı, makine öğrenimi modellerini ağa katkıda bulunur. Bu modeller verileri analiz edebilir ve içgörüler sağlayabilir. Model sağlayıcılar, katkılarından dolayı ödül olarak TAO olarak bilinen kripto para birimi belirteçleri alırlar.
Cevapların kalitesini sağlamak için Bittensor, en iyi cevap üzerinde bir fikir birliğine varmak için benzersiz bir fikir birliği mekanizması kullanır. Bir soru sorulduğunda, birden fazla model madencisi cevap verir. Ardından, ağdaki doğrulayıcılar en iyi cevabı belirlemek için çalışmaya başlar ve bu daha sonra kullanıcıya geri gönderilir.
Bittensor ekosistemindeki token TAO, süreç boyunca iki ana rol oynar. Bir yandan, madencilerin ağa algoritma modellerine katkıda bulunmaları için bir teşvik görevi görür. Öte yandan, kullanıcıların soru sormak ve ağın görevleri tamamlamasını sağlamak için jeton harcaması gerekir.
Bittensor merkezi olmadığı için, internet erişimi olan herkes, soru soran bir kullanıcı veya yanıt veren bir madenci olarak ağa katılabilir. Bu, daha fazla insanın yapay zekanın gücünden yararlanmasını sağlar.
Özetle, Bittensor gibi merkezi olmayan algoritma modeli ağları, daha açık ve şeffaf bir manzara yaratma potansiyeline sahiptir. Bu ekosistemde, yapay zeka modelleri güvenli ve merkezi olmayan bir şekilde eğitilebilir, paylaşılabilir ve kullanılabilir. Ek olarak, BasedAI gibi diğer ağlar, dördüncü alt bölümde daha ayrıntılı olarak tartışılacak olan kullanıcı modeli etkileşimli veri gizliliğini korumak için Sıfır Bilgi Kanıtları (ZK) kullanmanın ilgi çekici yönüyle benzer çabalar deniyor.
Merkezi olmayan algoritma modeli platformları geliştikçe, küçük şirketlerin son teknoloji yapay zeka araçlarını kullanma konusunda büyük kuruluşlarla rekabet etmelerini sağlayacak ve potansiyel olarak çeşitli sektörlerde önemli etkilere sahip olacaklar.
3.1.3 Merkezi Olmayan Veri Toplama
Yapay zeka modellerinin eğitimi için büyük miktarda veri kaynağı vazgeçilmezdir. Bununla birlikte, çoğu Web2 şirketi şu anda hala kullanıcı verilerini tekelleştiriyor. X, Reddit, TikTok, Snapchat, Instagram ve YouTube gibi platformlar, yapay zeka endüstrisinin gelişmesinin önünde önemli bir engel teşkil eden yapay zeka eğitimi için veri toplamayı yasaklıyor.
Öte yandan, bazı Web2 platformları, kullanıcılarla herhangi bir kar paylaşmadan kullanıcı verilerini yapay zeka şirketlerine satar. Örneğin Reddit, Google ile 60 milyon dolarlık bir anlaşmaya vardı ve Google'ın gönderilerini kullanarak yapay zeka modellerini eğitmesine izin verdi. Bu, veri toplama haklarının büyük sermaye ve büyük veri şirketleri tarafından tekelleştirilmesine ve endüstriyi sermaye yoğun bir yöne doğru itmesine neden olur.
Bu duruma yanıt olarak, bazı projeler merkezi olmayan veri toplamayı başarmak için Web3 ve token teşviklerinden yararlanıyor. Örnek olarak PublicAI'yi ele alalım: kullanıcılar iki role katılabilir:
Ödül olarak, kullanıcılar bu katkılar yoluyla token kazanabilir ve veri katkıda bulunanlar ile yapay zeka endüstrisi arasında bir kazan-kazan ilişkisini teşvik edebilir.
Özellikle yapay zeka eğitimi için veri toplayan PublicAI gibi projelere ek olarak, merkezi olmayan veri toplama için token teşvikleri kullanan birçok başka proje var. Örneğin, Ocean, yapay zekaya hizmet etmek için veri tokenizasyon aracılığıyla kullanıcı verilerini toplar, Hivemapper harita verilerini toplamak için kullanıcıların araba kameralarını kullanır, Dimo araba verilerini toplar ve WiHi hava durumu verilerini toplar. Bu projeler, merkezi olmayan veri toplama yoluyla, yapay zeka eğitimi için potansiyel veri kaynakları olarak da hizmet eder. Böylece, geniş anlamda, Web3'ün yapay zekaya yardımcı olması paradigmasına dahil edilebilirler.
3.1.4 ZK, Yapay Zekada Kullanıcı Gizliliğini Korur
Blok Zinciri teknoloji, ademi merkeziyetçilik avantajları sunar ve ayrıca çok önemli bir özellik sunar: sıfır bilgi kanıtları. Sıfır bilgi teknolojisi, gizliliği korurken bilgi doğrulamasına izin verir.
Geleneksel makine öğreniminde, verilerin genellikle merkezi olarak depolanması ve işlenmesi gerekir ve bu da gizlilik risklerine yol açabilir. şifreleme veya veri anonimleştirme gibi veri gizliliğini koruma yöntemleri, makine öğrenimi modellerinin doğruluğunu ve performansını sınırlayabilir.
Sıfır bilgi kanıtı teknolojisi, gizlilik koruması ve veri paylaşımı arasındaki çatışmayı ele alarak bu ikilemin çözülmesine yardımcı olur. Sıfır Bilgi Makine Öğrenimi (ZKML), orijinal verileri açığa çıkarmadan makine öğrenimi modeli eğitimi ve çıkarımı sağlamak için sıfır bilgi kanıtı teknolojisini kullanır. Sıfır bilgi ispatları, gerçek veri içeriğini ortaya çıkarmadan verilerin özelliklerinin ve modelin sonuçlarının doğru olarak doğrulanabilmesini sağlar.
ZKML'nin temel amacı, gizlilik koruması ve veri paylaşımını dengelemektir. Sağlık veri analizi, finansal veri analizi ve kuruluşlar arası işbirliği gibi çeşitli senaryolarda uygulanabilir. Bireyler, ZKML'yi kullanarak, veri gizliliği ihlali riski olmadan daha geniş içgörüler ve işbirliği fırsatları elde etmek için verileri başkalarıyla paylaşırken hassas verilerinin gizliliğini koruyabilir. Bu alan hala erken aşamalarındadır ve çoğu proje hala araştırılmaktadır. Örneğin BasedAI, veri gizliliğini korumak için Tam Homomorfik Şifreleme'yi (FHE) Büyük Dil Modelleri (LLM'ler) ile sorunsuz bir şekilde entegre ederek merkezi olmayan bir yaklaşım önerir. Sıfır Bilgi Büyük Dil Modelleri (ZK-LLM'ler), gizliliği dağıtılmış ağ altyapılarına yerleştirerek kullanıcı verilerinin ağın çalışması boyunca gizli kalmasını sağlar.
İşte Tam Homomorfik Şifreleme (FHE) hakkında kısa bir açıklama. FHE, şifrelenmiş verilerin şifresini çözmeye gerek kalmadan hesaplamaların gerçekleştirilmesine izin veren şifreleme bir tekniktir. Bu, FHE ile şifrelenmiş veriler üzerinde gerçekleştirilen çeşitli matematiksel işlemlerin (toplama, çarpma vb.) orijinal şifrelenmemiş veriler üzerinde gerçekleştirilmiş gibi aynı sonuçları verdiği ve böylece kullanıcı veri gizliliğini koruduğu anlamına gelir.
Yukarıda belirtilen yöntemlere ek olarak Web3, yapay zeka programlarının on-chain yürütülmesini sağlayan Cortex gibi projeler aracılığıyla yapay zekayı da destekler. Sanal makineler, önemsiz olmayan makine öğrenimi modellerini çalıştırmada oldukça verimsiz olduğundan, makine öğrenimi programlarını geleneksel blok zincirlerinde çalıştırmak bir zorlukla karşı karşıyadır. Çoğu, yapay zekayı blok zincirinde çalıştırmanın imkansız olduğuna inanıyor. Bununla birlikte, Cortex Sanal Makine (CVM), on-chain AI programlarını yürütmek için GPU'ları kullanır ve Ethereum Sanal Makinesi (EVM) ile uyumludur. Başka bir deyişle, Cortex zinciri tüm Ethereum DApp'leri yürütebilir ve AI makine öğrenimini bu DApp'lere entegre edebilir. Bu, makine öğrenimi modellerinin merkezi olmayan, değişmez ve şeffaf bir şekilde çalışmasına olanak tanır ve ağ konsensüsü yapay zeka çıkarımının her adımını doğrular.
Yapay zeka ve Web3 arasındaki çarpışmada, Web3'ün yapay zekaya yardımına ek olarak, yapay zekanın Web3 endüstrisine yardımı da dikkate değer. Yapay zekanın temel katkısı üretkenliğin artırılmasıdır, bu nedenle yapay zeka denetim akıllı sözleşmeler, veri analizi ve tahmini, kişiselleştirilmiş hizmetler, güvenlik ve gizlilik koruması vb. alanlarda birçok girişim vardır.
3.2.1 Veri Analizi ve Tahmini
Birçok Web3 projesi, Web3 kullanıcıları için veri analizi ve tahmin hizmetleri sağlamak için mevcut yapay zeka hizmetlerini (ChatGPT gibi) entegre ediyor veya kendi hizmetlerini geliştiriyor. Bu hizmetler, yatırım stratejileri için yapay zeka algoritmaları, on-chain analiz araçları ve fiyat ve piyasa tahminleri dahil olmak üzere geniş bir yelpazeyi kapsar.
Örneğin Pond, gelecekteki değerli alfa tokenlerini tahmin etmek için AI grafik algoritmalarını kullanır ve kullanıcılara ve kurumlara yatırım danışmanlığı hizmetleri sunar. BullBear AI, fiyat trendi tahminlerini destekleyen doğru bilgiler sağlamak ve kullanıcıların kar elde etmesine yardımcı olmak için kullanıcı geçmiş verileri, fiyat geçmişi ve piyasa eğilimleri üzerinde eğitim verir.
Numerai gibi platformlar, katılımcıların borsaları tahmin etmek için yapay zeka ve büyük dil modellerini kullandığı yatırım yarışmalarına ev sahipliği yapıyor. Modelleri platform tarafından sağlanan yüksek kaliteli veriler üzerinde eğitirler ve günlük tahminler sunarlar. Numerai bu tahminleri bir sonraki ay boyunca değerlendirir ve katılımcılar performansa dayalı ödüller kazanmak için modellerinde token Stake NMR edebilirler.
Bir blockchain veri analiz platformu olan Arkham, yapay zekayı hizmetlerine de entegre ediyor. Arkham, blok zinciri adreslerini borsalar, fonlar ve balinalar gibi varlıklara bağlayarak kullanıcılara karar verme avantajı sağlamak için önemli verileri ve analizleri görüntüler. Arkham Ultra, Palantir ve OpenAI kurucularının destek ile üç yıl boyunca geliştirilen algoritmaları kullanarak adresleri gerçek dünyadaki varlıklarla eşleştirir.
3.2.2 Kişiselleştirilmiş Hizmetler
Arama ve önerideki yapay zeka uygulamaları, Web2 projelerinde yaygındır ve kullanıcıların kişiselleştirilmiş ihtiyaçlarına hizmet eder. Web3 projeleri, kullanıcı deneyimini geliştirmek için yapay zekayı benzer şekilde entegre eder.
Örneğin, tanınmış veri analiz platformu Dune, kısa süre önce SQL sorguları yazmak için büyük dil modellerini kullanan Wand aracını tanıttı. Wand Create ile kullanıcılar, doğal dil sorularından SQL sorguları oluşturabilir ve bu da SQL'e aşina olmayanların veri aramasını kolaylaştırır.
Followin gibi içerik platformları, belirli sektörlerdeki bakış açılarını ve güncellemeleri özetlemek için ChatGPT'yi entegre eder. Web3 ansiklopedisi IQ.wiki, blok zinciri teknolojisi ve kripto para birimi hakkında nesnel, yüksek kaliteli bilginin birincil kaynağı olmayı amaçlamaktadır. Wiki makalelerini özetlemek için GPT-4'ü entegre ederek blok zinciri bilgilerini dünya çapında daha erişilebilir hale getirir. LLM tabanlı arama motoru Kaito, Web3 bilgi alımında devrim yaratmayı hedefliyor.
Yaratıcı alanda, NFPrompt gibi projeler içerik oluşturma maliyetini düşürür. NFPrompt, kullanıcıların yapay zeka ile NFT'leri daha kolay oluşturmasına olanak tanıyarak çeşitli kişiselleştirilmiş yaratıcı hizmetler sunar.
3.2.3 Yapay Zeka Denetimi Akıllı Sözleşmeler
akıllı sözleşmeler denetlemek Web3'te çok önemli bir görevdir ve yapay zeka, kod güvenlik açıklarını belirlemede verimliliği ve doğruluğu artırabilir.
Vitalik Buterin, kripto para birimi alanındaki en büyük zorluklardan birinin kodumuzdaki hatalar olduğunu belirtti. AI, kod doğruluğunu kanıtlamak için resmi doğrulama araçlarının kullanımını önemli ölçüde basitleştirme vaadinde bulunuyor. Bunu başarmak, neredeyse hatasız bir SEK EVM (Ethereum Sanal Makinesi) yol açabilir ve daha az hata genel güvenliği artırdığı için alan güvenliğini artırabilir.
Örneğin, 0x0.ai projesi yapay zeka destekli bir akıllı sözleşme denetçisi sunuyor. Bu araç, akıllı sözleşmeler analiz etmek ve dolandırıcılığa veya diğer güvenlik risklerine yol açabilecek olası güvenlik açıklarını veya sorunları belirlemek için gelişmiş algoritmalar kullanır. Denetçiler, koddaki kalıpları ve anormallikleri tespit etmek için makine öğrenimini kullanır ve daha fazla inceleme için olası sorunları işaretler.
Yapay zekanın Web3'e yardımcı olduğu başka yerel durumlar da var. PAAL, kullanıcıların Web3 kullanıcılarına hizmet vermek için Telegram ve Discord'da konuşlandırılabilecek kişiselleştirilmiş yapay zeka botları oluşturmasına yardımcı olur. Yapay zeka güdümlü çok zincirli DEX toplayıcı Hera, çeşitli tokenlerdeki herhangi bir token çifti arasında en iyi ticaret yollarını sağlamak için yapay zekayı kullanır. Genel olarak, yapay zekanın Web3'e katkısı öncelikle araç düzeyindedir ve çeşitli süreçleri ve işlevleri geliştirir.
Şu anda, yapay zekaya yardımcı olan birçok Web3 projesi, merkezi olmayan bilgi işlem gücüne odaklanıyor. Küresel kullanıcıları bilgi işlem güç kaynağı tarafının bir parçası olmaya teşvik etmek için belirteç teşviklerini kullanmak çok ilginç bir yeniliktir. Ancak öte yandan, ele alınması gereken bazı gerçekçi konular var:
Merkezi bilgi işlem gücü hizmet sağlayıcılarıyla karşılaştırıldığında, merkezi olmayan bilgi işlem gücü ürünleri, bilgi işlem kaynakları sağlamak için genellikle küresel olarak dağıtılan düğümlere ve katılımcılara güvenir. Bu düğümler arasındaki ağ bağlantılarındaki olası gecikme süresi ve kararsızlık nedeniyle, performans ve kararlılık merkezi bilgi işlem gücü ürünlerinden daha kötü olabilir.
Ek olarak, merkezi olmayan bilgi işlem gücü ürünlerinin kullanılabilirliği, arz ve talep arasındaki eşleştirme derecesinden etkilenir. Yeterli tedarikçi yoksa veya talep çok yüksekse, kaynak sıkıntısına veya kullanıcı ihtiyaçlarının karşılanamamasına neden olabilir.
Son olarak, merkezi bilgi işlem gücü ürünleriyle karşılaştırıldığında, merkezi olmayan bilgi işlem gücü ürünleri genellikle daha fazla teknik ayrıntı ve karmaşıklık içerir. Kullanıcıların dağıtılmış ağların, akıllı sözleşmeler ve kripto para birimi ödemelerinin özelliklerini anlaması ve ele alması gerekebilir, bu da kullanıcı anlama ve kullanım maliyetini artırır.
Çok sayıda merkezi olmayan bilgi işlem gücü proje ekibiyle yapılan derinlemesine görüşmelerden sonra, mevcut merkezi olmayan bilgi işlem gücünün hala yapay zeka eğitiminden ziyade çoğunlukla yapay zeka çıkarımı ile sınırlı olduğu bulundu.
Ardından, herkesin bunun arkasındaki nedenleri anlamasına yardımcı olmak için dört soru kullanacağım:
Merkezi olmayan bilgi işlem gücü projelerinin çoğu neden yapay zeka eğitimi yerine yapay zeka çıkarımı yapmayı tercih ediyor?
NVIDIA'yı bu kadar güçlü yapan nedir? Merkezi olmayan bilgi işlem gücü eğitiminin zor olmasının nedenleri nelerdir?
Merkezi olmayan bilgi işlem gücü (Render, Akash, io.net, vb.) için oyunun sonu ne olacak?
Merkeziyetsiz algoritmalar (Bittensor) için oyunun sonu ne olacak?
Ayrıntıları adım adım inceleyelim:
1) Bu alanı gözlemleyerek, çoğu merkezi olmayan bilgi işlem gücü projesi, öncelikle bilgi işlem gücü ve bant genişliği için farklı gereksinimler nedeniyle, eğitim yerine yapay zeka çıkarımına odaklanmayı tercih ediyor.
Herkesin daha iyi anlamasına yardımcı olmak için yapay zekayı bir öğrenciyle karşılaştıralım:
Yapay Zeka Eğitimi: Yapay zekayı bir öğrenciyle karşılaştırırsak, eğitim, yapay zekaya genellikle veri olarak adlandırdığımız şeye benzer şekilde büyük miktarda bilgi ve örnek sağlamaya benzer. Yapay zeka bu örneklerden öğrenir. Öğrenme, büyük miktarda bilgiyi anlamayı ve ezberlemeyi içerdiğinden, bu süreç önemli miktarda bilgi işlem gücü ve zaman gerektirir.
Yapay Zeka Çıkarımı: Çıkarım, edinilen bilgilerin problem çözmek veya sınavlara girmek için kullanılması olarak anlaşılabilir. Çıkarım sırasında yapay zeka, öğrenilen bilgiyi yeni bilgiler edinmek yerine soruları yanıtlamak için kullanır, bu nedenle hesaplama gereksinimleri nispeten daha düşüktür.
Zorluktaki temel farkın, büyük model yapay zeka eğitiminin muazzam veri hacimleri ve veri iletimi için son derece yüksek bant genişliği gerektirmesi gerçeğinde yattığını görmek kolaydır, bu da merkezi olmayan bilgi işlem gücüyle elde etmeyi çok zorlaştırır. Buna karşılık, çıkarım çok daha az veri ve bant genişliği gerektirir ve bu da onu daha uygulanabilir hale getirir.
Büyük modeller için stabilite çok önemlidir. Eğitim kesintiye uğrarsa, yeniden başlatılması gerekir ve bu da yüksek batık maliyetlere neden olur. Öte yandan, yapay zeka çıkarımı veya orta ila küçük model eğitimini içeren belirli özel senaryolar gibi nispeten daha düşük bilgi işlem gücü gereksinimlerine sahip talepler karşılanabilir. Merkezi olmayan bilgi işlem gücü ağlarında, bazı nispeten büyük düğüm hizmet sağlayıcıları, bu nispeten daha yüksek bilgi işlem gücü taleplerini karşılayabilir.
2) Peki, veri ve bant genişliğindeki darboğazlar nerede? Merkezi olmayan eğitimi başarmak neden zor?
Bu, büyük model eğitiminin iki temel unsurunu içerir: tek kartlı bilgi işlem gücü ve çoklu kart paralelliği.
Tek kartlı bilgi işlem gücü: Şu anda, süper bilgi işlem merkezleri olarak adlandırılan büyük model eğitimi gerektiren tüm merkezler, temel birim olan GPU'nun bir hücre gibi olduğu insan vücuduna benzetilebilir. Tek bir hücrenin (GPU) bilgi işlem gücü güçlüyse, genel bilgi işlem gücü (tek hücre × miktarı) da çok güçlü olabilir.
Çoklu kart paralelliği: Büyük bir modeli eğitmek genellikle yüz milyarlarca gigabayt içerir. Büyük modelleri eğiten süper bilgi işlem merkezleri için en az on binlerce A100 GPU gereklidir. Bu, eğitim için binlerce kartı seferber etmeyi gerektirir. Ancak, büyük bir modeli eğitmek basit bir seri işlem değildir; sadece ilk A100 kartında antrenman yapıp sonra ikinciye geçmez. Bunun yerine, modelin farklı bölümleri aynı anda farklı GPU'lar üzerinde eğitilir ve eğitim bölümü A, paralel işlemeyi içeren B bölümünden sonuçlar gerektirebilir.
NVIDIA'nın hakimiyeti ve yükselen piyasa değeri, AMD ve Huawei ve Horizon gibi yerli şirketler yetişmekte zorlanırken, iki açıdan kaynaklanıyor: CUDA yazılım ortamı ve NVLink çoklu kart iletişimi.
CUDA Yazılım Ortamı: NVIDIA'nın CUDA sistemi gibi donanıma uygun bir yazılım ekosisteminin olup olmadığı çok önemlidir. Yeni bir sistem oluşturmak, yüksek yenileme maliyetleriyle yeni bir dil oluşturmaya benzer şekilde zordur.
NVLink Çoklu Kart İletişimi: Esasen, çoklu kart iletişimi, bilgi giriş ve çıkışını içerir. Nasıl paralelleştirileceği ve iletileceği çok önemlidir. NVLink'in varlığı, NVIDIA ve AMD kartlarının iletişim kuramayacağı anlamına gelir; ek olarak, NVLink, GPU'lar arasındaki fiziksel mesafeyi sınırlayarak aynı süper bilgi işlem merkezinde olmalarını gerektirir. Bu, dünyanın dört bir yanına yayılmış merkezi olmayan bilgi işlem gücünün büyük model eğitimi için uyumlu bir bilgi işlem kümesi oluşturmasını zorlaştırır.
İlk nokta, AMD'nin ve Huawei ve Horizon gibi yerli şirketlerin neden yetişmekte zorlandığını açıklıyor; ikinci nokta, merkezi olmayan eğitimin neden zor olduğunu açıklıyor.
3) Merkezi olmayan bilgi işlem gücü için oyunun sonu ne olacak? Merkezi olmayan bilgi işlem gücü şu anda büyük model eğitiminde zorlanıyor çünkü kararlılık çok önemli. Kesintiler yeniden eğitim gerektirir ve bu da yüksek batık maliyetlere neden olur. Çoklu kart paralelliği için yüksek gereksinimler, fiziksel bant genişliği kısıtlamalarıyla sınırlıdır. NVIDIA'nın NVLink'i çoklu kart iletişimi sağlar, ancak bir süper bilgi işlem merkezinde NVLink, GPU'lar arasındaki fiziksel mesafeyi sınırlar. Bu nedenle, dağınık bilgi işlem gücü, büyük model eğitimi için bir bilgi işlem kümesi oluşturamaz.
Bununla birlikte, yapay zeka çıkarımı veya orta ila küçük model eğitimini içeren belirli senaryolar gibi nispeten daha düşük bilgi işlem gücü gereksinimlerine sahip talepler için, bazı nispeten büyük düğüm hizmet sağlayıcılarına sahip merkezi olmayan bilgi işlem güç ağları potansiyele sahiptir. Ek olarak, işleme için uç bilgi işlem gibi senaryoların uygulanması nispeten daha kolaydır.
4) Merkezi olmayan algoritma modelleri için oyunun sonu ne olacak? Merkezi olmayan algoritma modellerinin geleceği, yapay zekanın nihai yönüne bağlıdır. Yapay zekanın geleceğinin, çok sayıda modelin yanı sıra 1-2 kapalı kaynaklı model devine (ChatGPT gibi) sahip olabileceğine inanıyorum. Bu bağlamda, uygulama katmanı ürünlerinin tek bir büyük modele bağlanması gerekmez, bunun yerine birden fazla büyük modelle işbirliği yapması gerekir. Bu senaryoda, Bittensor modeli önemli bir potansiyel göstermektedir.
Web3 ve yapay zekayı birleştiren mevcut projelerde, özellikle yapay zekanın Web3 girişimlerine yardımcı olduğu projelerde, çoğu proje, yapay zeka ve kripto para birimleri arasında derin bir entegrasyon göstermeden yapay zekayı yalnızca yüzeysel olarak kullanır. Bu yüzeysel uygulama aşağıdaki iki açıdan belirgindir:
Mevcut Web3 ve yapay zeka projeleri bu sınırlamalara sahip olsa da, bunun geliştirmenin yalnızca erken aşaması olduğunu kabul etmeliyiz. Gelecekte, yapay zeka ve kripto para birimleri arasında daha sıkı bir entegrasyon sağlamak, finans, merkezi olmayan özerk kuruluşlar (DAO'lar), tahmin piyasaları ve NFT'ler gibi alanlarda daha yerel ve anlamlı çözümler oluşturmak için daha derinlemesine araştırma ve yenilik bekleyebiliriz.
Başlangıçta belirtildiği gibi, yapay zeka projeleri, özellikle giderek daha fazla büyük model yavaş yavaş açık kaynak haline geldiğinden, iş modellerinde zorluklarla karşı karşıyadır. Web2 alanında gelişmek ve fonlama güvence altına almak için mücadele eden çoğu yapay zeka + Web3 projesi, genellikle Web2 alanındaki anlatıları ve token ekonomisini üst üste bindirmeyi tercih eder.
Bununla birlikte, kritik soru, token ekonomisinin entegrasyonunun yapay zeka projelerinin gerçek dünya ihtiyaçlarını karşılamasına gerçekten yardımcı olup olmadığı veya sadece bir anlatı veya short vadeli değer önerisi olarak hizmet edip etmediğidir. Şu anda, çoğu AI + Web3 projesi pratik bir aşamaya ulaşmaktan uzaktır. Daha ayakları yere basan ve düşünceli ekiplerin, tokenleri yalnızca yapay zeka projelerini heyecanlandırmak için bir araç olarak kullanmakla kalmayıp, aynı zamanda pratik kullanım durumlarını da gerçekten yerine getireceği umulmaktadır.
Şu anda AI + Web3 projelerinde çok sayıda vaka ve uygulama ortaya çıktı. İlk olarak, AI teknolojisi Web3 için daha verimli ve akıllı kullanım durumları sağlayabilir. Yapay zekanın veri analizi ve tahminindeki yetenekleri sayesinde Web3'teki kullanıcılar, yatırım kararları ve diğer senaryolar için daha iyi araçlara sahip olabilir. Ek olarak, yapay zeka akıllı sözleşme kodunu denetleyebilir, sözleşmenin yürütülmesini optimize edebilir ve blok zincirinin performansını ve verimliliğini artırabilir. Ayrıca, AI teknolojisi, merkezi olmayan uygulamalar için daha kesin ve akıllı öneriler ve kişiselleştirilmiş hizmetler sunabilir ve böylece kullanıcı deneyimini iyileştirebilir.
Aynı zamanda, Web3'ün merkezi olmayan ve programlanabilir doğası, yapay zeka teknolojisi için yeni fırsatlar da sunuyor. Token teşvikleri aracılığıyla, merkezi olmayan bilgi işlem gücü projeleri, yetersiz AI bilgi işlem gücü ikilemine yeni çözümler sunar. Web3'ün akıllı sözleşmeler ve dağıtılmış depolama mekanizmaları, yapay zeka algoritması paylaşımı ve eğitimi için daha geniş bir alan ve kaynaklar da sunar. Web3'ün kullanıcı özerkliği ve güven mekanizmaları, yapay zeka geliştirme için yeni olanaklar getirerek, kullanıcıların veri paylaşımına ve eğitimine katılmayı özerk bir şekilde seçmelerine olanak tanır, böylece verilerin çeşitliliğini ve kalitesini artırır ve yapay zeka modellerinin performansını ve doğruluğunu daha da artırır.
Mevcut AI + Web3 çapraz projeleri hala erken aşamalarında olmasına ve birçok zorlukla karşı karşıya olmasına rağmen, birçok avantajı da beraberinde getiriyor. Örneğin, merkezi olmayan bilgi işlem gücü ürünlerinin bazı dezavantajları vardır, ancak merkezi kurumlara olan bağımlılığı azaltır, daha fazla şeffaflık ve denetlenebilirlik sağlar ve daha geniş katılım ve yenilik sağlar. Belirli kullanım durumları ve kullanıcı ihtiyaçları için, merkezi olmayan bilgi işlem gücü ürünleri değerli bir seçim olabilir. Aynısı veri toplama için de geçerlidir; Merkezi olmayan veri toplama projeleri, tek veri kaynaklarına olan bağımlılığı azaltmak, daha geniş veri kapsamı sağlamak ve veri çeşitliliğini ve kapsayıcılığı teşvik etmek gibi avantajlar sunar. Uygulamada, bu avantaj ve dezavantajları dengelemek ve zorlukların üstesinden gelmek için uygun yönetim ve teknik önlemleri almak, merkezi olmayan veri toplama projelerinin yapay zeka gelişimi üzerinde olumlu bir etkiye sahip olmasını sağlamak gerekir.
Genel olarak, AI + Web3 entegrasyonu, gelecekteki teknolojik yenilikler ve ekonomik kalkınma için sonsuz olanaklar sunar. Yapay zekanın akıllı analiz ve karar verme yeteneklerini Web3'ün merkezi olmayan ve kullanıcı özerk doğasıyla birleştirerek daha akıllı, daha açık ve daha adil bir ekonomik ve hatta sosyal sistem inşa edebileceğimize inanılıyor.
Son yıllarda, Yapay Zeka (AI) ve Web3 teknolojilerinin hızlı gelişimi, küresel çapta geniş bir ilgi gördü. İnsan zekasını simüle eden ve taklit eden bir teknoloji olan yapay zeka, yüz tanıma, doğal dil işleme ve makine öğrenimi gibi alanlarda önemli atılımlar gerçekleştirdi. Yapay zeka teknolojisinin hızla ilerlemesi, çeşitli endüstrilerde muazzam bir dönüşüm ve yenilik getirdi.
Yapay zeka endüstrisi, 2023'te 200 milyar dolarlık bir pazar büyüklüğüne ulaştı ve sektör devleri ve OpenAI, Character.AI ve Midjourney gibi önde gelen oyuncular hızla ortaya çıktı ve yapay zeka patlamasını lider.
Aynı zamanda, gelişmekte olan bir internet modeli olan Web3, internet algımızı ve kullanımımızı yavaş yavaş değiştiriyor. Merkezi olmayan blok zinciri teknolojisine dayanan Web3, akıllı sözleşmeler, dağıtılmış depolama ve merkezi olmayan kimlik doğrulama gibi özellikler aracılığıyla veri paylaşımı ve kontrolü, kullanıcı özerkliği ve güven mekanizmalarının kurulmasını gerçekleştirir. Web3'ün temel fikri, verileri merkezi otoritelerden kurtarmak, kullanıcılara verileri üzerinde kontrol ve verilerinin değerini paylaşma yeteneği vermektir.
Şu anda Web3 endüstrisinin piyasa değeri 25 trilyon dolara ulaştı. Bitcoin, Ethereum ve Solana'den Uniswap ve Stepn gibi uygulama düzeyindeki oyunculara kadar, sürekli olarak yeni anlatılar ve senaryolar ortaya çıkıyor ve giderek daha fazla insanı Web3 endüstrisine katılmaya çekiyor.
Yapay zeka ve Web3'ün entegrasyonunun hem Doğu'dan hem de Batı'dan inşaatçılar ve risk sermayedarları için bir odak noktası olduğu açıktır. Bu iki teknolojinin etkili bir şekilde nasıl birleştirileceğini keşfetmek son derece değerli bir çabadır.
Bu makale, AI+Web3 geliştirmenin mevcut durumuna odaklanacak ve entegrasyonlarının potansiyel değerini ve etkisini keşfedecektir. Önce AI ve Web3'ün temel kavramlarını ve özelliklerini tanıtacağız, ardından aralarındaki ilişkiyi tartışacağız. Bunu takiben, AI+Web3 projelerinin mevcut durumunu analiz edeceğiz ve karşılaştıkları sınırlamaları ve zorlukları inceleyeceğiz. Bu araştırma ile yatırımcılar ve sektör profesyonelleri için değerli referanslar ve içgörüler sağlamayı amaçlıyoruz.
Yapay zeka ve Web3'ün gelişimi bir ölçeğin iki yüzü olarak görülebilir: Yapay zeka üretkenlik iyileştirmeleri sağlarken, Web3 üretim ilişkilerinde devrim yaratıyor. Peki, yapay zeka ve Web3 çarpıştığında ne tür kıvılcımlar yaratabilir? Önce yapay zeka ve Web3 endüstrilerindeki zorlukları ve potansiyel iyileştirmeleri analiz edeceğiz ve ardından bunların birbirlerinin sorunlarını çözmeye nasıl yardımcı olabileceklerini keşfedeceğiz.
Yapay zeka endüstrisinin karşılaştığı zorlukları keşfetmek için önce özünü anlamalıyız. Yapay zeka endüstrisinin özü üç temel unsur etrafında döner: hesaplama gücü, algoritmalar ve veriler.
Mevcut yapay zekanın üç temel unsurunu anladıktan sonra, yapay zekanın bu alanlarda karşılaştığı zorlukları ve zorlukları inceleyelim.
İlk olarak, hesaplama gücü açısından, yapay zeka görevleri, özellikle derin öğrenme modelleri için, model eğitimi ve çıkarımı için genellikle büyük miktarda hesaplama kaynağı gerektirir. Bununla birlikte, büyük ölçekli hesaplama gücünü elde etmek ve yönetmek pahalı ve karmaşık bir zorluktur. Yüksek performanslı bilgi işlem ekipmanının maliyeti, enerji tüketimi ve bakımı önemli konulardır. Bu, yeterli hesaplama gücü elde etmenin zor olabileceği yeni başlayanlar ve bireysel geliştiriciler için özellikle zorlayıcıdır.
Algoritmalar açısından, derin öğrenme algoritmalarının birçok alandaki önemli başarılarına rağmen, hala zorluklar ve zorluklar var. Örneğin, derin sinir ağlarını eğitmek büyük miktarda veri ve hesaplama kaynağı gerektirir. Ek olarak, belirli görevler için modellerin yorumlanabilirliği ve açıklanabilirliği yetersiz olabilir. Görünmeyen veriler üzerindeki model performansı kararsız olabileceğinden, algoritmaların sağlamlığı ve genelleme yetenekleri de çok önemli konulardır. Birçok algoritma arasında en iyi performansı sağlamak için en iyi algoritmayı bulmak devam eden bir araştırmadır.
Veri açısından, veriler yapay zekanın arkasındaki itici güçtür, ancak yüksek kaliteli, çeşitli veriler elde etmek bir zorluk olmaya devam etmektedir. Tıp sektöründeki hassas sağlık verileri gibi bazı alanlardaki verilerin elde edilmesi zor olabilir. Ayrıca, eksik veya önyargılı veriler hatalı model davranışına veya önyargılara yol açabileceğinden, verilerin kalitesi, doğruluğu ve etiketlenmesi kritik konulardır. Veri gizliliğinin ve güvenliğinin korunması da önemli bir husustur.
Ayrıca, yorumlanabilirlik ve şeffaflıkla ilgili sorunlar var. Yapay zeka modellerinin "kara kutu" doğası kamuoyunu ilgilendiriyor. Finans, sağlık ve adalet gibi belirli uygulamalarda, modellerin karar verme sürecinin yorumlanabilir ve izlenebilir olması gerekir. Ancak, mevcut derin öğrenme modelleri genellikle şeffaflıktan yoksundur. Modellerin karar verme sürecini açıklamak ve güvenilir açıklamalar sağlamak zor olmaya devam etmektedir.
Ek olarak, birçok yapay zeka başlangıç projesinin iş modelleri çok net değil ve bu da birçok yapay zeka girişimcisi için kafa karışıklığına neden oluyor.
Web3 endüstrisinde, veri analizi ve kullanıcı deneyiminden akıllı sözleşme güvenlik açıklarına ve bilgisayar korsanı saldırılarına kadar ele alınması gereken çok sayıda zorluk vardır. Üretkenliği artıran bir araç olarak yapay zeka, bu alanlarda önemli bir potansiyele sahiptir.
İlk olarak, veri analizi ve tahmine dayalı yeteneklerde iyileştirme için yer var. Veri analizi ve tahminindeki yapay zeka uygulamalarının Web3 endüstrisi üzerinde önemli bir etkisi olmuştur. Web3 platformları, yapay zeka algoritmaları tarafından akıllı analiz ve madencilik yoluyla büyük miktarda veriden değerli bilgiler çıkarabilir ve daha doğru tahminler ve kararlar alabilir. Bu, özellikle merkezi olmayan finansta (DeFi) risk değerlendirmesi, piyasa tahmini ve varlık yönetimi için önemlidir.
Ek olarak, kullanıcı deneyimini ve kişiselleştirme hizmetlerini geliştirme potansiyeli vardır. Yapay zeka uygulamaları, Web3 platformlarının daha iyi kullanıcı deneyimleri ve kişiselleştirilmiş hizmetler sunmasını sağlar. Web3 platformları, kullanıcı verilerini analiz ederek ve modelleyerek kişiselleştirilmiş öneriler, özelleştirilmiş hizmetler ve akıllı etkileşim deneyimleri sağlayabilir. Bu, Web3 ekosisteminin gelişimini teşvik ederek kullanıcı katılımını ve memnuniyetini artırmaya yardımcı olur. Örneğin, birçok Web3 protokolü, kullanıcılara daha iyi hizmet vermek için ChatGPT gibi yapay zeka araçlarını entegre eder.
Güvenlik ve gizliliğin korunması açısından, yapay zeka uygulamalarının Web3 endüstrisi üzerinde de derin bir etkisi vardır. AI teknolojisi, ağ saldırılarını tespit etmek ve bunlara karşı savunma yapmak, anormal davranışları belirlemek ve daha güçlü güvenlik önlemleri sağlamak için kullanılabilir. Ek olarak, yapay zeka, veri şifreleme ve gizlilik hesaplama gibi teknikler aracılığıyla Web3 platformlarında kullanıcıların kişisel bilgilerini koruyarak veri gizliliği korumasına uygulanabilir. Akıllı sözleşme denetimi ile ilgili olarak, akıllı sözleşmeler yazma ve denetleme süreçlerinde güvenlik açıkları ve güvenlik riskleri olabileceğinden, yapay zeka teknolojisi, otomatik sözleşme denetimi ve güvenlik açığı tespiti için kullanılabilir, bu da sözleşmelerin güvenliğini ve güvenilirliğini artırır.
Yapay zekanın, Web3 endüstrisindeki zorlukların ve potansiyel iyileştirmelerin çeşitli yönlerden ele alınmasına önemli ölçüde katkıda bulunabileceği açıktır.
Yapay zeka ve Web3 projelerini birleştirmek öncelikle iki ana yöne odaklanır: yapay zeka projelerini geliştirmek için blok zinciri teknolojisinden yararlanmak ve Web3 projelerinin iyileştirilmesine hizmet etmek için yapay zeka teknolojisini kullanmak. Bu yol boyunca Io.net, Gensyn, Ritual ve diğerleri dahil olmak üzere çok sayıda proje ortaya çıktı. Aşağıdaki analiz, yapay zekanın Web3'e yardımcı olduğu ve Web3'ün yapay zekayı geliştirdiği farklı alt alanları inceleyecektir.
3.1.1'in Merkezi Olmayan Bilgi İşlem Gücü Yardımcı Oluyor
ChatGPT'nin 2022'nin sonunda OpenAI tarafından piyasaya sürülmesinden bu yana, yapay zeka alanında bir çılgınlığı ateşledi. Piyasaya sürülmesinden sonraki beş gün içinde, kullanıcı tabanı bir milyona ulaştı ve aynı dönüm noktasına ulaşması yaklaşık iki buçuk ay süren Instagram'ın indirme oranını aştı. Daha sonra ChatGPT, aylık aktif kullanıcı sayısının iki ay içinde 100 milyona ve haftalık aktif kullanıcı sayısının Kasım 2023'e kadar 100 milyona ulaşmasıyla hızlı bir büyüme yaşadı. ChatGPT'nin ortaya çıkmasıyla birlikte, yapay zeka sektörü hızla niş bir alandan oldukça saygın bir sektöre geçiş yaptı.
Trendforce'un raporuna göre, ChatGPT'nin çalışması için 30.000 NVIDIA A100 GPU gerekiyor ve GPT-5 gibi gelecekteki modeller daha da fazla hesaplama gücü gerektirecek. Bu, çeşitli yapay zeka şirketleri arasında bir silahlanma yarışına yol açtı, çünkü yeterli hesaplama gücüne sahip olmak, GPU eksikliğine lider yapay zeka arenasında rekabet avantajını korumak için çok önemlidir.
Yapay zekanın yükseliş önce, büyük GPU sağlayıcısı NVIDIA, öncelikle üç büyük bulut hizmetinden müşterilere hizmet veriyordu: AWS, Azure ve GCP. Yapay zekanın yükseliş ile Meta, Oracle gibi büyük teknoloji şirketlerinin yanı sıra diğer veri platformları ve yapay zeka girişimleri de dahil olmak üzere çok sayıda yeni alıcı ortaya çıktı ve hepsi yapay zeka modellerini eğitmek için GPU'ları stoklama yarışına katıldı. Meta ve Tesla gibi büyük teknoloji şirketleri, özelleştirilmiş yapay zeka modelleri ve dahili araştırma alımlarını önemli ölçüde artırdı. Anthropic gibi temel model şirketleri ve Snowflake ve Databricks gibi veri platformları da müşterilerine yapay zeka hizmetleri sağlamada yardımcı olmak için daha fazla GPU satın aldı.
Geçen yıl Semi Analysis tarafından belirtildiği gibi, "GPU zengini" ve "GPU fakiri" şirketler arasında bir ayrım var, sadece birkaçı 20.000'den fazla A100 / H100 GPU'ya sahip ve ekip üyelerinin projeler için 100 ila 1000 GPU kullanmasına izin veriyor. Bu şirketler ya bulut sağlayıcılarıdır ya da OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral ve diğerleri dahil olmak üzere kendi büyük dil modellerini (LLM'ler) oluşturmuşlardır.
Bununla birlikte, şirketlerin çoğu, önemli ölçüde daha az GPU ile mücadele ederek ve ekosistemi ilerletmesi daha zor olan görevlere önemli miktarda zaman ve çaba harcayarak "GPU fakiri" kategorisine düşüş. Üstelik bu durum sadece startup'larla sınırlı değil. Hugging Face, Databricks (MosaicML), Together ve hatta Snowflake gibi en tanınmış yapay zeka şirketlerinden bazıları, 20.000'den az A100/H100 miktarlarına sahiptir. Birinci sınıf teknik yeteneğe sahip olmalarına rağmen, bu şirketler sınırlı GPU arzı tarafından kısıtlanıyor ve bu da onları AI rekabetindeki daha büyük şirketlere kıyasla dezavantajlı hale getiriyor.
Bu eksiklik "GPU zayıf" kategorisiyle sınırlı değil; 2023'ün sonunda bile, lider AI oyuncusu OpenAI, yeterli GPU elde edememesi nedeniyle ücretli kayıtları geçici olarak kapatmak zorunda kaldı ve daha fazla GPU kaynağı tedarik etmek zorunda kaldı.
Yapay zekanın hızlı gelişiminin, GPU'ların talebi ve arzı arasında ciddi bir uyumsuzluğa yol açtığı ve yakın bir arz sıkıntısı yarattığı açıktır.
Bu sorunu çözmek için bazı Web3 projeleri, Web3 teknolojisinin benzersiz özelliklerinden yararlanarak merkezi olmayan bilgi işlem gücü çözümlerini keşfetmeye başladı. Bu projeler arasında Akash, Render, Gensyn ve diğerleri yer alıyor. Bu projeler arasındaki ortak özellik, kullanıcıları boşta GPU bilgi işlem gücü sağlamaya teşvik etmek için belirteçlerin kullanılması ve böylece destek AI istemcilerine bilgi işlem gücünün arz tarafı haline gelmesidir.
Arz tarafı profili temel olarak üç yönden oluşur: bulut hizmeti sağlayıcıları, kripto para madencileri ve işletmeler. Bulut hizmeti sağlayıcıları, kullanıcıların gelir elde etmek için bu sağlayıcılardan boşta kalan bilgi işlem gücünü yeniden satabilecekleri büyük bulut hizmeti sağlayıcılarını (AWS, Azure, GCP gibi) ve GPU bulut hizmeti sağlayıcılarını (Coreweave, Lambda, Crusoe gibi) içerir. Ethereum PoW'den PoS'ye geçişiyle birlikte, boşta GPU bilgi işlem gücü, kripto para madencileri için önemli bir potansiyel arz tarafı haline geldi. Ek olarak, stratejik amaçlarla büyük miktarlarda GPU satın alan Tesla ve Meta gibi büyük işletmeler de arz tarafının bir parçası olarak atıl GPU bilgi işlem güçlerine katkıda bulunabilirler.
Şu anda, bu alandaki oyuncular genellikle iki kategoriye ayrılabilir: yapay zeka çıkarımı için merkezi olmayan bilgi işlem gücünü kullananlar ve bunu yapay zeka eğitimi için kullananlar. İlk kategori Render (işlemeye odaklanmış olsa da, AI hesaplama için de kullanılabilir), Akash, Aethir gibi projeleri içerirken, ikinci kategori io.net (hem çıkarımı hem de eğitimi destekleyen) ve Gensyn gibi projeleri içerir. İkisi arasındaki temel fark, bilgi işlem gücü için farklı gereksinimlerde yatmaktadır.
Önce yapay zeka çıkarımına odaklanan projeleri tartışalım. Bu projeler, kullanıcıları belirteç teşvikleri yoluyla bilgi işlem gücü sağlamaya çeker ve ardından talep tarafına bilgi işlem güç ağı hizmetleri sağlar, böylece boşta bilgi işlem güç arzı ve talebinin eşleştirme kolaylaştırır. Bu tür projelerle ilgili ayrıntılar, Ryze Labs'ımızdan DePIN tarafından hazırlanan bir araştırma raporunda ele alınmıştır, bunları okumaktan çekinmeyin.
Temel nokta, projenin önce tedarikçileri ve ardından kullanıcıları çektiği, böylece projenin soğuk başlatma ve çekirdek çalışma mekanizmasını elde ederek daha fazla genişleme ve geliştirme sağladığı belirteç teşvik mekanizmasında yatmaktadır. Bu döngüde, arz tarafı daha değerli token ödülleri alırken, talep tarafı daha uygun maliyetli hizmetlerden yararlanır. Projenin tokenlerinin değeri ve hem arz hem de talep katılımcılarının büyümesi tutarlı olmaya devam ediyor. Token fiyatı yükseldikçe, daha fazla katılımcı ve spekülatör çekilir ve bu da bir değer yakalama döngüsü yaratır.
Başka bir kategori, Gensyn ve io.net (hem yapay zeka eğitimini hem de çıkarımı destek) gibi yapay zeka eğitimi için merkezi olmayan bilgi işlem gücünün kullanılmasını içerir. Aslında, bu projelerin operasyonel mantığı, AI çıkarım projelerinden temelde farklı değildir. Daha sonra talep tarafı tarafından kullanılan bilgi işlem gücü sağlamak için arz tarafından katılımı çekmek için hala token teşviklerine güveniyorlar.
Merkezi olmayan bir bilgi işlem gücü ağı olan io.net, şu anda 500.000'den fazla GPU'ya sahiptir ve bu da onu merkezi olmayan bilgi işlem gücü projelerinde göze çarpan bir performans haline getirmektedir. Ek olarak, ekosisteminin sürekli gelişimini gösteren Render ve Filecoin'den entegre bilgi işlem gücüne sahiptir.
Ayrıca Gensyn, yapay zeka eğitimini etkinleştirmek için akıllı sözleşmeler aracılığıyla makine öğrenimi görev tahsisini ve ödüllerini kolaylaştırır. Aşağıdaki şemada gösterildiği gibi, Gensyn'de makine öğrenimi eğitim çalışmasının saatlik maliyeti yaklaşık 0,4 USD'dir ve bu, AWS ve GCP'deki 2 USD'nin üzerindeki maliyetten önemli ölçüde daha düşüktür.
Gensyn ekosistemi dört katılımcı kuruluştan oluşur:
Gördüğümüz gibi Gensyn, küresel derin öğrenme modelleri için büyük ölçüde ölçeklenebilir ve uygun maliyetli bir bilgi işlem protokol olmayı hedefliyor. Bununla birlikte, bu alana bakıldığında, çoğu proje neden eğitim yerine yapay zeka çıkarımı için merkezi olmayan bilgi işlem gücünü seçiyor?
Yapay zeka eğitimine ve çıkarımına aşina olmayan arkadaşların ikisi arasındaki farkı anlamalarına da yardımcı olalım:
Hem yapay zeka çıkarımı hem de yapay zeka eğitimi için hesaplama gücü gereksinimlerinin önemli ölçüde farklılık gösterdiği görülebilir. Yapay zeka çıkarımı ve yapay zeka eğitimi için merkezi olmayan bilgi işlem gücünün kullanılabilirliği, yaklaşan zorluk bölümünde daha ayrıntılı olarak analiz edilecektir.
Ayrıca Ritual, ademi merkeziyetçiliği ve güvenliği korumak için dağıtılmış ağları model oluşturucularla birleştirmeyi amaçlamaktadır. İlk ürünü olan Infernet, blok zincirindeki akıllı sözleşmeler off-chain yapay zeka modellerine erişmesini sağlayarak, bu tür sözleşmelerin doğrulama, ademi merkeziyetçilik ve gizlilik korumasını sürdürecek şekilde yapay zekaya erişmesine olanak tanır.
Infernet'in koordinatörü, ağdaki düğümlerin davranışını yönetmekten ve tüketicilerden gelen hesaplama taleplerine yanıt vermekten sorumludur. Kullanıcılar Infernet'i kullandığında, çıkarım ve ispat gibi görevler off-chain gerçekleştirilir, çıktı koordinatöre geri gönderilir ve nihayetinde akıllı sözleşmeler yoluyla on-chain tüketicilere iletilir.
Merkezi olmayan bilgi işlem güç ağlarına ek olarak, veri iletiminin hızını ve verimliliğini artırmayı amaçlayan Grass gibi merkezi olmayan bant genişliği ağları da vardır. Genel olarak, merkezi olmayan bilgi işlem güç ağlarının ortaya çıkışı, yapay zeka bilgi işlem gücünün arz tarafı için yeni bir olasılık sağlayarak yapay zekayı yeni yönlere doğru ilerletiyor.
3.1.2 Merkezi olmayan algoritma modeli
İkinci bölümde bahsedildiği gibi, yapay zekanın üç temel unsuru hesaplama gücü, algoritmalar ve verilerdir. Hesaplama gücü, ademi merkeziyetçilik yoluyla bir tedarik ağı oluşturabildiğine göre, algoritmalar da benzer bir yaklaşım izleyebilir ve algoritma modelleri için bir tedarik ağı oluşturabilir mi?
Bu alandaki projeleri analiz etmeden önce, merkeziyetsiz algoritma modellerinin önemini anlayalım. Birçok kişi, zaten OpenAI'ye sahip olduğumuza göre, neden merkezi olmayan bir algoritma ağına ihtiyacımız olduğunu merak edebilir.
Esasen, merkezi olmayan bir algoritma ağı, birçok farklı AI modelini birbirine bağlayan merkezi olmayan bir AI algoritma hizmeti pazarıdır. Her yapay zeka modelinin kendi uzmanlığı ve becerileri vardır. Kullanıcılar soru sorduğunda, pazar yeri soruyu yanıtlamak için en uygun yapay zeka modelini seçer. OpenAI tarafından geliştirilen Chat-GPT, insanlara benzer metinleri anlayabilen ve üretebilen böyle bir yapay zeka modelidir.
Basit bir ifadeyle, ChatGPT, farklı türdeki sorunları çözmeye yardımcı olan son derece yetenekli bir öğrenci gibidir, merkezi olmayan bir algoritma ağı, sorunları çözmeye yardımcı olan birçok öğrencinin bulunduğu bir okul gibidir. Mevcut öğrenci (ChatGPT) son derece yetenekli olsa da, long vadede dünyanın dört bir yanından öğrenci alabilecek bir okul için büyük bir potansiyel var.
Şu anda, merkezi olmayan algoritma modelleri alanında, deney yapan ve keşfeden bazı projeler de var. Daha sonra, bu niş alanın gelişimini anlamaya yardımcı olmak için temsili proje Bittensor'u bir vaka çalışması olarak kullanacağız.
Bittensor'da, algoritma modellerinin (veya madencilerin) arz tarafı, makine öğrenimi modellerini ağa katkıda bulunur. Bu modeller verileri analiz edebilir ve içgörüler sağlayabilir. Model sağlayıcılar, katkılarından dolayı ödül olarak TAO olarak bilinen kripto para birimi belirteçleri alırlar.
Cevapların kalitesini sağlamak için Bittensor, en iyi cevap üzerinde bir fikir birliğine varmak için benzersiz bir fikir birliği mekanizması kullanır. Bir soru sorulduğunda, birden fazla model madencisi cevap verir. Ardından, ağdaki doğrulayıcılar en iyi cevabı belirlemek için çalışmaya başlar ve bu daha sonra kullanıcıya geri gönderilir.
Bittensor ekosistemindeki token TAO, süreç boyunca iki ana rol oynar. Bir yandan, madencilerin ağa algoritma modellerine katkıda bulunmaları için bir teşvik görevi görür. Öte yandan, kullanıcıların soru sormak ve ağın görevleri tamamlamasını sağlamak için jeton harcaması gerekir.
Bittensor merkezi olmadığı için, internet erişimi olan herkes, soru soran bir kullanıcı veya yanıt veren bir madenci olarak ağa katılabilir. Bu, daha fazla insanın yapay zekanın gücünden yararlanmasını sağlar.
Özetle, Bittensor gibi merkezi olmayan algoritma modeli ağları, daha açık ve şeffaf bir manzara yaratma potansiyeline sahiptir. Bu ekosistemde, yapay zeka modelleri güvenli ve merkezi olmayan bir şekilde eğitilebilir, paylaşılabilir ve kullanılabilir. Ek olarak, BasedAI gibi diğer ağlar, dördüncü alt bölümde daha ayrıntılı olarak tartışılacak olan kullanıcı modeli etkileşimli veri gizliliğini korumak için Sıfır Bilgi Kanıtları (ZK) kullanmanın ilgi çekici yönüyle benzer çabalar deniyor.
Merkezi olmayan algoritma modeli platformları geliştikçe, küçük şirketlerin son teknoloji yapay zeka araçlarını kullanma konusunda büyük kuruluşlarla rekabet etmelerini sağlayacak ve potansiyel olarak çeşitli sektörlerde önemli etkilere sahip olacaklar.
3.1.3 Merkezi Olmayan Veri Toplama
Yapay zeka modellerinin eğitimi için büyük miktarda veri kaynağı vazgeçilmezdir. Bununla birlikte, çoğu Web2 şirketi şu anda hala kullanıcı verilerini tekelleştiriyor. X, Reddit, TikTok, Snapchat, Instagram ve YouTube gibi platformlar, yapay zeka endüstrisinin gelişmesinin önünde önemli bir engel teşkil eden yapay zeka eğitimi için veri toplamayı yasaklıyor.
Öte yandan, bazı Web2 platformları, kullanıcılarla herhangi bir kar paylaşmadan kullanıcı verilerini yapay zeka şirketlerine satar. Örneğin Reddit, Google ile 60 milyon dolarlık bir anlaşmaya vardı ve Google'ın gönderilerini kullanarak yapay zeka modellerini eğitmesine izin verdi. Bu, veri toplama haklarının büyük sermaye ve büyük veri şirketleri tarafından tekelleştirilmesine ve endüstriyi sermaye yoğun bir yöne doğru itmesine neden olur.
Bu duruma yanıt olarak, bazı projeler merkezi olmayan veri toplamayı başarmak için Web3 ve token teşviklerinden yararlanıyor. Örnek olarak PublicAI'yi ele alalım: kullanıcılar iki role katılabilir:
Ödül olarak, kullanıcılar bu katkılar yoluyla token kazanabilir ve veri katkıda bulunanlar ile yapay zeka endüstrisi arasında bir kazan-kazan ilişkisini teşvik edebilir.
Özellikle yapay zeka eğitimi için veri toplayan PublicAI gibi projelere ek olarak, merkezi olmayan veri toplama için token teşvikleri kullanan birçok başka proje var. Örneğin, Ocean, yapay zekaya hizmet etmek için veri tokenizasyon aracılığıyla kullanıcı verilerini toplar, Hivemapper harita verilerini toplamak için kullanıcıların araba kameralarını kullanır, Dimo araba verilerini toplar ve WiHi hava durumu verilerini toplar. Bu projeler, merkezi olmayan veri toplama yoluyla, yapay zeka eğitimi için potansiyel veri kaynakları olarak da hizmet eder. Böylece, geniş anlamda, Web3'ün yapay zekaya yardımcı olması paradigmasına dahil edilebilirler.
3.1.4 ZK, Yapay Zekada Kullanıcı Gizliliğini Korur
Blok Zinciri teknoloji, ademi merkeziyetçilik avantajları sunar ve ayrıca çok önemli bir özellik sunar: sıfır bilgi kanıtları. Sıfır bilgi teknolojisi, gizliliği korurken bilgi doğrulamasına izin verir.
Geleneksel makine öğreniminde, verilerin genellikle merkezi olarak depolanması ve işlenmesi gerekir ve bu da gizlilik risklerine yol açabilir. şifreleme veya veri anonimleştirme gibi veri gizliliğini koruma yöntemleri, makine öğrenimi modellerinin doğruluğunu ve performansını sınırlayabilir.
Sıfır bilgi kanıtı teknolojisi, gizlilik koruması ve veri paylaşımı arasındaki çatışmayı ele alarak bu ikilemin çözülmesine yardımcı olur. Sıfır Bilgi Makine Öğrenimi (ZKML), orijinal verileri açığa çıkarmadan makine öğrenimi modeli eğitimi ve çıkarımı sağlamak için sıfır bilgi kanıtı teknolojisini kullanır. Sıfır bilgi ispatları, gerçek veri içeriğini ortaya çıkarmadan verilerin özelliklerinin ve modelin sonuçlarının doğru olarak doğrulanabilmesini sağlar.
ZKML'nin temel amacı, gizlilik koruması ve veri paylaşımını dengelemektir. Sağlık veri analizi, finansal veri analizi ve kuruluşlar arası işbirliği gibi çeşitli senaryolarda uygulanabilir. Bireyler, ZKML'yi kullanarak, veri gizliliği ihlali riski olmadan daha geniş içgörüler ve işbirliği fırsatları elde etmek için verileri başkalarıyla paylaşırken hassas verilerinin gizliliğini koruyabilir. Bu alan hala erken aşamalarındadır ve çoğu proje hala araştırılmaktadır. Örneğin BasedAI, veri gizliliğini korumak için Tam Homomorfik Şifreleme'yi (FHE) Büyük Dil Modelleri (LLM'ler) ile sorunsuz bir şekilde entegre ederek merkezi olmayan bir yaklaşım önerir. Sıfır Bilgi Büyük Dil Modelleri (ZK-LLM'ler), gizliliği dağıtılmış ağ altyapılarına yerleştirerek kullanıcı verilerinin ağın çalışması boyunca gizli kalmasını sağlar.
İşte Tam Homomorfik Şifreleme (FHE) hakkında kısa bir açıklama. FHE, şifrelenmiş verilerin şifresini çözmeye gerek kalmadan hesaplamaların gerçekleştirilmesine izin veren şifreleme bir tekniktir. Bu, FHE ile şifrelenmiş veriler üzerinde gerçekleştirilen çeşitli matematiksel işlemlerin (toplama, çarpma vb.) orijinal şifrelenmemiş veriler üzerinde gerçekleştirilmiş gibi aynı sonuçları verdiği ve böylece kullanıcı veri gizliliğini koruduğu anlamına gelir.
Yukarıda belirtilen yöntemlere ek olarak Web3, yapay zeka programlarının on-chain yürütülmesini sağlayan Cortex gibi projeler aracılığıyla yapay zekayı da destekler. Sanal makineler, önemsiz olmayan makine öğrenimi modellerini çalıştırmada oldukça verimsiz olduğundan, makine öğrenimi programlarını geleneksel blok zincirlerinde çalıştırmak bir zorlukla karşı karşıyadır. Çoğu, yapay zekayı blok zincirinde çalıştırmanın imkansız olduğuna inanıyor. Bununla birlikte, Cortex Sanal Makine (CVM), on-chain AI programlarını yürütmek için GPU'ları kullanır ve Ethereum Sanal Makinesi (EVM) ile uyumludur. Başka bir deyişle, Cortex zinciri tüm Ethereum DApp'leri yürütebilir ve AI makine öğrenimini bu DApp'lere entegre edebilir. Bu, makine öğrenimi modellerinin merkezi olmayan, değişmez ve şeffaf bir şekilde çalışmasına olanak tanır ve ağ konsensüsü yapay zeka çıkarımının her adımını doğrular.
Yapay zeka ve Web3 arasındaki çarpışmada, Web3'ün yapay zekaya yardımına ek olarak, yapay zekanın Web3 endüstrisine yardımı da dikkate değer. Yapay zekanın temel katkısı üretkenliğin artırılmasıdır, bu nedenle yapay zeka denetim akıllı sözleşmeler, veri analizi ve tahmini, kişiselleştirilmiş hizmetler, güvenlik ve gizlilik koruması vb. alanlarda birçok girişim vardır.
3.2.1 Veri Analizi ve Tahmini
Birçok Web3 projesi, Web3 kullanıcıları için veri analizi ve tahmin hizmetleri sağlamak için mevcut yapay zeka hizmetlerini (ChatGPT gibi) entegre ediyor veya kendi hizmetlerini geliştiriyor. Bu hizmetler, yatırım stratejileri için yapay zeka algoritmaları, on-chain analiz araçları ve fiyat ve piyasa tahminleri dahil olmak üzere geniş bir yelpazeyi kapsar.
Örneğin Pond, gelecekteki değerli alfa tokenlerini tahmin etmek için AI grafik algoritmalarını kullanır ve kullanıcılara ve kurumlara yatırım danışmanlığı hizmetleri sunar. BullBear AI, fiyat trendi tahminlerini destekleyen doğru bilgiler sağlamak ve kullanıcıların kar elde etmesine yardımcı olmak için kullanıcı geçmiş verileri, fiyat geçmişi ve piyasa eğilimleri üzerinde eğitim verir.
Numerai gibi platformlar, katılımcıların borsaları tahmin etmek için yapay zeka ve büyük dil modellerini kullandığı yatırım yarışmalarına ev sahipliği yapıyor. Modelleri platform tarafından sağlanan yüksek kaliteli veriler üzerinde eğitirler ve günlük tahminler sunarlar. Numerai bu tahminleri bir sonraki ay boyunca değerlendirir ve katılımcılar performansa dayalı ödüller kazanmak için modellerinde token Stake NMR edebilirler.
Bir blockchain veri analiz platformu olan Arkham, yapay zekayı hizmetlerine de entegre ediyor. Arkham, blok zinciri adreslerini borsalar, fonlar ve balinalar gibi varlıklara bağlayarak kullanıcılara karar verme avantajı sağlamak için önemli verileri ve analizleri görüntüler. Arkham Ultra, Palantir ve OpenAI kurucularının destek ile üç yıl boyunca geliştirilen algoritmaları kullanarak adresleri gerçek dünyadaki varlıklarla eşleştirir.
3.2.2 Kişiselleştirilmiş Hizmetler
Arama ve önerideki yapay zeka uygulamaları, Web2 projelerinde yaygındır ve kullanıcıların kişiselleştirilmiş ihtiyaçlarına hizmet eder. Web3 projeleri, kullanıcı deneyimini geliştirmek için yapay zekayı benzer şekilde entegre eder.
Örneğin, tanınmış veri analiz platformu Dune, kısa süre önce SQL sorguları yazmak için büyük dil modellerini kullanan Wand aracını tanıttı. Wand Create ile kullanıcılar, doğal dil sorularından SQL sorguları oluşturabilir ve bu da SQL'e aşina olmayanların veri aramasını kolaylaştırır.
Followin gibi içerik platformları, belirli sektörlerdeki bakış açılarını ve güncellemeleri özetlemek için ChatGPT'yi entegre eder. Web3 ansiklopedisi IQ.wiki, blok zinciri teknolojisi ve kripto para birimi hakkında nesnel, yüksek kaliteli bilginin birincil kaynağı olmayı amaçlamaktadır. Wiki makalelerini özetlemek için GPT-4'ü entegre ederek blok zinciri bilgilerini dünya çapında daha erişilebilir hale getirir. LLM tabanlı arama motoru Kaito, Web3 bilgi alımında devrim yaratmayı hedefliyor.
Yaratıcı alanda, NFPrompt gibi projeler içerik oluşturma maliyetini düşürür. NFPrompt, kullanıcıların yapay zeka ile NFT'leri daha kolay oluşturmasına olanak tanıyarak çeşitli kişiselleştirilmiş yaratıcı hizmetler sunar.
3.2.3 Yapay Zeka Denetimi Akıllı Sözleşmeler
akıllı sözleşmeler denetlemek Web3'te çok önemli bir görevdir ve yapay zeka, kod güvenlik açıklarını belirlemede verimliliği ve doğruluğu artırabilir.
Vitalik Buterin, kripto para birimi alanındaki en büyük zorluklardan birinin kodumuzdaki hatalar olduğunu belirtti. AI, kod doğruluğunu kanıtlamak için resmi doğrulama araçlarının kullanımını önemli ölçüde basitleştirme vaadinde bulunuyor. Bunu başarmak, neredeyse hatasız bir SEK EVM (Ethereum Sanal Makinesi) yol açabilir ve daha az hata genel güvenliği artırdığı için alan güvenliğini artırabilir.
Örneğin, 0x0.ai projesi yapay zeka destekli bir akıllı sözleşme denetçisi sunuyor. Bu araç, akıllı sözleşmeler analiz etmek ve dolandırıcılığa veya diğer güvenlik risklerine yol açabilecek olası güvenlik açıklarını veya sorunları belirlemek için gelişmiş algoritmalar kullanır. Denetçiler, koddaki kalıpları ve anormallikleri tespit etmek için makine öğrenimini kullanır ve daha fazla inceleme için olası sorunları işaretler.
Yapay zekanın Web3'e yardımcı olduğu başka yerel durumlar da var. PAAL, kullanıcıların Web3 kullanıcılarına hizmet vermek için Telegram ve Discord'da konuşlandırılabilecek kişiselleştirilmiş yapay zeka botları oluşturmasına yardımcı olur. Yapay zeka güdümlü çok zincirli DEX toplayıcı Hera, çeşitli tokenlerdeki herhangi bir token çifti arasında en iyi ticaret yollarını sağlamak için yapay zekayı kullanır. Genel olarak, yapay zekanın Web3'e katkısı öncelikle araç düzeyindedir ve çeşitli süreçleri ve işlevleri geliştirir.
Şu anda, yapay zekaya yardımcı olan birçok Web3 projesi, merkezi olmayan bilgi işlem gücüne odaklanıyor. Küresel kullanıcıları bilgi işlem güç kaynağı tarafının bir parçası olmaya teşvik etmek için belirteç teşviklerini kullanmak çok ilginç bir yeniliktir. Ancak öte yandan, ele alınması gereken bazı gerçekçi konular var:
Merkezi bilgi işlem gücü hizmet sağlayıcılarıyla karşılaştırıldığında, merkezi olmayan bilgi işlem gücü ürünleri, bilgi işlem kaynakları sağlamak için genellikle küresel olarak dağıtılan düğümlere ve katılımcılara güvenir. Bu düğümler arasındaki ağ bağlantılarındaki olası gecikme süresi ve kararsızlık nedeniyle, performans ve kararlılık merkezi bilgi işlem gücü ürünlerinden daha kötü olabilir.
Ek olarak, merkezi olmayan bilgi işlem gücü ürünlerinin kullanılabilirliği, arz ve talep arasındaki eşleştirme derecesinden etkilenir. Yeterli tedarikçi yoksa veya talep çok yüksekse, kaynak sıkıntısına veya kullanıcı ihtiyaçlarının karşılanamamasına neden olabilir.
Son olarak, merkezi bilgi işlem gücü ürünleriyle karşılaştırıldığında, merkezi olmayan bilgi işlem gücü ürünleri genellikle daha fazla teknik ayrıntı ve karmaşıklık içerir. Kullanıcıların dağıtılmış ağların, akıllı sözleşmeler ve kripto para birimi ödemelerinin özelliklerini anlaması ve ele alması gerekebilir, bu da kullanıcı anlama ve kullanım maliyetini artırır.
Çok sayıda merkezi olmayan bilgi işlem gücü proje ekibiyle yapılan derinlemesine görüşmelerden sonra, mevcut merkezi olmayan bilgi işlem gücünün hala yapay zeka eğitiminden ziyade çoğunlukla yapay zeka çıkarımı ile sınırlı olduğu bulundu.
Ardından, herkesin bunun arkasındaki nedenleri anlamasına yardımcı olmak için dört soru kullanacağım:
Merkezi olmayan bilgi işlem gücü projelerinin çoğu neden yapay zeka eğitimi yerine yapay zeka çıkarımı yapmayı tercih ediyor?
NVIDIA'yı bu kadar güçlü yapan nedir? Merkezi olmayan bilgi işlem gücü eğitiminin zor olmasının nedenleri nelerdir?
Merkezi olmayan bilgi işlem gücü (Render, Akash, io.net, vb.) için oyunun sonu ne olacak?
Merkeziyetsiz algoritmalar (Bittensor) için oyunun sonu ne olacak?
Ayrıntıları adım adım inceleyelim:
1) Bu alanı gözlemleyerek, çoğu merkezi olmayan bilgi işlem gücü projesi, öncelikle bilgi işlem gücü ve bant genişliği için farklı gereksinimler nedeniyle, eğitim yerine yapay zeka çıkarımına odaklanmayı tercih ediyor.
Herkesin daha iyi anlamasına yardımcı olmak için yapay zekayı bir öğrenciyle karşılaştıralım:
Yapay Zeka Eğitimi: Yapay zekayı bir öğrenciyle karşılaştırırsak, eğitim, yapay zekaya genellikle veri olarak adlandırdığımız şeye benzer şekilde büyük miktarda bilgi ve örnek sağlamaya benzer. Yapay zeka bu örneklerden öğrenir. Öğrenme, büyük miktarda bilgiyi anlamayı ve ezberlemeyi içerdiğinden, bu süreç önemli miktarda bilgi işlem gücü ve zaman gerektirir.
Yapay Zeka Çıkarımı: Çıkarım, edinilen bilgilerin problem çözmek veya sınavlara girmek için kullanılması olarak anlaşılabilir. Çıkarım sırasında yapay zeka, öğrenilen bilgiyi yeni bilgiler edinmek yerine soruları yanıtlamak için kullanır, bu nedenle hesaplama gereksinimleri nispeten daha düşüktür.
Zorluktaki temel farkın, büyük model yapay zeka eğitiminin muazzam veri hacimleri ve veri iletimi için son derece yüksek bant genişliği gerektirmesi gerçeğinde yattığını görmek kolaydır, bu da merkezi olmayan bilgi işlem gücüyle elde etmeyi çok zorlaştırır. Buna karşılık, çıkarım çok daha az veri ve bant genişliği gerektirir ve bu da onu daha uygulanabilir hale getirir.
Büyük modeller için stabilite çok önemlidir. Eğitim kesintiye uğrarsa, yeniden başlatılması gerekir ve bu da yüksek batık maliyetlere neden olur. Öte yandan, yapay zeka çıkarımı veya orta ila küçük model eğitimini içeren belirli özel senaryolar gibi nispeten daha düşük bilgi işlem gücü gereksinimlerine sahip talepler karşılanabilir. Merkezi olmayan bilgi işlem gücü ağlarında, bazı nispeten büyük düğüm hizmet sağlayıcıları, bu nispeten daha yüksek bilgi işlem gücü taleplerini karşılayabilir.
2) Peki, veri ve bant genişliğindeki darboğazlar nerede? Merkezi olmayan eğitimi başarmak neden zor?
Bu, büyük model eğitiminin iki temel unsurunu içerir: tek kartlı bilgi işlem gücü ve çoklu kart paralelliği.
Tek kartlı bilgi işlem gücü: Şu anda, süper bilgi işlem merkezleri olarak adlandırılan büyük model eğitimi gerektiren tüm merkezler, temel birim olan GPU'nun bir hücre gibi olduğu insan vücuduna benzetilebilir. Tek bir hücrenin (GPU) bilgi işlem gücü güçlüyse, genel bilgi işlem gücü (tek hücre × miktarı) da çok güçlü olabilir.
Çoklu kart paralelliği: Büyük bir modeli eğitmek genellikle yüz milyarlarca gigabayt içerir. Büyük modelleri eğiten süper bilgi işlem merkezleri için en az on binlerce A100 GPU gereklidir. Bu, eğitim için binlerce kartı seferber etmeyi gerektirir. Ancak, büyük bir modeli eğitmek basit bir seri işlem değildir; sadece ilk A100 kartında antrenman yapıp sonra ikinciye geçmez. Bunun yerine, modelin farklı bölümleri aynı anda farklı GPU'lar üzerinde eğitilir ve eğitim bölümü A, paralel işlemeyi içeren B bölümünden sonuçlar gerektirebilir.
NVIDIA'nın hakimiyeti ve yükselen piyasa değeri, AMD ve Huawei ve Horizon gibi yerli şirketler yetişmekte zorlanırken, iki açıdan kaynaklanıyor: CUDA yazılım ortamı ve NVLink çoklu kart iletişimi.
CUDA Yazılım Ortamı: NVIDIA'nın CUDA sistemi gibi donanıma uygun bir yazılım ekosisteminin olup olmadığı çok önemlidir. Yeni bir sistem oluşturmak, yüksek yenileme maliyetleriyle yeni bir dil oluşturmaya benzer şekilde zordur.
NVLink Çoklu Kart İletişimi: Esasen, çoklu kart iletişimi, bilgi giriş ve çıkışını içerir. Nasıl paralelleştirileceği ve iletileceği çok önemlidir. NVLink'in varlığı, NVIDIA ve AMD kartlarının iletişim kuramayacağı anlamına gelir; ek olarak, NVLink, GPU'lar arasındaki fiziksel mesafeyi sınırlayarak aynı süper bilgi işlem merkezinde olmalarını gerektirir. Bu, dünyanın dört bir yanına yayılmış merkezi olmayan bilgi işlem gücünün büyük model eğitimi için uyumlu bir bilgi işlem kümesi oluşturmasını zorlaştırır.
İlk nokta, AMD'nin ve Huawei ve Horizon gibi yerli şirketlerin neden yetişmekte zorlandığını açıklıyor; ikinci nokta, merkezi olmayan eğitimin neden zor olduğunu açıklıyor.
3) Merkezi olmayan bilgi işlem gücü için oyunun sonu ne olacak? Merkezi olmayan bilgi işlem gücü şu anda büyük model eğitiminde zorlanıyor çünkü kararlılık çok önemli. Kesintiler yeniden eğitim gerektirir ve bu da yüksek batık maliyetlere neden olur. Çoklu kart paralelliği için yüksek gereksinimler, fiziksel bant genişliği kısıtlamalarıyla sınırlıdır. NVIDIA'nın NVLink'i çoklu kart iletişimi sağlar, ancak bir süper bilgi işlem merkezinde NVLink, GPU'lar arasındaki fiziksel mesafeyi sınırlar. Bu nedenle, dağınık bilgi işlem gücü, büyük model eğitimi için bir bilgi işlem kümesi oluşturamaz.
Bununla birlikte, yapay zeka çıkarımı veya orta ila küçük model eğitimini içeren belirli senaryolar gibi nispeten daha düşük bilgi işlem gücü gereksinimlerine sahip talepler için, bazı nispeten büyük düğüm hizmet sağlayıcılarına sahip merkezi olmayan bilgi işlem güç ağları potansiyele sahiptir. Ek olarak, işleme için uç bilgi işlem gibi senaryoların uygulanması nispeten daha kolaydır.
4) Merkezi olmayan algoritma modelleri için oyunun sonu ne olacak? Merkezi olmayan algoritma modellerinin geleceği, yapay zekanın nihai yönüne bağlıdır. Yapay zekanın geleceğinin, çok sayıda modelin yanı sıra 1-2 kapalı kaynaklı model devine (ChatGPT gibi) sahip olabileceğine inanıyorum. Bu bağlamda, uygulama katmanı ürünlerinin tek bir büyük modele bağlanması gerekmez, bunun yerine birden fazla büyük modelle işbirliği yapması gerekir. Bu senaryoda, Bittensor modeli önemli bir potansiyel göstermektedir.
Web3 ve yapay zekayı birleştiren mevcut projelerde, özellikle yapay zekanın Web3 girişimlerine yardımcı olduğu projelerde, çoğu proje, yapay zeka ve kripto para birimleri arasında derin bir entegrasyon göstermeden yapay zekayı yalnızca yüzeysel olarak kullanır. Bu yüzeysel uygulama aşağıdaki iki açıdan belirgindir:
Mevcut Web3 ve yapay zeka projeleri bu sınırlamalara sahip olsa da, bunun geliştirmenin yalnızca erken aşaması olduğunu kabul etmeliyiz. Gelecekte, yapay zeka ve kripto para birimleri arasında daha sıkı bir entegrasyon sağlamak, finans, merkezi olmayan özerk kuruluşlar (DAO'lar), tahmin piyasaları ve NFT'ler gibi alanlarda daha yerel ve anlamlı çözümler oluşturmak için daha derinlemesine araştırma ve yenilik bekleyebiliriz.
Başlangıçta belirtildiği gibi, yapay zeka projeleri, özellikle giderek daha fazla büyük model yavaş yavaş açık kaynak haline geldiğinden, iş modellerinde zorluklarla karşı karşıyadır. Web2 alanında gelişmek ve fonlama güvence altına almak için mücadele eden çoğu yapay zeka + Web3 projesi, genellikle Web2 alanındaki anlatıları ve token ekonomisini üst üste bindirmeyi tercih eder.
Bununla birlikte, kritik soru, token ekonomisinin entegrasyonunun yapay zeka projelerinin gerçek dünya ihtiyaçlarını karşılamasına gerçekten yardımcı olup olmadığı veya sadece bir anlatı veya short vadeli değer önerisi olarak hizmet edip etmediğidir. Şu anda, çoğu AI + Web3 projesi pratik bir aşamaya ulaşmaktan uzaktır. Daha ayakları yere basan ve düşünceli ekiplerin, tokenleri yalnızca yapay zeka projelerini heyecanlandırmak için bir araç olarak kullanmakla kalmayıp, aynı zamanda pratik kullanım durumlarını da gerçekten yerine getireceği umulmaktadır.
Şu anda AI + Web3 projelerinde çok sayıda vaka ve uygulama ortaya çıktı. İlk olarak, AI teknolojisi Web3 için daha verimli ve akıllı kullanım durumları sağlayabilir. Yapay zekanın veri analizi ve tahminindeki yetenekleri sayesinde Web3'teki kullanıcılar, yatırım kararları ve diğer senaryolar için daha iyi araçlara sahip olabilir. Ek olarak, yapay zeka akıllı sözleşme kodunu denetleyebilir, sözleşmenin yürütülmesini optimize edebilir ve blok zincirinin performansını ve verimliliğini artırabilir. Ayrıca, AI teknolojisi, merkezi olmayan uygulamalar için daha kesin ve akıllı öneriler ve kişiselleştirilmiş hizmetler sunabilir ve böylece kullanıcı deneyimini iyileştirebilir.
Aynı zamanda, Web3'ün merkezi olmayan ve programlanabilir doğası, yapay zeka teknolojisi için yeni fırsatlar da sunuyor. Token teşvikleri aracılığıyla, merkezi olmayan bilgi işlem gücü projeleri, yetersiz AI bilgi işlem gücü ikilemine yeni çözümler sunar. Web3'ün akıllı sözleşmeler ve dağıtılmış depolama mekanizmaları, yapay zeka algoritması paylaşımı ve eğitimi için daha geniş bir alan ve kaynaklar da sunar. Web3'ün kullanıcı özerkliği ve güven mekanizmaları, yapay zeka geliştirme için yeni olanaklar getirerek, kullanıcıların veri paylaşımına ve eğitimine katılmayı özerk bir şekilde seçmelerine olanak tanır, böylece verilerin çeşitliliğini ve kalitesini artırır ve yapay zeka modellerinin performansını ve doğruluğunu daha da artırır.
Mevcut AI + Web3 çapraz projeleri hala erken aşamalarında olmasına ve birçok zorlukla karşı karşıya olmasına rağmen, birçok avantajı da beraberinde getiriyor. Örneğin, merkezi olmayan bilgi işlem gücü ürünlerinin bazı dezavantajları vardır, ancak merkezi kurumlara olan bağımlılığı azaltır, daha fazla şeffaflık ve denetlenebilirlik sağlar ve daha geniş katılım ve yenilik sağlar. Belirli kullanım durumları ve kullanıcı ihtiyaçları için, merkezi olmayan bilgi işlem gücü ürünleri değerli bir seçim olabilir. Aynısı veri toplama için de geçerlidir; Merkezi olmayan veri toplama projeleri, tek veri kaynaklarına olan bağımlılığı azaltmak, daha geniş veri kapsamı sağlamak ve veri çeşitliliğini ve kapsayıcılığı teşvik etmek gibi avantajlar sunar. Uygulamada, bu avantaj ve dezavantajları dengelemek ve zorlukların üstesinden gelmek için uygun yönetim ve teknik önlemleri almak, merkezi olmayan veri toplama projelerinin yapay zeka gelişimi üzerinde olumlu bir etkiye sahip olmasını sağlamak gerekir.
Genel olarak, AI + Web3 entegrasyonu, gelecekteki teknolojik yenilikler ve ekonomik kalkınma için sonsuz olanaklar sunar. Yapay zekanın akıllı analiz ve karar verme yeteneklerini Web3'ün merkezi olmayan ve kullanıcı özerk doğasıyla birleştirerek daha akıllı, daha açık ve daha adil bir ekonomik ve hatta sosyal sistem inşa edebileceğimize inanılıyor.