In den letzten Jahren hat die rasante Entwicklung von Künstlicher Intelligenz (KI) und Web3-Technologien weltweit große Aufmerksamkeit erregt. KI, eine Technologie, die menschliche Intelligenz simuliert und nachahmt, hat in Bereichen wie Gesichtserkennung, Verarbeitung natürlicher Sprache und maschinellem Lernen bedeutende Durchbrüche erzielt. Die rasante Weiterentwicklung der KI-Technologie hat in verschiedenen Branchen enorme Veränderungen und Innovationen mit sich gebracht.
Die KI-Branche erreichte im Jahr 2023 eine Marktgröße von 200 Milliarden US-Dollar, wobei Branchenriesen und prominente Akteure wie OpenAI, Character.AI und Midjourney schnell auftauchten und den KI-Boom führend
.Gleichzeitig verändert Web3, ein aufstrebendes Internetmodell, allmählich unsere Wahrnehmung und Nutzung des Internets. Basierend auf der dezentralen Blockchain-Technologie realisiert Web3 die gemeinsame Nutzung und Kontrolle von Daten, die Autonomie der Benutzer und die Einrichtung von Vertrauensmechanismen durch Funktionen wie Smart Contracts, verteilte Speicherung und dezentrale Identitätsprüfung. Die Kernidee des Web3 besteht darin, Daten von zentralisierten Behörden zu befreien und den Nutzern die Kontrolle über und die Möglichkeit zu geben, den Wert ihrer Daten zu teilen.
Derzeit hat der Marktwert der Web3-Branche 25 Billionen US-Dollar erreicht. Von Bitcoin, Ethereum und Solana bis hin zu Akteuren auf Anwendungsebene wie Uniswap und Stepn entstehen ständig neue Erzählungen und Szenarien, die immer mehr Menschen dazu bringen, sich der Web3-Branche anzuschließen.
Es ist offensichtlich, dass die Integration von KI und Web3 ein Schwerpunkt für Bauherren und Risikokapitalgeber aus Ost und West ist. Zu erforschen, wie diese beiden Technologien effektiv kombiniert werden können, ist ein sehr lohnendes Unterfangen.
Dieser Artikel konzentriert sich auf den aktuellen Stand der KI+Web3-Entwicklung und untersucht den potenziellen Wert und die Auswirkungen ihrer Integration. Wir werden zunächst die grundlegenden Konzepte und Eigenschaften von KI und Web3 vorstellen und dann deren Wechselbeziehung diskutieren. Im Anschluss daran werden wir den aktuellen Stand von KI+Web3-Projekten analysieren und uns mit den Einschränkungen und Herausforderungen befassen, mit denen sie konfrontiert sind. Mit dieser Recherche wollen wir Investoren und Branchenexperten wertvolle Referenzen und Erkenntnisse liefern.
Die Entwicklung von KI und Web3 kann als zwei Seiten einer Skala betrachtet werden: KI bringt Produktivitätssteigerungen, während Web3 Produktionsbeziehungen revolutioniert. Welche Art von Funken können KI und Web3 erzeugen, wenn sie aufeinanderprallen? Wir werden zunächst die Herausforderungen und potenziellen Verbesserungen in der KI- und Web3-Branche analysieren und dann untersuchen, wie sie dazu beitragen können, die Probleme des jeweils anderen zu lösen.
Um die Herausforderungen zu untersuchen, mit denen die KI-Branche konfrontiert ist, müssen wir zunächst ihr Wesen verstehen. Der Kern der KI-Industrie dreht sich um drei Schlüsselelemente: Rechenleistung, Algorithmen und Daten.
Nachdem wir die drei Kernelemente der aktuellen KI verstanden haben, wollen wir die Schwierigkeiten und Herausforderungen untersuchen, mit denen KI in diesen Bereichen konfrontiert ist.
Erstens erfordern KI-Aufgaben in Bezug auf die Rechenleistung in der Regel eine große Menge an Rechenressourcen für das Modelltraining und die Inferenz, insbesondere für Deep-Learning-Modelle. Die Beschaffung und Verwaltung von Rechenleistung in großem Maßstab ist jedoch eine teure und komplexe Herausforderung. Die Kosten, der Energieverbrauch und die Wartung von Hochleistungscomputern sind wichtige Themen. Dies ist besonders für Startups und einzelne Entwickler eine Herausforderung, für die es schwierig sein kann, ausreichend Rechenleistung zu beschaffen.
In Bezug auf Algorithmen gibt es trotz der erheblichen Erfolge von Deep-Learning-Algorithmen in vielen Bereichen immer noch Herausforderungen und Schwierigkeiten. Zum Beispiel erfordert das Training tiefer neuronaler Netze eine große Menge an Daten- und Rechenressourcen. Darüber hinaus kann die Interpretierbarkeit und Erklärbarkeit von Modellen für bestimmte Aufgaben unzureichend sein. Die Robustheit und Generalisierungsfähigkeit von Algorithmen sind ebenfalls von entscheidender Bedeutung, da die Modellleistung bei unsichtbaren Daten instabil sein kann. Den besten Algorithmus zu finden, um eine optimale Leistung unter vielen Algorithmen zu erzielen, ist eine fortlaufende Untersuchung.
In Bezug auf Daten sind Daten die treibende Kraft hinter KI, aber es bleibt eine Herausforderung, qualitativ hochwertige, vielfältige Daten zu erhalten. In einigen Bereichen, wie z. B. sensiblen Gesundheitsdaten im medizinischen Bereich, kann es schwierig sein, Daten zu erhalten. Darüber hinaus sind die Qualität, Genauigkeit und Kennzeichnung von Daten von entscheidender Bedeutung, da unvollständige oder verzerrte Daten zu fehlerhaftem Modellverhalten oder Verzerrungen führen können. Der Schutz des Datenschutzes und der Datensicherheit ist ebenfalls ein wichtiger Aspekt.
Darüber hinaus gibt es Probleme im Zusammenhang mit der Interpretierbarkeit und Transparenz. Der "Black-Box"-Charakter von KI-Modellen ist ein öffentliches Anliegen. In bestimmten Anwendungen, wie z. B. im Finanzwesen, im Gesundheitswesen und in der Justiz, muss der Entscheidungsprozess von Modellen interpretierbar und nachvollziehbar sein. Bestehenden Deep-Learning-Modellen mangelt es jedoch oft an Transparenz. Den Entscheidungsprozess von Modellen zu erklären und verlässliche Erklärungen zu liefern, bleibt eine Herausforderung.
Hinzu kommt, dass die Geschäftsmodelle vieler KI-Startup-Projekte nicht sehr klar sind, was bei vielen KI-Unternehmern ebenfalls für Verwirrung sorgt.
In der Web3-Branche gibt es zahlreiche Herausforderungen, die angegangen werden müssen, von der Datenanalyse und Benutzererfahrung bis hin zu Smart-Contract-Schwachstellen und Hackerangriffen. KI als Werkzeug zur Steigerung der Produktivität birgt in diesen Bereichen ein erhebliches Potenzial.
Erstens gibt es Raum für Verbesserungen bei der Datenanalyse und den Vorhersagefähigkeiten. KI-Anwendungen in der Datenanalyse und -vorhersage haben einen erheblichen Einfluss auf die Web3-Branche. Durch intelligente Analyse und Mining durch KI-Algorithmen können Web3-Plattformen wertvolle Informationen aus riesigen Datenmengen extrahieren und genauere Vorhersagen und Entscheidungen treffen. Dies ist besonders wichtig für die Risikobewertung, Marktprognose und Vermögensverwaltung im dezentralen Finanzwesen (DeFi).
Darüber hinaus besteht das Potenzial, die Benutzererfahrung und die Personalisierungsdienste zu verbessern. KI-Anwendungen ermöglichen es Web3-Plattformen, bessere Benutzererlebnisse und personalisierte Dienste anzubieten. Durch die Analyse und Modellierung von Benutzerdaten können Web3-Plattformen personalisierte Empfehlungen, maßgeschneiderte Dienste und intelligente Interaktionserlebnisse bereitstellen. Dies trägt dazu bei, das Engagement und die Zufriedenheit der Nutzer zu erhöhen und die Entwicklung des Web3-Ökosystems zu fördern. Zum Beispiel integrieren viele Web3-Protokolle KI-Tools wie ChatGPT, um den Nutzern einen besseren Service zu bieten.
In Bezug auf Sicherheit und Datenschutz haben KI-Anwendungen auch tiefgreifende Auswirkungen auf die Web3-Branche. KI-Technologie kann eingesetzt werden, um Netzwerkangriffe zu erkennen und abzuwehren, abnormales Verhalten zu erkennen und stärkere Sicherheitsmaßnahmen bereitzustellen. Darüber hinaus kann KI auf den Datenschutz angewendet werden, indem die persönlichen Daten der Benutzer auf Web3-Plattformen durch Techniken wie Verschlüsselung und Privacy Computing geschützt werden. In Bezug auf die Prüfung von Smart Contracts, da Schwachstellen und Sicherheitsrisiken in den Schreib- und Prüfungsprozessen von Smart Contracts bestehen können, kann die KI-Technologie für die automatisierte Vertragsprüfung und Schwachstellenerkennung verwendet werden, um die Sicherheit und Zuverlässigkeit von Verträgen zu verbessern.
Es ist offensichtlich, dass KI in verschiedenen Aspekten erheblich dazu beitragen kann, die Herausforderungen und potenziellen Verbesserungen in der Web3-Branche zu bewältigen.
Die Kombination von KI- und Web3-Projekten konzentriert sich in erster Linie auf zwei Hauptaspekte: die Nutzung der Blockchain-Technologie zur Verbesserung von KI-Projekten und die Nutzung der KI-Technologie zur Verbesserung von Web3-Projekten. Auf diesem Weg sind zahlreiche Projekte entstanden, darunter Io.net, Gensyn, Ritual und andere. Die folgende Analyse befasst sich mit verschiedenen Teilbereichen, in denen KI Web3 unterstützt und in denen Web3 KI verbessert.
3.1.1 Dezentralisierte Rechenleistung
Seit der Einführung von ChatGPT durch OpenAI Ende 2022 hat es einen Rausch im KI-Bereich entfacht. Innerhalb von fünf Tagen nach der Veröffentlichung erreichte die Nutzerbasis eine Million und übertraf damit die Downloadrate von Instagram, das etwa zweieinhalb Monate brauchte, um den gleichen Meilenstein zu erreichen. In der Folge erlebte ChatGPT ein rasantes Wachstum, wobei die monatlich aktiven Nutzer innerhalb von zwei Monaten 100 Millionen und die wöchentlich aktiven Nutzer bis November 2023 100 Millionen erreichten. Mit dem Aufkommen von ChatGPT hat sich der KI-Sektor schnell von einem Nischenbereich zu einer hoch angesehenen Branche entwickelt.
Laut dem Bericht von Trendforce benötigt ChatGPT 30.000 NVIDIA A100-GPUs, um zu funktionieren, und zukünftige Modelle wie GPT-5 werden noch mehr Rechenleistung benötigen. Dies hat ein Wettrüsten zwischen verschiedenen KI-Unternehmen ausgelöst, da der Besitz einer ausreichenden Rechenleistung entscheidend ist, um einen Wettbewerbsvorteil in der KI-Arena zu erhalten, was zu einem Mangel an GPUs führt.
Vor dem Aufstieg von KI bediente der große GPU-Anbieter NVIDIA hauptsächlich Kunden aus den drei großen Cloud-Diensten: AWS, Azure und GCP. Mit dem Aufstieg der künstlichen Intelligenz tauchten zahlreiche neue Käufer auf, darunter große Technologieunternehmen wie Meta, Oracle sowie andere Datenplattformen und KI-Startups, die sich alle dem Rennen um die Bevorratung von GPUs für das Training von KI-Modellen anschlossen. Große Tech-Unternehmen wie Meta und Tesla haben ihre Käufe von maßgeschneiderten KI-Modellen und interner Forschung deutlich erhöht. Basic-Model-Unternehmen wie Anthropic und Datenplattformen wie Snowflake und Databricks kauften auch mehr GPUs, um ihre Kunden bei der Bereitstellung von KI-Diensten zu unterstützen.
Wie von Semi Analysis im letzten Jahr erwähnt, gibt es eine Kluft zwischen "GPU-reichen" und "GPU-armen" Unternehmen, wobei nur wenige über 20.000 A100/H100-GPUs verfügen, so dass Teammitglieder zwischen 100 und 1000 GPUs für Projekte nutzen können. Diese Unternehmen sind entweder Cloud-Anbieter oder haben ihre eigenen großen Sprachmodelle (LLMs) entwickelt, darunter OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral und andere.
Die Mehrheit der Unternehmen fällt jedoch in die Kategorie "GPU schlecht", kämpft mit deutlich weniger GPUs und investiert viel Zeit und Mühe in Aufgaben, die schwieriger sind, das Ökosystem voranzubringen. Darüber hinaus ist diese Situation nicht auf Startups beschränkt. Einige der bekanntesten KI-Unternehmen wie Hugging Face, Databricks (MosaicML), Together und sogar Snowflake haben A100/H100-Mengen von weniger als 20.000. Obwohl diese Unternehmen über technische Talente von Weltklasse verfügen, sind sie durch das begrenzte GPU-Angebot eingeschränkt, was sie im Vergleich zu größeren Unternehmen im KI-Wettbewerb benachteiligt.
Dieser Mangel beschränkt sich nicht nur auf die Kategorie "GPU schlecht"; selbst bis Ende 2023 musste der führende KI-Akteur OpenAI bezahlte Registrierungen vorübergehend schließen, da er nicht in der Lage war, genügend GPUs zu erhalten und mehr GPU-Vorräte zu beschaffen.
Es ist offensichtlich, dass die rasante Entwicklung der KI zu einem ernsthaften Missverhältnis zwischen Nachfrage und Angebot von GPUs geführt hat, was zu einer drohenden Angebotsknappheit geführt hat.
Um dieses Problem anzugehen, haben einige Web3-Projekte begonnen, dezentrale Rechenleistungslösungen zu erforschen, die die einzigartigen Eigenschaften der Web3-Technologie nutzen. Zu diesen Projekten gehören unter anderem Akash, Render und Gensyn. Das gemeinsame Merkmal dieser Projekte ist die Verwendung von Token, um Benutzern Anreize zu bieten, ungenutzte GPU-Rechenleistung bereitzustellen und dadurch zur Angebotsseite der Rechenleistung für die Unterstützung von KI-Clients zu werden.
Das Angebotsprofil besteht hauptsächlich aus drei Aspekten: Cloud-Service-Provider, Kryptowährungs-Miner und Unternehmen. Zu den Cloud-Service-Anbietern gehören große Cloud-Service-Provider (wie AWS, Azure, GCP) und GPU-Cloud-Service-Provider (wie Coreweave, Lambda, Crusoe), bei denen Benutzer ungenutzte Rechenleistung dieser Anbieter weiterverkaufen können, um Einnahmen zu generieren. Mit dem Übergang von Ethereum von PoW zu PoS ist ungenutzte GPU-Rechenleistung zu einer wichtigen potenziellen Angebotsseite für Kryptowährungs-Miner geworden. Darüber hinaus können auch große Unternehmen wie Tesla und Meta, die große Mengen an GPUs für strategische Zwecke gekauft haben, ihre ungenutzte GPU-Rechenleistung als Teil der Angebotsseite einbringen.
Derzeit lassen sich die Akteure in diesem Bereich im Allgemeinen in zwei Kategorien einteilen: diejenigen, die dezentrale Rechenleistung für die KI-Inferenz nutzen, und diejenigen, die sie für das KI-Training nutzen. Die erste Kategorie umfasst Projekte wie Render (obwohl es sich auf das Rendering konzentriert, kann es auch für KI-Computing verwendet werden), Akash, Aethir, während die zweite Kategorie Projekte wie io.net (die sowohl Inferenz als auch Training unterstützen) und Gensyn umfasst. Der Hauptunterschied zwischen den beiden liegt in den unterschiedlichen Anforderungen an die Rechenleistung.
Lassen Sie uns zunächst die Projekte besprechen, die sich auf KI-Inferenz konzentrieren. Diese Projekte ziehen Nutzer an, um Rechenleistung durch Token-Anreize bereitzustellen und dann Rechenleistungs-Netzwerkdienste für die Nachfrageseite bereitzustellen, wodurch das Matching von Angebot und Nachfrage bei ungenutzter Rechenleistung erleichtert wird. Details zu solchen Projekten finden Sie in einem Forschungsbericht von DePIN aus unseren Ryze Labs, lesen Sie sie gerne.
Der Kernpunkt liegt im Token-Incentive-Mechanismus, bei dem das Projekt zuerst Lieferanten und dann Nutzer anzieht und dadurch den Kaltstart- und Kernbetriebsmechanismus des Projekts erreicht, was eine weitere Expansion und Entwicklung ermöglicht. In diesem Zyklus erhält die Angebotsseite wertvollere Token-Belohnungen, während die Nachfrageseite kostengünstigere Dienstleistungen genießt. Der Wert der Token des Projekts und das Wachstum sowohl der Angebots- als auch der Nachfrageteilnehmer bleiben konstant. Wenn der Token-Preis steigt, werden mehr Teilnehmer und Spekulanten angezogen, wodurch eine Werterfassungsschleife entsteht.
Eine weitere Kategorie ist die Nutzung dezentraler Rechenleistung für das KI-Training, wie z. B. Gensyn und io.net (die sowohl KI-Training als auch Inferenz Unterstützung). Tatsächlich unterscheidet sich die operative Logik dieser Projekte nicht grundlegend von KI-Inferenzprojekten. Sie sind immer noch auf symbolische Anreize angewiesen, um die Teilnahme von der Angebotsseite anzuziehen, um Rechenleistung bereitzustellen, die dann von der Nachfrageseite genutzt wird.
io.net verfügt als dezentrales Rechenleistungsnetzwerk derzeit über mehr als 500.000 GPUs und ist damit ein herausragender Leistungsträger bei dezentralen Rechenleistungsprojekten. Darüber hinaus hat es die Rechenleistung von Render und Filecoin integriert, was die kontinuierliche Entwicklung seines Ökosystems demonstriert.
Darüber hinaus erleichtert Gensyn die Zuweisung von Aufgaben und Belohnungen für maschinelles Lernen durch Smart Contracts, um KI-Training zu ermöglichen. Wie im folgenden Diagramm dargestellt, betragen die stündlichen Kosten für Machine Learning-Schulungen in Gensyn etwa 0,4 US-Dollar, was deutlich niedriger ist als die Kosten von über 2 US-Dollar auf AWS und GCP.
Das Gensyn-Ökosystem umfasst vier teilnehmende Einheiten:
Wie wir sehen können, zielt Gensyn darauf ab, ein massiv skalierbares und kostengünstiges Protokoll für globale Deep-Learning-Modelle zu werden. Wenn man sich jedoch dieses Feld ansieht, warum entscheiden sich die meisten Projekte für dezentrale Rechenleistung für die KI-Inferenz und nicht für das Training?
Lassen Sie uns auch Freunden helfen, die mit KI-Training und -Inferenz nicht vertraut sind, den Unterschied zwischen den beiden zu verstehen:
Es zeigt sich, dass sich die Anforderungen an die Rechenleistung sowohl für die KI-Inferenz als auch für das KI-Training deutlich unterscheiden. Die Verfügbarkeit von dezentraler Rechenleistung für KI-Inferenz und KI-Training wird im kommenden Challenge-Abschnitt weiter analysiert.
Darüber hinaus zielt Ritual darauf ab, verteilte Netzwerke mit Modellerstellern zu kombinieren, um Dezentralisierung und Sicherheit zu gewährleisten. Sein erstes Produkt, Infernet, ermöglicht Smart Contracts auf der Blockchain den Zugriff auf KI-Modelle off-chain, so dass solche Verträge auf KI zugreifen können, um Verifizierung, Dezentralisierung und Datenschutz zu gewährleisten.
Der Koordinator von Infernet ist dafür verantwortlich, das Verhalten der Knoten im Netzwerk zu verwalten und auf Rechenanforderungen von Verbrauchern zu reagieren. Wenn Benutzer Infernet verwenden, werden Aufgaben wie Inferenz und Beweis off-chain durchgeführt, wobei die Ausgabe an den Koordinator zurückgegeben und schließlich über Smart Contracts an die Verbraucher on-chain übertragen wird.
Neben dezentralen Rechenleistungsnetzen gibt es auch dezentrale Bandbreitennetze wie Grass, die darauf abzielen, die Geschwindigkeit und Effizienz der Datenübertragung zu verbessern. Insgesamt bietet das Aufkommen dezentraler Rechenleistungsnetzwerke eine neue Möglichkeit für die Angebotsseite von KI-Rechenleistung, die KI in neue Richtungen treibt.
3.1.2 Dezentrales Algorithmusmodell
Wie im zweiten Kapitel erwähnt, sind die drei Kernelemente der KI Rechenleistung, Algorithmen und Daten. Da Rechenleistung durch Dezentralisierung ein Versorgungsnetzwerk bilden kann, können Algorithmen dann auch einen ähnlichen Ansatz verfolgen und ein Versorgungsnetzwerk für Algorithmenmodelle bilden?
Bevor wir Projekte in diesem Bereich analysieren, sollten wir zunächst die Bedeutung von dezentralen Algorithmusmodellen verstehen. Viele Leute fragen sich vielleicht, warum wir ein dezentrales Algorithmus-Netzwerk brauchen, da wir bereits OpenAI haben.
Im Wesentlichen handelt es sich bei einem dezentralen Algorithmus-Netzwerk um einen dezentralen KI-Algorithmus-Service-Marktplatz, der viele verschiedene KI-Modelle miteinander verbindet. Jedes KI-Modell hat seine eigenen Expertisen und Fähigkeiten. Wenn Benutzer Fragen stellen, wählt der Marktplatz das am besten geeignete KI-Modell aus, um die Frage zu beantworten. Chat-GPT, entwickelt von OpenAI, ist ein solches KI-Modell, das ähnlich wie Menschen Texte verstehen und generieren kann.
Einfach ausgedrückt ist ChatGPT wie ein hochbegabter Schüler, der hilft, verschiedene Arten von Problemen zu lösen, während ein dezentrales Algorithmus-Netzwerk wie eine Schule ist, in der viele Schüler helfen, Probleme zu lösen. Obwohl der derzeitige Schüler (ChatGPT) sehr leistungsfähig ist, gibt es auf Long ein großes Potenzial für eine Schule, die Schüler aus der ganzen Welt rekrutieren kann.
Derzeit gibt es im Bereich der dezentralen Algorithmenmodelle auch einige Projekte, die experimentieren und erforschen. Als nächstes werden wir das repräsentative Projekt Bittensor als Fallstudie verwenden, um die Entwicklung dieses Nischenfeldes zu verstehen.
In Bittensor trägt die Angebotsseite von Algorithmusmodellen (oder Minern) ihre Machine-Learning-Modelle zum Netzwerk bei. Diese Modelle können Daten analysieren und Erkenntnisse liefern. Modellanbieter erhalten Kryptowährungs-Token, bekannt als TAO, als Belohnung für ihre Beiträge.
Um die Qualität der Antworten zu gewährleisten, verwendet Bittensor einen einzigartigen Konsensmechanismus, um einen Konsens über die beste Antwort zu erzielen. Wenn eine Frage gestellt wird, geben mehrere Modell-Miner Antworten. Dann beginnen Prüfer im Netzwerk zu arbeiten, um die beste Antwort zu ermitteln, die dann an den Benutzer zurückgesendet wird.
Der Token TAO im Bittensor-Ökosystem spielt während des gesamten Prozesses zwei Hauptrollen. Einerseits dient es als Anreiz für Miner, Algorithmusmodelle in das Netzwerk einzubringen. Auf der anderen Seite müssen Benutzer Token ausgeben, um Fragen zu stellen und das Netzwerk Aufgaben erledigen zu lassen.
Da Bittensor dezentralisiert ist, kann jeder mit Internetzugang dem Netzwerk beitreten, entweder als Benutzer, der Fragen stellt, oder als Miner, der Antworten gibt. Dies ermöglicht es mehr Menschen, die Macht der künstlichen Intelligenz zu nutzen.
Zusammenfassend lässt sich sagen, dass dezentrale Algorithmusmodellnetzwerke wie Bittensor das Potenzial haben, eine offenere und transparentere Landschaft zu schaffen. In diesem Ökosystem können KI-Modelle auf sichere und dezentrale Weise trainiert, geteilt und genutzt werden. Darüber hinaus versuchen andere Netzwerke wie BasedAI ähnliche Bestrebungen, mit dem faszinierenden Aspekt, Zero-Knowledge-Proofs (ZK) zum Schutz des interaktiven Datenschutzes im Benutzermodell zu verwenden, der im vierten Unterabschnitt näher erläutert wird.
Mit der Weiterentwicklung dezentraler Algorithmus-Modellplattformen werden sie es kleinen Unternehmen ermöglichen, mit großen Organisationen bei der Verwendung modernster KI-Tools zu konkurrieren, was möglicherweise erhebliche Auswirkungen auf verschiedene Branchen hat.
3.1.3 Dezentrale Datenerfassung
Für das Training von KI-Modellen ist ein großer Datenvorrat unabdingbar. Allerdings monopolisieren die meisten Web2-Unternehmen derzeit noch die Nutzerdaten. Plattformen wie X, Reddit, TikTok, Snapchat, Instagram und YouTube verbieten die Datenerfassung für das KI-Training, was ein erhebliches Hindernis für die Entwicklung der KI-Branche darstellt.
Auf der anderen Seite verkaufen einige Web2-Plattformen Nutzerdaten an KI-Unternehmen, ohne die Gewinne mit den Nutzern zu teilen. Zum Beispiel hat Reddit eine Vereinbarung über 60 Millionen US-Dollar mit Google getroffen, die es Google ermöglicht, KI-Modelle anhand seiner Beiträge zu trainieren. Dies führt dazu, dass die Datenerfassungsrechte von großen Kapital- und Big-Data-Unternehmen monopolisiert werden, was die Branche in eine kapitalintensive Richtung drängt.
Als Reaktion auf diese Situation nutzen einige Projekte Web3- und Token-Anreize, um eine dezentrale Datenerfassung zu erreichen. Nehmen wir PublicAI als Beispiel: Benutzer können in zwei Rollen teilnehmen:
Als Belohnung können die Nutzer durch diese Beiträge Token verdienen und so eine Win-Win-Beziehung zwischen den Datenlieferanten und der KI-Branche fördern.
Neben Projekten wie PublicAI, die gezielt Daten für das KI-Training sammeln, gibt es viele weitere Projekte, die Token-Anreize für die dezentrale Datenerfassung nutzen. Zum Beispiel sammelt Ocean Benutzerdaten durch Tokenisierung von Daten, um KI zu bedienen, Hivemapper verwendet die Autokameras der Benutzer, um Kartendaten zu sammeln, Dimo sammelt Autodaten und WiHi sammelt Wetterdaten. Diese Projekte dienen durch die dezentrale Datenerhebung auch als potenzielle Datenquellen für das KI-Training. Daher können sie im weitesten Sinne in das Paradigma des Web3 zur Unterstützung der KI einbezogen werden.
3.1.4 ZK schützt die Privatsphäre der Nutzer in KI
Die Blockchain-Technologie bietet Dezentralisierungsvorteile und führt auch ein entscheidendes Merkmal ein: Zero-Knowledge-Proofs. Die Zero-Knowledge-Technologie ermöglicht die Überprüfung von Informationen unter Wahrung der Privatsphäre.
Beim traditionellen maschinellen Lernen müssen Daten in der Regel zentral gespeichert und verarbeitet werden, was zu Datenschutzrisiken führen kann. Methoden zum Schutz des Datenschutzes, wie Verschlüsselung oder Datenanonymisierung, können die Genauigkeit und Leistung von Machine Learning-Modellen einschränken.
Zero-Knowledge-Proof-Technologie hilft, dieses Dilemma zu lösen, indem sie den Konflikt zwischen Datenschutz und Datenaustausch angeht. Zero-Knowledge Machine Learning (ZKML) verwendet Zero-Knowledge-Proof-Technologie, um das Training und die Inferenz von Machine Learning-Modellen zu ermöglichen, ohne die Originaldaten offenzulegen. Zero-Knowledge-Proofs stellen sicher, dass die Merkmale der Daten und die Ergebnisse des Modells als korrekt verifiziert werden können, ohne den tatsächlichen Dateninhalt preiszugeben.
Das Kernziel von ZKML ist es, den Schutz der Privatsphäre und die gemeinsame Nutzung von Daten in Einklang zu bringen. Es kann in verschiedenen Szenarien angewendet werden, z. B. bei der Analyse von Gesundheitsdaten, bei der Analyse von Finanzdaten und bei der organisationsübergreifenden Zusammenarbeit. Durch den Einsatz von ZKML können Einzelpersonen die Privatsphäre ihrer sensiblen Daten schützen und gleichzeitig Daten mit anderen teilen, um umfassendere Einblicke und Möglichkeiten der Zusammenarbeit zu erhalten, ohne das Risiko von Datenschutzverletzungen einzugehen. Dieses Feld befindet sich noch in einem frühen Stadium, da sich die meisten Projekte noch in der Exploration befinden. Zum Beispiel schlägt BasedAI einen dezentralen Ansatz vor, indem Fully Homomorphe Verschlüsselung (FHE) nahtlos in Large Language Models (LLMs) integriert wird, um die Vertraulichkeit der Daten zu wahren. Zero-Knowledge Large Language Models (ZK-LLMs) betten den Datenschutz in ihre verteilte Netzwerkinfrastruktur ein und stellen sicher, dass die Benutzerdaten während des gesamten Netzwerkbetriebs vertraulich bleiben.
Hier ist eine kurze Erklärung der vollständig homomorphen Verschlüsselung (FHE). FHE ist eine Verschlüsselungstechnik, mit der Verschlüsselung verschlüsselter Daten durchgeführt werden können, ohne sie entschlüsseln zu müssen. Das bedeutet, dass verschiedene mathematische Operationen (z. B. Addition, Multiplikation usw.), die an FHE-verschlüsselten Daten durchgeführt werden, zu den gleichen Ergebnissen führen, als ob sie an den ursprünglichen unverschlüsselten Daten durchgeführt würden, wodurch die Privatsphäre der Benutzer geschützt wird.
Zusätzlich zu den oben genannten Methoden unterstützt Web3 KI auch durch Projekte wie Cortex, das die On-Chain-Ausführung von KI-Programmen ermöglicht. Das Ausführen von Machine-Learning-Programmen auf herkömmlichen Blockchains steht vor einer Herausforderung, da virtuelle Maschinen bei der Ausführung von nicht-trivialen Machine-Learning-Modellen höchst ineffizient sind. Die meisten glauben, dass es unmöglich ist, KI auf der Blockchain laufen zu lassen. Die Cortex Virtuelle Maschine (CVM) nutzt jedoch GPUs, um KI-Programme on-chain auszuführen, und ist mit der virtuellen Maschine Ethereum (EVM) kompatibel. Mit anderen Worten, die Cortex-Chain kann alle Ethereum DApps ausführen und KI-maschinelles Lernen in diese DApps integrieren. Auf diese Weise können Modelle des maschinellen Lernens dezentral, unveränderlich und transparent ausgeführt werden, wobei der Netzwerkkonsens jeden Schritt der KI-Inferenz überprüft.
In der Kollision zwischen KI und Web3 verdient neben der Unterstützung von Web3 für die KI auch die Unterstützung der KI für die Web3-Branche Aufmerksamkeit. Der Kernbeitrag der künstlichen Intelligenz ist die Verbesserung der Produktivität, daher gibt es viele Versuche in der KI-Prüfung von Smart Contracts, Datenanalyse und -vorhersage, personalisierten Diensten, Sicherheit und Datenschutz usw.
3.2.1 Datenanalyse und Vorhersage
Viele Web3-Projekte integrieren bestehende KI-Dienste (wie ChatGPT) oder entwickeln ihre eigenen, um Datenanalyse- und Vorhersagedienste für Web3-Nutzer bereitzustellen. Diese Dienstleistungen decken ein breites Spektrum ab, darunter KI-Algorithmen für Anlagestrategien, On-Chain-Analysetools sowie Preis- und Marktprognosen.
Zum Beispiel verwendet Pond KI-Graph-Algorithmen, um wertvolle zukünftige Alpha-Token vorherzusagen, und bietet Nutzern und Institutionen Anlageberatungsdienste an. BullBear AI trainiert auf der Grundlage historischer Benutzerdaten, des Preisverlaufs und der Markttrends, um genaue Informationen zur Unterstützung von Preistrendvorhersagen bereitzustellen und den Benutzern zu helfen, Gewinne zu erzielen.
Plattformen wie Numerai veranstalten Anlagewettbewerbe, bei denen die Teilnehmer KI und große Sprachmodelle verwenden, um Aktienmärkte vorherzusagen. Sie trainieren Modelle mit qualitativ hochwertigen Daten, die von der Plattform bereitgestellt werden, und übermitteln tägliche Vorhersagen. Numerai wertet diese Vorhersagen im Laufe des folgenden Monats aus, und die Teilnehmer können Token auf ihren Modellen Staken' NMR, um Belohnungen basierend auf der Leistung zu erhalten.
Arkham, eine Blockchain-Datenanalyseplattform, integriert ebenfalls KI in ihre Dienste. Arkham verknüpft Blockchain-Adressen mit Entitäten wie Börsen, Fonds und Walen und zeigt wichtige Daten und Analysen an, um den Nutzern einen Entscheidungsvorteil zu verschaffen. Arkham Ultra gleicht Adressen mit realen Entitäten ab, indem es Algorithmen verwendet, die über drei Jahre hinweg mit Unterstützung von Palantir- und OpenAI-Gründern entwickelt wurden.
3.2.2 Personalisierte Dienste
KI-Anwendungen in der Suche und Empfehlung sind in Web2-Projekten weit verbreitet und bedienen die personalisierten Bedürfnisse der Nutzer. Web3-Projekte integrieren in ähnlicher Weise KI, um die Benutzererfahrung zu verbessern.
So hat die bekannte Datenanalyseplattform Dune kürzlich das Tool Wand vorgestellt, das große Sprachmodelle verwendet, um SQL-Abfragen zu schreiben. Mit Wand Create können Benutzer SQL-Abfragen aus Fragen in natürlicher Sprache generieren, was es für diejenigen, die mit SQL nicht vertraut sind, einfacher macht, Daten zu durchsuchen.
Content-Plattformen wie Followin integrieren ChatGPT, um Standpunkte und Aktualisierungen in bestimmten Sektoren zusammenzufassen. Die Web3-Enzyklopädie IQ.wiki zielt darauf ab, die primäre Quelle für objektives, qualitativ hochwertiges Wissen über Blockchain-Technologie und Kryptowährung zu sein. Es integriert GPT-4, um Wiki-Artikel zusammenzufassen und Blockchain-Informationen weltweit zugänglicher zu machen. Die LLM-basierte Suchmaschine Kaito hat sich zum Ziel gesetzt, das Web3 Information Retrieval zu revolutionieren.
Im kreativen Bereich reduzieren Projekte wie NFPrompt die Kosten für die Erstellung von Inhalten. NFPrompt ermöglicht es Nutzern, NFTs einfacher mit KI zu generieren und verschiedene personalisierte kreative Dienste anzubieten.
3.2.3 KI-Prüfung von Smart Contracts
Die Prüfung von Smart Contracts ist eine entscheidende Aufgabe im Web3, und KI kann die Effizienz und Genauigkeit bei der Identifizierung von Code-Schwachstellen verbessern.
Vitalik Buterin hat festgestellt, dass eine der größten Herausforderungen im Bereich der Kryptowährung Fehler in unserem Code sind. KI verspricht, den Einsatz von formalen Verifikationswerkzeugen zum Nachweis der Code-Korrektheit deutlich zu vereinfachen. Dies könnte zu einer nahezu fehlerfreien SEK EVM (Virtuelle Ethereum-Maschine) führen, die die Raumsicherheit erhöht, da weniger Fehler die Gesamtsicherheit erhöhen.
Das 0x0.ai-Projekt bietet beispielsweise einen KI-gestützten Smart-Contract-Auditor an. Dieses Tool verwendet fortschrittliche Algorithmen, um Smart Contracts zu analysieren und potenzielle Schwachstellen oder Probleme zu identifizieren, die zu Betrug oder anderen Sicherheitsrisiken führen könnten. Auditoren verwenden maschinelles Lernen, um Muster und Anomalien im Code zu erkennen und potenzielle Probleme zur weiteren Überprüfung zu kennzeichnen.
Es gibt andere native Fälle, in denen KI das Web3 unterstützt. PAAL hilft Benutzern, personalisierte KI-Bots zu erstellen, die auf Telegram und Discord eingesetzt werden können, um Web3-Benutzer zu bedienen. Der KI-gesteuerte Multi-Chain-DEX-Aggregator Hera nutzt KI, um die besten Handelspfade zwischen beliebigen Token-Paaren über verschiedene Token hinweg bereitzustellen. Insgesamt liegt der Beitrag der KI zum Web3 in erster Linie auf der Tool-Ebene und verbessert verschiedene Prozesse und Funktionalitäten.
Derzeit konzentrieren sich viele Web3-Projekte, die KI unterstützen, auf dezentrale Rechenleistung. Die Verwendung von Token-Anreizen, um globale Nutzer zu fördern, Teil der Rechenleistungsversorgung zu werden, ist eine sehr interessante Innovation. Auf der anderen Seite gibt es jedoch einige realistische Probleme, die angegangen werden müssen:
Im Vergleich zu zentralisierten Rechenleistungsanbietern sind dezentrale Rechenleistungsprodukte in der Regel auf Knoten und Teilnehmer angewiesen, die global verteilt sind, um Rechenressourcen bereitzustellen. Aufgrund möglicher Latenzzeiten und Instabilität bei Netzwerkverbindungen zwischen diesen Knoten können Leistung und Stabilität schlechter sein als zentralisierte Rechenleistungsprodukte.
Darüber hinaus wird die Verfügbarkeit von dezentralen Rechenleistungsprodukten durch den Grad des Matchings zwischen Angebot und Nachfrage beeinflusst. Wenn es nicht genügend Lieferanten gibt oder die Nachfrage zu hoch ist, kann dies zu einer Verknappung der Ressourcen oder zur Unfähigkeit führen, die Bedürfnisse der Benutzer zu erfüllen.
Schließlich beinhalten dezentrale Rechenleistungsprodukte im Vergleich zu zentralisierten Rechenleistungsprodukten in der Regel mehr technische Details und Komplexität. Benutzer müssen möglicherweise Aspekte von verteilten Netzwerken, Smart Contracts und Kryptowährungszahlungen verstehen und handhaben, was die Kosten für das Benutzerverständnis und die Nutzung erhöht.
Nach eingehenden Diskussionen mit zahlreichen dezentralen Rechenleistungs-Projektteams wurde festgestellt, dass sich die derzeitige dezentrale Rechenleistung immer noch hauptsächlich auf KI-Inferenz und nicht auf KI-Training beschränkt.
Als Nächstes werde ich vier Fragen verwenden, um jedem zu helfen, die Gründe dafür zu verstehen:
Warum entscheiden sich die meisten dezentralen Rechenleistungsprojekte für KI-Inferenz anstelle von KI-Training?
Was macht NVIDIA so leistungsstark? Was sind die Gründe dafür, dass ein dezentrales Rechenleistungstraining schwierig ist?
Was wird das Endspiel für dezentrale Rechenleistung (Render, Akash, io.net usw. sein)?
Was wird das Endspiel für dezentrale Algorithmen (Bittensor) sein?
Gehen wir Schritt für Schritt auf die Details ein:
1) In diesem Bereich konzentrieren sich die meisten dezentralen Rechenleistungsprojekte eher auf KI-Inferenz als auf Training, vor allem aufgrund unterschiedlicher Anforderungen an Rechenleistung und Bandbreite.
Um allen zu helfen, sie besser zu verstehen, vergleichen wir KI mit einem Schüler:
KI-Training: Wenn wir künstliche Intelligenz mit einem Studenten vergleichen, ähnelt das Training der Bereitstellung einer großen Menge an Wissen und Beispielen, ähnlich dem, was wir oft als Daten bezeichnen. Aus diesen Beispielen lernt die KI. Da es beim Lernen darum geht, große Mengen an Informationen zu verstehen und auswendig zu lernen, erfordert dieser Prozess erhebliche Rechenleistung und Zeit.
KI-Inferenz: Unter Inferenz kann man verstehen, dass man das erworbene Wissen nutzt, um Probleme zu lösen oder Prüfungen abzulegen. Während der Inferenz nutzt die KI das erlernte Wissen, um Fragen zu beantworten, anstatt neue Informationen zu erwerben, daher sind die Rechenanforderungen relativ geringer.
Es ist leicht zu erkennen, dass der grundlegende Schwierigkeitsunterschied darin liegt, dass das Training von KI-Großmodellen enorme Datenmengen und eine extrem hohe Bandbreite für die Datenübertragung erfordert, was es mit dezentraler Rechenleistung sehr schwierig macht, dies zu erreichen. Im Gegensatz dazu erfordert die Inferenz viel weniger Daten und Bandbreite, was sie praktikabler macht.
Bei großen Modellen ist die Stabilität entscheidend. Wenn das Training unterbrochen wird, muss es neu gestartet werden, was zu hohen versunkenen Kosten führt. Auf der anderen Seite können Anforderungen mit relativ geringerem Rechenleistungsbedarf erreicht werden, wie z. B. KI-Inferenz oder bestimmte spezifische Szenarien mit mittlerem bis kleinem Modelltraining. In dezentralen Rechenleistungsnetzwerken können einige relativ große Knotendienstanbieter diese relativ hohen Anforderungen an die Rechenleistung erfüllen.
2) Wo liegen also die Engpässe bei Daten und Bandbreite? Warum ist dezentrales Training so schwer zu erreichen?
Dabei geht es um zwei Schlüsselelemente des Trainings großer Modelle: Rechenleistung mit einer Karte und Parallelität mit mehreren Karten.
Single-Card-Rechenleistung: Derzeit können alle Zentren, die ein großes Modelltraining erfordern, sogenannte Supercomputing-Zentren, mit dem menschlichen Körper verglichen werden, wobei die zugrunde liegende Einheit, die GPU, wie eine Zelle ist. Wenn die Rechenleistung einer einzelnen Zelle (GPU) stark ist, dann kann auch die gesamte Rechenleistung (einzelne Zelle × Menge) sehr stark sein.
Parallelität mehrerer Karten: Das Trainieren eines großen Modells umfasst häufig Hunderte von Milliarden Gigabyte. Für Supercomputing-Zentren, die große Modelle trainieren, sind mindestens Zehntausende von A100-GPUs erforderlich. Dies erfordert die Mobilisierung von Tausenden von Karten für das Training. Das Trainieren eines großen Modells ist jedoch kein einfacher serieller Prozess. Es trainiert nicht einfach auf der ersten A100-Karte und wechselt dann zur zweiten. Stattdessen werden verschiedene Teile des Modells gleichzeitig auf verschiedenen GPUs trainiert, und für das Training von Teil A sind möglicherweise Ergebnisse aus Teil B erforderlich, der eine parallele Verarbeitung umfasst.
Die Dominanz und der steigende Marktwert von NVIDIA, während AMD und heimische Unternehmen wie Huawei und Horizon Schwierigkeiten haben, aufzuholen, sind auf zwei Aspekte zurückzuführen: die CUDA-Softwareumgebung und die NVLink-Multi-Card-Kommunikation.
CUDA-Softwareumgebung: Ob es ein Software-Ökosystem gibt, das zur Hardware passt, ist entscheidend, wie z. B. das CUDA-System von NVIDIA. Der Aufbau eines neuen Systems ist eine Herausforderung, vergleichbar mit der Erstellung einer neuen Sprache mit hohen Wiederbeschaffungskosten.
NVLink-Multi-Card-Kommunikation: Im Wesentlichen umfasst die Multi-Card-Kommunikation die Ein- und Ausgabe von Informationen. Die Parallelisierung und Übertragung ist entscheidend. Das Vorhandensein von NVLink bedeutet, dass NVIDIA- und AMD-Karten nicht kommunizieren können. Darüber hinaus begrenzt NVLink die physische Distanz zwischen GPUs, sodass sie sich im selben Supercomputing-Zentrum befinden müssen. Dies macht es für dezentrale Rechenleistung, die über den ganzen Globus verteilt ist, schwierig, einen zusammenhängenden Rechencluster für das Training großer Modelle zu bilden.
Der erste Punkt erklärt, warum AMD und einheimische Unternehmen wie Huawei und Horizon Schwierigkeiten haben, aufzuholen; der zweite Punkt erklärt, warum dezentrales Training schwer zu erreichen ist.
3) Was wird das Endspiel für dezentrale Rechenleistung sein? Die dezentrale Rechenleistung hat derzeit Schwierigkeiten mit dem Training großer Modelle, da Stabilität von größter Bedeutung ist. Unterbrechungen erfordern eine Umschulung, was zu hohen versunkenen Kosten führt. Die hohen Anforderungen an die Parallelität mehrerer Karten werden durch physische Bandbreitenbeschränkungen begrenzt. NVIDIAs NVLink ermöglicht die Kommunikation mit mehreren Karten, aber innerhalb eines Supercomputing-Zentrums begrenzt NVLink den physischen Abstand zwischen den GPUs. Daher kann verteilte Rechenleistung keinen Rechencluster für das Training großer Modelle bilden.
Für Anforderungen mit relativ geringerem Rechenleistungsbedarf, wie z. B. KI-Inferenz oder bestimmte spezifische Szenarien, die mittleres bis kleines Modelltraining erfordern, haben jedoch dezentrale Rechenleistungsnetze mit einigen relativ großen Knotendienstanbietern Potenzial. Darüber hinaus sind Szenarien wie Edge Computing für das Rendering relativ einfach zu implementieren.
4) Was wird das Endspiel für dezentrale Algorithmusmodelle sein? Die Zukunft dezentraler Algorithmenmodelle hängt von der letztendlichen Richtung der KI ab. Ich glaube, dass die Zukunft der KI 1-2 Closed-Source-Modellgiganten (wie ChatGPT) neben einer Fülle von Modellen aufweisen könnte. In diesem Zusammenhang müssen Produkte der Anwendungsschicht nicht an ein einzelnes großes Modell gebunden werden, sondern kooperieren mit mehreren großen Modellen. In diesem Szenario zeigt das Modell von Bittensor ein erhebliches Potenzial.
In aktuellen Projekten, die Web3 und KI kombinieren, insbesondere solchen, in denen KI Web3-Initiativen unterstützt, nutzen die meisten Projekte KI nur oberflächlich, ohne eine tiefe Integration zwischen KI und Kryptowährungen nachzuweisen. Diese oberflächliche Anwendung zeigt sich in den folgenden zwei Aspekten:
Obwohl aktuelle Web3- und KI-Projekte diese Einschränkungen aufweisen, sollten wir uns darüber im Klaren sein, dass dies nur ein frühes Stadium der Entwicklung ist. In Zukunft können wir mit eingehenderer Forschung und Innovation rechnen, um eine engere Integration zwischen KI und Kryptowährungen zu erreichen und nativere und sinnvollere Lösungen in Bereichen wie Finanzen, dezentrale autonome Organisationen (DAOs), Prognosemärkte und NFTs zu schaffen.
Wie eingangs erwähnt, stehen KI-Projekte vor Herausforderungen in ihren Geschäftsmodellen, zumal immer mehr große Modelle nach und nach Open Source werden. Viele AI + Web3-Projekte, oft reine KI-Projekte, die darum kämpfen, im Web2-Bereich zu gedeihen und die Finanzierung zu sichern, entscheiden sich dafür, Erzählungen und Token-Ökonomie aus dem Web3 zu überlagern, um die Teilnahme der Benutzer zu fördern.
Die entscheidende Frage ist jedoch, ob die Integration der Token-Ökonomie KI-Projekten wirklich hilft, reale Bedürfnisse zu erfüllen, oder ob sie nur als Erzählung oder Short langfristiges Wertversprechen dient. Derzeit sind die meisten AI + Web3-Projekte noch weit davon entfernt, ein praktisches Stadium zu erreichen. Es ist zu hoffen, dass geerdetere und nachdenklichere Teams Token nicht nur als Mittel nutzen, um KI-Projekte zu hypen, sondern auch echte praktische Anwendungsfälle erfüllen.
Aktuell sind zahlreiche Fälle und Anwendungen in AI + Web3 Projekten aufgetaucht. Erstens kann die KI-Technologie effizientere und intelligentere Anwendungsfälle für Web3 bieten. Durch die Fähigkeiten der KI bei der Datenanalyse und -vorhersage können Benutzer im Web3 bessere Werkzeuge für Investitionsentscheidungen und andere Szenarien haben. Darüber hinaus kann KI den Code von Smart Contracts prüfen, die Vertragsausführung optimieren und die Leistung und Effizienz der Blockchain verbessern. Darüber hinaus kann die KI-Technologie präzisere und intelligentere Empfehlungen und personalisierte Dienste für dezentrale Anwendungen anbieten und so die Benutzererfahrung verbessern.
Gleichzeitig bietet die dezentrale und programmierbare Natur des Web3 auch neue Möglichkeiten für die KI-Technologie. Durch Token-Anreize bieten dezentrale Rechenleistungsprojekte neue Lösungen für das Dilemma der unzureichenden KI-Rechenleistung. Die Smart Contracts und verteilten Speichermechanismen des Web3 bieten auch einen breiteren Raum und Ressourcen für die gemeinsame Nutzung und das Training von KI-Algorithmen. Die Benutzerautonomie und die Vertrauensmechanismen des Web3 bieten auch neue Möglichkeiten für die KI-Entwicklung, die es den Nutzern ermöglichen, sich autonom für die Teilnahme an der Datenfreigabe und dem Training zu entscheiden, wodurch die Vielfalt und Qualität der Daten erhöht und die Leistung und Genauigkeit von KI-Modellen weiter verbessert wird.
Obwohl aktuelle AI + Web3 Cross-Over-Projekte noch in den Kinderschuhen stecken und vor vielen Herausforderungen stehen, bringen sie auch viele Vorteile mit sich. Zum Beispiel haben dezentrale Rechenleistungsprodukte einige Nachteile, aber sie verringern die Abhängigkeit von zentralisierten Institutionen, bieten mehr Transparenz und Überprüfbarkeit und ermöglichen eine breitere Beteiligung und Innovation. Für bestimmte Anwendungsfälle und Benutzerbedürfnisse können dezentrale Rechenleistungsprodukte eine wertvolle Wahl sein. Gleiches gilt für die Datenerhebung; Dezentrale Datenerhebungsprojekte bieten Vorteile, wie z. B. die Verringerung der Abhängigkeit von einzelnen Datenquellen, die Bereitstellung einer breiteren Datenabdeckung und die Förderung von Datenvielfalt und Inklusivität. In der Praxis ist es notwendig, diese Vor- und Nachteile abzuwägen und geeignete Management- und technische Maßnahmen zu ergreifen, um Herausforderungen zu bewältigen und sicherzustellen, dass sich dezentrale Datenerhebungsprojekte positiv auf die KI-Entwicklung auswirken.
Insgesamt bietet die Integration von KI + Web3 unendliche Möglichkeiten für zukünftige technologische Innovationen und wirtschaftliche Entwicklung. Durch die Kombination der intelligenten Analyse- und Entscheidungsfähigkeiten der KI mit der dezentralen und nutzerautonomen Natur des Web3 können wir ein intelligenteres, offeneres und gerechteres Wirtschafts- und sogar Sozialsystem aufbauen.
In den letzten Jahren hat die rasante Entwicklung von Künstlicher Intelligenz (KI) und Web3-Technologien weltweit große Aufmerksamkeit erregt. KI, eine Technologie, die menschliche Intelligenz simuliert und nachahmt, hat in Bereichen wie Gesichtserkennung, Verarbeitung natürlicher Sprache und maschinellem Lernen bedeutende Durchbrüche erzielt. Die rasante Weiterentwicklung der KI-Technologie hat in verschiedenen Branchen enorme Veränderungen und Innovationen mit sich gebracht.
Die KI-Branche erreichte im Jahr 2023 eine Marktgröße von 200 Milliarden US-Dollar, wobei Branchenriesen und prominente Akteure wie OpenAI, Character.AI und Midjourney schnell auftauchten und den KI-Boom führend
.Gleichzeitig verändert Web3, ein aufstrebendes Internetmodell, allmählich unsere Wahrnehmung und Nutzung des Internets. Basierend auf der dezentralen Blockchain-Technologie realisiert Web3 die gemeinsame Nutzung und Kontrolle von Daten, die Autonomie der Benutzer und die Einrichtung von Vertrauensmechanismen durch Funktionen wie Smart Contracts, verteilte Speicherung und dezentrale Identitätsprüfung. Die Kernidee des Web3 besteht darin, Daten von zentralisierten Behörden zu befreien und den Nutzern die Kontrolle über und die Möglichkeit zu geben, den Wert ihrer Daten zu teilen.
Derzeit hat der Marktwert der Web3-Branche 25 Billionen US-Dollar erreicht. Von Bitcoin, Ethereum und Solana bis hin zu Akteuren auf Anwendungsebene wie Uniswap und Stepn entstehen ständig neue Erzählungen und Szenarien, die immer mehr Menschen dazu bringen, sich der Web3-Branche anzuschließen.
Es ist offensichtlich, dass die Integration von KI und Web3 ein Schwerpunkt für Bauherren und Risikokapitalgeber aus Ost und West ist. Zu erforschen, wie diese beiden Technologien effektiv kombiniert werden können, ist ein sehr lohnendes Unterfangen.
Dieser Artikel konzentriert sich auf den aktuellen Stand der KI+Web3-Entwicklung und untersucht den potenziellen Wert und die Auswirkungen ihrer Integration. Wir werden zunächst die grundlegenden Konzepte und Eigenschaften von KI und Web3 vorstellen und dann deren Wechselbeziehung diskutieren. Im Anschluss daran werden wir den aktuellen Stand von KI+Web3-Projekten analysieren und uns mit den Einschränkungen und Herausforderungen befassen, mit denen sie konfrontiert sind. Mit dieser Recherche wollen wir Investoren und Branchenexperten wertvolle Referenzen und Erkenntnisse liefern.
Die Entwicklung von KI und Web3 kann als zwei Seiten einer Skala betrachtet werden: KI bringt Produktivitätssteigerungen, während Web3 Produktionsbeziehungen revolutioniert. Welche Art von Funken können KI und Web3 erzeugen, wenn sie aufeinanderprallen? Wir werden zunächst die Herausforderungen und potenziellen Verbesserungen in der KI- und Web3-Branche analysieren und dann untersuchen, wie sie dazu beitragen können, die Probleme des jeweils anderen zu lösen.
Um die Herausforderungen zu untersuchen, mit denen die KI-Branche konfrontiert ist, müssen wir zunächst ihr Wesen verstehen. Der Kern der KI-Industrie dreht sich um drei Schlüsselelemente: Rechenleistung, Algorithmen und Daten.
Nachdem wir die drei Kernelemente der aktuellen KI verstanden haben, wollen wir die Schwierigkeiten und Herausforderungen untersuchen, mit denen KI in diesen Bereichen konfrontiert ist.
Erstens erfordern KI-Aufgaben in Bezug auf die Rechenleistung in der Regel eine große Menge an Rechenressourcen für das Modelltraining und die Inferenz, insbesondere für Deep-Learning-Modelle. Die Beschaffung und Verwaltung von Rechenleistung in großem Maßstab ist jedoch eine teure und komplexe Herausforderung. Die Kosten, der Energieverbrauch und die Wartung von Hochleistungscomputern sind wichtige Themen. Dies ist besonders für Startups und einzelne Entwickler eine Herausforderung, für die es schwierig sein kann, ausreichend Rechenleistung zu beschaffen.
In Bezug auf Algorithmen gibt es trotz der erheblichen Erfolge von Deep-Learning-Algorithmen in vielen Bereichen immer noch Herausforderungen und Schwierigkeiten. Zum Beispiel erfordert das Training tiefer neuronaler Netze eine große Menge an Daten- und Rechenressourcen. Darüber hinaus kann die Interpretierbarkeit und Erklärbarkeit von Modellen für bestimmte Aufgaben unzureichend sein. Die Robustheit und Generalisierungsfähigkeit von Algorithmen sind ebenfalls von entscheidender Bedeutung, da die Modellleistung bei unsichtbaren Daten instabil sein kann. Den besten Algorithmus zu finden, um eine optimale Leistung unter vielen Algorithmen zu erzielen, ist eine fortlaufende Untersuchung.
In Bezug auf Daten sind Daten die treibende Kraft hinter KI, aber es bleibt eine Herausforderung, qualitativ hochwertige, vielfältige Daten zu erhalten. In einigen Bereichen, wie z. B. sensiblen Gesundheitsdaten im medizinischen Bereich, kann es schwierig sein, Daten zu erhalten. Darüber hinaus sind die Qualität, Genauigkeit und Kennzeichnung von Daten von entscheidender Bedeutung, da unvollständige oder verzerrte Daten zu fehlerhaftem Modellverhalten oder Verzerrungen führen können. Der Schutz des Datenschutzes und der Datensicherheit ist ebenfalls ein wichtiger Aspekt.
Darüber hinaus gibt es Probleme im Zusammenhang mit der Interpretierbarkeit und Transparenz. Der "Black-Box"-Charakter von KI-Modellen ist ein öffentliches Anliegen. In bestimmten Anwendungen, wie z. B. im Finanzwesen, im Gesundheitswesen und in der Justiz, muss der Entscheidungsprozess von Modellen interpretierbar und nachvollziehbar sein. Bestehenden Deep-Learning-Modellen mangelt es jedoch oft an Transparenz. Den Entscheidungsprozess von Modellen zu erklären und verlässliche Erklärungen zu liefern, bleibt eine Herausforderung.
Hinzu kommt, dass die Geschäftsmodelle vieler KI-Startup-Projekte nicht sehr klar sind, was bei vielen KI-Unternehmern ebenfalls für Verwirrung sorgt.
In der Web3-Branche gibt es zahlreiche Herausforderungen, die angegangen werden müssen, von der Datenanalyse und Benutzererfahrung bis hin zu Smart-Contract-Schwachstellen und Hackerangriffen. KI als Werkzeug zur Steigerung der Produktivität birgt in diesen Bereichen ein erhebliches Potenzial.
Erstens gibt es Raum für Verbesserungen bei der Datenanalyse und den Vorhersagefähigkeiten. KI-Anwendungen in der Datenanalyse und -vorhersage haben einen erheblichen Einfluss auf die Web3-Branche. Durch intelligente Analyse und Mining durch KI-Algorithmen können Web3-Plattformen wertvolle Informationen aus riesigen Datenmengen extrahieren und genauere Vorhersagen und Entscheidungen treffen. Dies ist besonders wichtig für die Risikobewertung, Marktprognose und Vermögensverwaltung im dezentralen Finanzwesen (DeFi).
Darüber hinaus besteht das Potenzial, die Benutzererfahrung und die Personalisierungsdienste zu verbessern. KI-Anwendungen ermöglichen es Web3-Plattformen, bessere Benutzererlebnisse und personalisierte Dienste anzubieten. Durch die Analyse und Modellierung von Benutzerdaten können Web3-Plattformen personalisierte Empfehlungen, maßgeschneiderte Dienste und intelligente Interaktionserlebnisse bereitstellen. Dies trägt dazu bei, das Engagement und die Zufriedenheit der Nutzer zu erhöhen und die Entwicklung des Web3-Ökosystems zu fördern. Zum Beispiel integrieren viele Web3-Protokolle KI-Tools wie ChatGPT, um den Nutzern einen besseren Service zu bieten.
In Bezug auf Sicherheit und Datenschutz haben KI-Anwendungen auch tiefgreifende Auswirkungen auf die Web3-Branche. KI-Technologie kann eingesetzt werden, um Netzwerkangriffe zu erkennen und abzuwehren, abnormales Verhalten zu erkennen und stärkere Sicherheitsmaßnahmen bereitzustellen. Darüber hinaus kann KI auf den Datenschutz angewendet werden, indem die persönlichen Daten der Benutzer auf Web3-Plattformen durch Techniken wie Verschlüsselung und Privacy Computing geschützt werden. In Bezug auf die Prüfung von Smart Contracts, da Schwachstellen und Sicherheitsrisiken in den Schreib- und Prüfungsprozessen von Smart Contracts bestehen können, kann die KI-Technologie für die automatisierte Vertragsprüfung und Schwachstellenerkennung verwendet werden, um die Sicherheit und Zuverlässigkeit von Verträgen zu verbessern.
Es ist offensichtlich, dass KI in verschiedenen Aspekten erheblich dazu beitragen kann, die Herausforderungen und potenziellen Verbesserungen in der Web3-Branche zu bewältigen.
Die Kombination von KI- und Web3-Projekten konzentriert sich in erster Linie auf zwei Hauptaspekte: die Nutzung der Blockchain-Technologie zur Verbesserung von KI-Projekten und die Nutzung der KI-Technologie zur Verbesserung von Web3-Projekten. Auf diesem Weg sind zahlreiche Projekte entstanden, darunter Io.net, Gensyn, Ritual und andere. Die folgende Analyse befasst sich mit verschiedenen Teilbereichen, in denen KI Web3 unterstützt und in denen Web3 KI verbessert.
3.1.1 Dezentralisierte Rechenleistung
Seit der Einführung von ChatGPT durch OpenAI Ende 2022 hat es einen Rausch im KI-Bereich entfacht. Innerhalb von fünf Tagen nach der Veröffentlichung erreichte die Nutzerbasis eine Million und übertraf damit die Downloadrate von Instagram, das etwa zweieinhalb Monate brauchte, um den gleichen Meilenstein zu erreichen. In der Folge erlebte ChatGPT ein rasantes Wachstum, wobei die monatlich aktiven Nutzer innerhalb von zwei Monaten 100 Millionen und die wöchentlich aktiven Nutzer bis November 2023 100 Millionen erreichten. Mit dem Aufkommen von ChatGPT hat sich der KI-Sektor schnell von einem Nischenbereich zu einer hoch angesehenen Branche entwickelt.
Laut dem Bericht von Trendforce benötigt ChatGPT 30.000 NVIDIA A100-GPUs, um zu funktionieren, und zukünftige Modelle wie GPT-5 werden noch mehr Rechenleistung benötigen. Dies hat ein Wettrüsten zwischen verschiedenen KI-Unternehmen ausgelöst, da der Besitz einer ausreichenden Rechenleistung entscheidend ist, um einen Wettbewerbsvorteil in der KI-Arena zu erhalten, was zu einem Mangel an GPUs führt.
Vor dem Aufstieg von KI bediente der große GPU-Anbieter NVIDIA hauptsächlich Kunden aus den drei großen Cloud-Diensten: AWS, Azure und GCP. Mit dem Aufstieg der künstlichen Intelligenz tauchten zahlreiche neue Käufer auf, darunter große Technologieunternehmen wie Meta, Oracle sowie andere Datenplattformen und KI-Startups, die sich alle dem Rennen um die Bevorratung von GPUs für das Training von KI-Modellen anschlossen. Große Tech-Unternehmen wie Meta und Tesla haben ihre Käufe von maßgeschneiderten KI-Modellen und interner Forschung deutlich erhöht. Basic-Model-Unternehmen wie Anthropic und Datenplattformen wie Snowflake und Databricks kauften auch mehr GPUs, um ihre Kunden bei der Bereitstellung von KI-Diensten zu unterstützen.
Wie von Semi Analysis im letzten Jahr erwähnt, gibt es eine Kluft zwischen "GPU-reichen" und "GPU-armen" Unternehmen, wobei nur wenige über 20.000 A100/H100-GPUs verfügen, so dass Teammitglieder zwischen 100 und 1000 GPUs für Projekte nutzen können. Diese Unternehmen sind entweder Cloud-Anbieter oder haben ihre eigenen großen Sprachmodelle (LLMs) entwickelt, darunter OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral und andere.
Die Mehrheit der Unternehmen fällt jedoch in die Kategorie "GPU schlecht", kämpft mit deutlich weniger GPUs und investiert viel Zeit und Mühe in Aufgaben, die schwieriger sind, das Ökosystem voranzubringen. Darüber hinaus ist diese Situation nicht auf Startups beschränkt. Einige der bekanntesten KI-Unternehmen wie Hugging Face, Databricks (MosaicML), Together und sogar Snowflake haben A100/H100-Mengen von weniger als 20.000. Obwohl diese Unternehmen über technische Talente von Weltklasse verfügen, sind sie durch das begrenzte GPU-Angebot eingeschränkt, was sie im Vergleich zu größeren Unternehmen im KI-Wettbewerb benachteiligt.
Dieser Mangel beschränkt sich nicht nur auf die Kategorie "GPU schlecht"; selbst bis Ende 2023 musste der führende KI-Akteur OpenAI bezahlte Registrierungen vorübergehend schließen, da er nicht in der Lage war, genügend GPUs zu erhalten und mehr GPU-Vorräte zu beschaffen.
Es ist offensichtlich, dass die rasante Entwicklung der KI zu einem ernsthaften Missverhältnis zwischen Nachfrage und Angebot von GPUs geführt hat, was zu einer drohenden Angebotsknappheit geführt hat.
Um dieses Problem anzugehen, haben einige Web3-Projekte begonnen, dezentrale Rechenleistungslösungen zu erforschen, die die einzigartigen Eigenschaften der Web3-Technologie nutzen. Zu diesen Projekten gehören unter anderem Akash, Render und Gensyn. Das gemeinsame Merkmal dieser Projekte ist die Verwendung von Token, um Benutzern Anreize zu bieten, ungenutzte GPU-Rechenleistung bereitzustellen und dadurch zur Angebotsseite der Rechenleistung für die Unterstützung von KI-Clients zu werden.
Das Angebotsprofil besteht hauptsächlich aus drei Aspekten: Cloud-Service-Provider, Kryptowährungs-Miner und Unternehmen. Zu den Cloud-Service-Anbietern gehören große Cloud-Service-Provider (wie AWS, Azure, GCP) und GPU-Cloud-Service-Provider (wie Coreweave, Lambda, Crusoe), bei denen Benutzer ungenutzte Rechenleistung dieser Anbieter weiterverkaufen können, um Einnahmen zu generieren. Mit dem Übergang von Ethereum von PoW zu PoS ist ungenutzte GPU-Rechenleistung zu einer wichtigen potenziellen Angebotsseite für Kryptowährungs-Miner geworden. Darüber hinaus können auch große Unternehmen wie Tesla und Meta, die große Mengen an GPUs für strategische Zwecke gekauft haben, ihre ungenutzte GPU-Rechenleistung als Teil der Angebotsseite einbringen.
Derzeit lassen sich die Akteure in diesem Bereich im Allgemeinen in zwei Kategorien einteilen: diejenigen, die dezentrale Rechenleistung für die KI-Inferenz nutzen, und diejenigen, die sie für das KI-Training nutzen. Die erste Kategorie umfasst Projekte wie Render (obwohl es sich auf das Rendering konzentriert, kann es auch für KI-Computing verwendet werden), Akash, Aethir, während die zweite Kategorie Projekte wie io.net (die sowohl Inferenz als auch Training unterstützen) und Gensyn umfasst. Der Hauptunterschied zwischen den beiden liegt in den unterschiedlichen Anforderungen an die Rechenleistung.
Lassen Sie uns zunächst die Projekte besprechen, die sich auf KI-Inferenz konzentrieren. Diese Projekte ziehen Nutzer an, um Rechenleistung durch Token-Anreize bereitzustellen und dann Rechenleistungs-Netzwerkdienste für die Nachfrageseite bereitzustellen, wodurch das Matching von Angebot und Nachfrage bei ungenutzter Rechenleistung erleichtert wird. Details zu solchen Projekten finden Sie in einem Forschungsbericht von DePIN aus unseren Ryze Labs, lesen Sie sie gerne.
Der Kernpunkt liegt im Token-Incentive-Mechanismus, bei dem das Projekt zuerst Lieferanten und dann Nutzer anzieht und dadurch den Kaltstart- und Kernbetriebsmechanismus des Projekts erreicht, was eine weitere Expansion und Entwicklung ermöglicht. In diesem Zyklus erhält die Angebotsseite wertvollere Token-Belohnungen, während die Nachfrageseite kostengünstigere Dienstleistungen genießt. Der Wert der Token des Projekts und das Wachstum sowohl der Angebots- als auch der Nachfrageteilnehmer bleiben konstant. Wenn der Token-Preis steigt, werden mehr Teilnehmer und Spekulanten angezogen, wodurch eine Werterfassungsschleife entsteht.
Eine weitere Kategorie ist die Nutzung dezentraler Rechenleistung für das KI-Training, wie z. B. Gensyn und io.net (die sowohl KI-Training als auch Inferenz Unterstützung). Tatsächlich unterscheidet sich die operative Logik dieser Projekte nicht grundlegend von KI-Inferenzprojekten. Sie sind immer noch auf symbolische Anreize angewiesen, um die Teilnahme von der Angebotsseite anzuziehen, um Rechenleistung bereitzustellen, die dann von der Nachfrageseite genutzt wird.
io.net verfügt als dezentrales Rechenleistungsnetzwerk derzeit über mehr als 500.000 GPUs und ist damit ein herausragender Leistungsträger bei dezentralen Rechenleistungsprojekten. Darüber hinaus hat es die Rechenleistung von Render und Filecoin integriert, was die kontinuierliche Entwicklung seines Ökosystems demonstriert.
Darüber hinaus erleichtert Gensyn die Zuweisung von Aufgaben und Belohnungen für maschinelles Lernen durch Smart Contracts, um KI-Training zu ermöglichen. Wie im folgenden Diagramm dargestellt, betragen die stündlichen Kosten für Machine Learning-Schulungen in Gensyn etwa 0,4 US-Dollar, was deutlich niedriger ist als die Kosten von über 2 US-Dollar auf AWS und GCP.
Das Gensyn-Ökosystem umfasst vier teilnehmende Einheiten:
Wie wir sehen können, zielt Gensyn darauf ab, ein massiv skalierbares und kostengünstiges Protokoll für globale Deep-Learning-Modelle zu werden. Wenn man sich jedoch dieses Feld ansieht, warum entscheiden sich die meisten Projekte für dezentrale Rechenleistung für die KI-Inferenz und nicht für das Training?
Lassen Sie uns auch Freunden helfen, die mit KI-Training und -Inferenz nicht vertraut sind, den Unterschied zwischen den beiden zu verstehen:
Es zeigt sich, dass sich die Anforderungen an die Rechenleistung sowohl für die KI-Inferenz als auch für das KI-Training deutlich unterscheiden. Die Verfügbarkeit von dezentraler Rechenleistung für KI-Inferenz und KI-Training wird im kommenden Challenge-Abschnitt weiter analysiert.
Darüber hinaus zielt Ritual darauf ab, verteilte Netzwerke mit Modellerstellern zu kombinieren, um Dezentralisierung und Sicherheit zu gewährleisten. Sein erstes Produkt, Infernet, ermöglicht Smart Contracts auf der Blockchain den Zugriff auf KI-Modelle off-chain, so dass solche Verträge auf KI zugreifen können, um Verifizierung, Dezentralisierung und Datenschutz zu gewährleisten.
Der Koordinator von Infernet ist dafür verantwortlich, das Verhalten der Knoten im Netzwerk zu verwalten und auf Rechenanforderungen von Verbrauchern zu reagieren. Wenn Benutzer Infernet verwenden, werden Aufgaben wie Inferenz und Beweis off-chain durchgeführt, wobei die Ausgabe an den Koordinator zurückgegeben und schließlich über Smart Contracts an die Verbraucher on-chain übertragen wird.
Neben dezentralen Rechenleistungsnetzen gibt es auch dezentrale Bandbreitennetze wie Grass, die darauf abzielen, die Geschwindigkeit und Effizienz der Datenübertragung zu verbessern. Insgesamt bietet das Aufkommen dezentraler Rechenleistungsnetzwerke eine neue Möglichkeit für die Angebotsseite von KI-Rechenleistung, die KI in neue Richtungen treibt.
3.1.2 Dezentrales Algorithmusmodell
Wie im zweiten Kapitel erwähnt, sind die drei Kernelemente der KI Rechenleistung, Algorithmen und Daten. Da Rechenleistung durch Dezentralisierung ein Versorgungsnetzwerk bilden kann, können Algorithmen dann auch einen ähnlichen Ansatz verfolgen und ein Versorgungsnetzwerk für Algorithmenmodelle bilden?
Bevor wir Projekte in diesem Bereich analysieren, sollten wir zunächst die Bedeutung von dezentralen Algorithmusmodellen verstehen. Viele Leute fragen sich vielleicht, warum wir ein dezentrales Algorithmus-Netzwerk brauchen, da wir bereits OpenAI haben.
Im Wesentlichen handelt es sich bei einem dezentralen Algorithmus-Netzwerk um einen dezentralen KI-Algorithmus-Service-Marktplatz, der viele verschiedene KI-Modelle miteinander verbindet. Jedes KI-Modell hat seine eigenen Expertisen und Fähigkeiten. Wenn Benutzer Fragen stellen, wählt der Marktplatz das am besten geeignete KI-Modell aus, um die Frage zu beantworten. Chat-GPT, entwickelt von OpenAI, ist ein solches KI-Modell, das ähnlich wie Menschen Texte verstehen und generieren kann.
Einfach ausgedrückt ist ChatGPT wie ein hochbegabter Schüler, der hilft, verschiedene Arten von Problemen zu lösen, während ein dezentrales Algorithmus-Netzwerk wie eine Schule ist, in der viele Schüler helfen, Probleme zu lösen. Obwohl der derzeitige Schüler (ChatGPT) sehr leistungsfähig ist, gibt es auf Long ein großes Potenzial für eine Schule, die Schüler aus der ganzen Welt rekrutieren kann.
Derzeit gibt es im Bereich der dezentralen Algorithmenmodelle auch einige Projekte, die experimentieren und erforschen. Als nächstes werden wir das repräsentative Projekt Bittensor als Fallstudie verwenden, um die Entwicklung dieses Nischenfeldes zu verstehen.
In Bittensor trägt die Angebotsseite von Algorithmusmodellen (oder Minern) ihre Machine-Learning-Modelle zum Netzwerk bei. Diese Modelle können Daten analysieren und Erkenntnisse liefern. Modellanbieter erhalten Kryptowährungs-Token, bekannt als TAO, als Belohnung für ihre Beiträge.
Um die Qualität der Antworten zu gewährleisten, verwendet Bittensor einen einzigartigen Konsensmechanismus, um einen Konsens über die beste Antwort zu erzielen. Wenn eine Frage gestellt wird, geben mehrere Modell-Miner Antworten. Dann beginnen Prüfer im Netzwerk zu arbeiten, um die beste Antwort zu ermitteln, die dann an den Benutzer zurückgesendet wird.
Der Token TAO im Bittensor-Ökosystem spielt während des gesamten Prozesses zwei Hauptrollen. Einerseits dient es als Anreiz für Miner, Algorithmusmodelle in das Netzwerk einzubringen. Auf der anderen Seite müssen Benutzer Token ausgeben, um Fragen zu stellen und das Netzwerk Aufgaben erledigen zu lassen.
Da Bittensor dezentralisiert ist, kann jeder mit Internetzugang dem Netzwerk beitreten, entweder als Benutzer, der Fragen stellt, oder als Miner, der Antworten gibt. Dies ermöglicht es mehr Menschen, die Macht der künstlichen Intelligenz zu nutzen.
Zusammenfassend lässt sich sagen, dass dezentrale Algorithmusmodellnetzwerke wie Bittensor das Potenzial haben, eine offenere und transparentere Landschaft zu schaffen. In diesem Ökosystem können KI-Modelle auf sichere und dezentrale Weise trainiert, geteilt und genutzt werden. Darüber hinaus versuchen andere Netzwerke wie BasedAI ähnliche Bestrebungen, mit dem faszinierenden Aspekt, Zero-Knowledge-Proofs (ZK) zum Schutz des interaktiven Datenschutzes im Benutzermodell zu verwenden, der im vierten Unterabschnitt näher erläutert wird.
Mit der Weiterentwicklung dezentraler Algorithmus-Modellplattformen werden sie es kleinen Unternehmen ermöglichen, mit großen Organisationen bei der Verwendung modernster KI-Tools zu konkurrieren, was möglicherweise erhebliche Auswirkungen auf verschiedene Branchen hat.
3.1.3 Dezentrale Datenerfassung
Für das Training von KI-Modellen ist ein großer Datenvorrat unabdingbar. Allerdings monopolisieren die meisten Web2-Unternehmen derzeit noch die Nutzerdaten. Plattformen wie X, Reddit, TikTok, Snapchat, Instagram und YouTube verbieten die Datenerfassung für das KI-Training, was ein erhebliches Hindernis für die Entwicklung der KI-Branche darstellt.
Auf der anderen Seite verkaufen einige Web2-Plattformen Nutzerdaten an KI-Unternehmen, ohne die Gewinne mit den Nutzern zu teilen. Zum Beispiel hat Reddit eine Vereinbarung über 60 Millionen US-Dollar mit Google getroffen, die es Google ermöglicht, KI-Modelle anhand seiner Beiträge zu trainieren. Dies führt dazu, dass die Datenerfassungsrechte von großen Kapital- und Big-Data-Unternehmen monopolisiert werden, was die Branche in eine kapitalintensive Richtung drängt.
Als Reaktion auf diese Situation nutzen einige Projekte Web3- und Token-Anreize, um eine dezentrale Datenerfassung zu erreichen. Nehmen wir PublicAI als Beispiel: Benutzer können in zwei Rollen teilnehmen:
Als Belohnung können die Nutzer durch diese Beiträge Token verdienen und so eine Win-Win-Beziehung zwischen den Datenlieferanten und der KI-Branche fördern.
Neben Projekten wie PublicAI, die gezielt Daten für das KI-Training sammeln, gibt es viele weitere Projekte, die Token-Anreize für die dezentrale Datenerfassung nutzen. Zum Beispiel sammelt Ocean Benutzerdaten durch Tokenisierung von Daten, um KI zu bedienen, Hivemapper verwendet die Autokameras der Benutzer, um Kartendaten zu sammeln, Dimo sammelt Autodaten und WiHi sammelt Wetterdaten. Diese Projekte dienen durch die dezentrale Datenerhebung auch als potenzielle Datenquellen für das KI-Training. Daher können sie im weitesten Sinne in das Paradigma des Web3 zur Unterstützung der KI einbezogen werden.
3.1.4 ZK schützt die Privatsphäre der Nutzer in KI
Die Blockchain-Technologie bietet Dezentralisierungsvorteile und führt auch ein entscheidendes Merkmal ein: Zero-Knowledge-Proofs. Die Zero-Knowledge-Technologie ermöglicht die Überprüfung von Informationen unter Wahrung der Privatsphäre.
Beim traditionellen maschinellen Lernen müssen Daten in der Regel zentral gespeichert und verarbeitet werden, was zu Datenschutzrisiken führen kann. Methoden zum Schutz des Datenschutzes, wie Verschlüsselung oder Datenanonymisierung, können die Genauigkeit und Leistung von Machine Learning-Modellen einschränken.
Zero-Knowledge-Proof-Technologie hilft, dieses Dilemma zu lösen, indem sie den Konflikt zwischen Datenschutz und Datenaustausch angeht. Zero-Knowledge Machine Learning (ZKML) verwendet Zero-Knowledge-Proof-Technologie, um das Training und die Inferenz von Machine Learning-Modellen zu ermöglichen, ohne die Originaldaten offenzulegen. Zero-Knowledge-Proofs stellen sicher, dass die Merkmale der Daten und die Ergebnisse des Modells als korrekt verifiziert werden können, ohne den tatsächlichen Dateninhalt preiszugeben.
Das Kernziel von ZKML ist es, den Schutz der Privatsphäre und die gemeinsame Nutzung von Daten in Einklang zu bringen. Es kann in verschiedenen Szenarien angewendet werden, z. B. bei der Analyse von Gesundheitsdaten, bei der Analyse von Finanzdaten und bei der organisationsübergreifenden Zusammenarbeit. Durch den Einsatz von ZKML können Einzelpersonen die Privatsphäre ihrer sensiblen Daten schützen und gleichzeitig Daten mit anderen teilen, um umfassendere Einblicke und Möglichkeiten der Zusammenarbeit zu erhalten, ohne das Risiko von Datenschutzverletzungen einzugehen. Dieses Feld befindet sich noch in einem frühen Stadium, da sich die meisten Projekte noch in der Exploration befinden. Zum Beispiel schlägt BasedAI einen dezentralen Ansatz vor, indem Fully Homomorphe Verschlüsselung (FHE) nahtlos in Large Language Models (LLMs) integriert wird, um die Vertraulichkeit der Daten zu wahren. Zero-Knowledge Large Language Models (ZK-LLMs) betten den Datenschutz in ihre verteilte Netzwerkinfrastruktur ein und stellen sicher, dass die Benutzerdaten während des gesamten Netzwerkbetriebs vertraulich bleiben.
Hier ist eine kurze Erklärung der vollständig homomorphen Verschlüsselung (FHE). FHE ist eine Verschlüsselungstechnik, mit der Verschlüsselung verschlüsselter Daten durchgeführt werden können, ohne sie entschlüsseln zu müssen. Das bedeutet, dass verschiedene mathematische Operationen (z. B. Addition, Multiplikation usw.), die an FHE-verschlüsselten Daten durchgeführt werden, zu den gleichen Ergebnissen führen, als ob sie an den ursprünglichen unverschlüsselten Daten durchgeführt würden, wodurch die Privatsphäre der Benutzer geschützt wird.
Zusätzlich zu den oben genannten Methoden unterstützt Web3 KI auch durch Projekte wie Cortex, das die On-Chain-Ausführung von KI-Programmen ermöglicht. Das Ausführen von Machine-Learning-Programmen auf herkömmlichen Blockchains steht vor einer Herausforderung, da virtuelle Maschinen bei der Ausführung von nicht-trivialen Machine-Learning-Modellen höchst ineffizient sind. Die meisten glauben, dass es unmöglich ist, KI auf der Blockchain laufen zu lassen. Die Cortex Virtuelle Maschine (CVM) nutzt jedoch GPUs, um KI-Programme on-chain auszuführen, und ist mit der virtuellen Maschine Ethereum (EVM) kompatibel. Mit anderen Worten, die Cortex-Chain kann alle Ethereum DApps ausführen und KI-maschinelles Lernen in diese DApps integrieren. Auf diese Weise können Modelle des maschinellen Lernens dezentral, unveränderlich und transparent ausgeführt werden, wobei der Netzwerkkonsens jeden Schritt der KI-Inferenz überprüft.
In der Kollision zwischen KI und Web3 verdient neben der Unterstützung von Web3 für die KI auch die Unterstützung der KI für die Web3-Branche Aufmerksamkeit. Der Kernbeitrag der künstlichen Intelligenz ist die Verbesserung der Produktivität, daher gibt es viele Versuche in der KI-Prüfung von Smart Contracts, Datenanalyse und -vorhersage, personalisierten Diensten, Sicherheit und Datenschutz usw.
3.2.1 Datenanalyse und Vorhersage
Viele Web3-Projekte integrieren bestehende KI-Dienste (wie ChatGPT) oder entwickeln ihre eigenen, um Datenanalyse- und Vorhersagedienste für Web3-Nutzer bereitzustellen. Diese Dienstleistungen decken ein breites Spektrum ab, darunter KI-Algorithmen für Anlagestrategien, On-Chain-Analysetools sowie Preis- und Marktprognosen.
Zum Beispiel verwendet Pond KI-Graph-Algorithmen, um wertvolle zukünftige Alpha-Token vorherzusagen, und bietet Nutzern und Institutionen Anlageberatungsdienste an. BullBear AI trainiert auf der Grundlage historischer Benutzerdaten, des Preisverlaufs und der Markttrends, um genaue Informationen zur Unterstützung von Preistrendvorhersagen bereitzustellen und den Benutzern zu helfen, Gewinne zu erzielen.
Plattformen wie Numerai veranstalten Anlagewettbewerbe, bei denen die Teilnehmer KI und große Sprachmodelle verwenden, um Aktienmärkte vorherzusagen. Sie trainieren Modelle mit qualitativ hochwertigen Daten, die von der Plattform bereitgestellt werden, und übermitteln tägliche Vorhersagen. Numerai wertet diese Vorhersagen im Laufe des folgenden Monats aus, und die Teilnehmer können Token auf ihren Modellen Staken' NMR, um Belohnungen basierend auf der Leistung zu erhalten.
Arkham, eine Blockchain-Datenanalyseplattform, integriert ebenfalls KI in ihre Dienste. Arkham verknüpft Blockchain-Adressen mit Entitäten wie Börsen, Fonds und Walen und zeigt wichtige Daten und Analysen an, um den Nutzern einen Entscheidungsvorteil zu verschaffen. Arkham Ultra gleicht Adressen mit realen Entitäten ab, indem es Algorithmen verwendet, die über drei Jahre hinweg mit Unterstützung von Palantir- und OpenAI-Gründern entwickelt wurden.
3.2.2 Personalisierte Dienste
KI-Anwendungen in der Suche und Empfehlung sind in Web2-Projekten weit verbreitet und bedienen die personalisierten Bedürfnisse der Nutzer. Web3-Projekte integrieren in ähnlicher Weise KI, um die Benutzererfahrung zu verbessern.
So hat die bekannte Datenanalyseplattform Dune kürzlich das Tool Wand vorgestellt, das große Sprachmodelle verwendet, um SQL-Abfragen zu schreiben. Mit Wand Create können Benutzer SQL-Abfragen aus Fragen in natürlicher Sprache generieren, was es für diejenigen, die mit SQL nicht vertraut sind, einfacher macht, Daten zu durchsuchen.
Content-Plattformen wie Followin integrieren ChatGPT, um Standpunkte und Aktualisierungen in bestimmten Sektoren zusammenzufassen. Die Web3-Enzyklopädie IQ.wiki zielt darauf ab, die primäre Quelle für objektives, qualitativ hochwertiges Wissen über Blockchain-Technologie und Kryptowährung zu sein. Es integriert GPT-4, um Wiki-Artikel zusammenzufassen und Blockchain-Informationen weltweit zugänglicher zu machen. Die LLM-basierte Suchmaschine Kaito hat sich zum Ziel gesetzt, das Web3 Information Retrieval zu revolutionieren.
Im kreativen Bereich reduzieren Projekte wie NFPrompt die Kosten für die Erstellung von Inhalten. NFPrompt ermöglicht es Nutzern, NFTs einfacher mit KI zu generieren und verschiedene personalisierte kreative Dienste anzubieten.
3.2.3 KI-Prüfung von Smart Contracts
Die Prüfung von Smart Contracts ist eine entscheidende Aufgabe im Web3, und KI kann die Effizienz und Genauigkeit bei der Identifizierung von Code-Schwachstellen verbessern.
Vitalik Buterin hat festgestellt, dass eine der größten Herausforderungen im Bereich der Kryptowährung Fehler in unserem Code sind. KI verspricht, den Einsatz von formalen Verifikationswerkzeugen zum Nachweis der Code-Korrektheit deutlich zu vereinfachen. Dies könnte zu einer nahezu fehlerfreien SEK EVM (Virtuelle Ethereum-Maschine) führen, die die Raumsicherheit erhöht, da weniger Fehler die Gesamtsicherheit erhöhen.
Das 0x0.ai-Projekt bietet beispielsweise einen KI-gestützten Smart-Contract-Auditor an. Dieses Tool verwendet fortschrittliche Algorithmen, um Smart Contracts zu analysieren und potenzielle Schwachstellen oder Probleme zu identifizieren, die zu Betrug oder anderen Sicherheitsrisiken führen könnten. Auditoren verwenden maschinelles Lernen, um Muster und Anomalien im Code zu erkennen und potenzielle Probleme zur weiteren Überprüfung zu kennzeichnen.
Es gibt andere native Fälle, in denen KI das Web3 unterstützt. PAAL hilft Benutzern, personalisierte KI-Bots zu erstellen, die auf Telegram und Discord eingesetzt werden können, um Web3-Benutzer zu bedienen. Der KI-gesteuerte Multi-Chain-DEX-Aggregator Hera nutzt KI, um die besten Handelspfade zwischen beliebigen Token-Paaren über verschiedene Token hinweg bereitzustellen. Insgesamt liegt der Beitrag der KI zum Web3 in erster Linie auf der Tool-Ebene und verbessert verschiedene Prozesse und Funktionalitäten.
Derzeit konzentrieren sich viele Web3-Projekte, die KI unterstützen, auf dezentrale Rechenleistung. Die Verwendung von Token-Anreizen, um globale Nutzer zu fördern, Teil der Rechenleistungsversorgung zu werden, ist eine sehr interessante Innovation. Auf der anderen Seite gibt es jedoch einige realistische Probleme, die angegangen werden müssen:
Im Vergleich zu zentralisierten Rechenleistungsanbietern sind dezentrale Rechenleistungsprodukte in der Regel auf Knoten und Teilnehmer angewiesen, die global verteilt sind, um Rechenressourcen bereitzustellen. Aufgrund möglicher Latenzzeiten und Instabilität bei Netzwerkverbindungen zwischen diesen Knoten können Leistung und Stabilität schlechter sein als zentralisierte Rechenleistungsprodukte.
Darüber hinaus wird die Verfügbarkeit von dezentralen Rechenleistungsprodukten durch den Grad des Matchings zwischen Angebot und Nachfrage beeinflusst. Wenn es nicht genügend Lieferanten gibt oder die Nachfrage zu hoch ist, kann dies zu einer Verknappung der Ressourcen oder zur Unfähigkeit führen, die Bedürfnisse der Benutzer zu erfüllen.
Schließlich beinhalten dezentrale Rechenleistungsprodukte im Vergleich zu zentralisierten Rechenleistungsprodukten in der Regel mehr technische Details und Komplexität. Benutzer müssen möglicherweise Aspekte von verteilten Netzwerken, Smart Contracts und Kryptowährungszahlungen verstehen und handhaben, was die Kosten für das Benutzerverständnis und die Nutzung erhöht.
Nach eingehenden Diskussionen mit zahlreichen dezentralen Rechenleistungs-Projektteams wurde festgestellt, dass sich die derzeitige dezentrale Rechenleistung immer noch hauptsächlich auf KI-Inferenz und nicht auf KI-Training beschränkt.
Als Nächstes werde ich vier Fragen verwenden, um jedem zu helfen, die Gründe dafür zu verstehen:
Warum entscheiden sich die meisten dezentralen Rechenleistungsprojekte für KI-Inferenz anstelle von KI-Training?
Was macht NVIDIA so leistungsstark? Was sind die Gründe dafür, dass ein dezentrales Rechenleistungstraining schwierig ist?
Was wird das Endspiel für dezentrale Rechenleistung (Render, Akash, io.net usw. sein)?
Was wird das Endspiel für dezentrale Algorithmen (Bittensor) sein?
Gehen wir Schritt für Schritt auf die Details ein:
1) In diesem Bereich konzentrieren sich die meisten dezentralen Rechenleistungsprojekte eher auf KI-Inferenz als auf Training, vor allem aufgrund unterschiedlicher Anforderungen an Rechenleistung und Bandbreite.
Um allen zu helfen, sie besser zu verstehen, vergleichen wir KI mit einem Schüler:
KI-Training: Wenn wir künstliche Intelligenz mit einem Studenten vergleichen, ähnelt das Training der Bereitstellung einer großen Menge an Wissen und Beispielen, ähnlich dem, was wir oft als Daten bezeichnen. Aus diesen Beispielen lernt die KI. Da es beim Lernen darum geht, große Mengen an Informationen zu verstehen und auswendig zu lernen, erfordert dieser Prozess erhebliche Rechenleistung und Zeit.
KI-Inferenz: Unter Inferenz kann man verstehen, dass man das erworbene Wissen nutzt, um Probleme zu lösen oder Prüfungen abzulegen. Während der Inferenz nutzt die KI das erlernte Wissen, um Fragen zu beantworten, anstatt neue Informationen zu erwerben, daher sind die Rechenanforderungen relativ geringer.
Es ist leicht zu erkennen, dass der grundlegende Schwierigkeitsunterschied darin liegt, dass das Training von KI-Großmodellen enorme Datenmengen und eine extrem hohe Bandbreite für die Datenübertragung erfordert, was es mit dezentraler Rechenleistung sehr schwierig macht, dies zu erreichen. Im Gegensatz dazu erfordert die Inferenz viel weniger Daten und Bandbreite, was sie praktikabler macht.
Bei großen Modellen ist die Stabilität entscheidend. Wenn das Training unterbrochen wird, muss es neu gestartet werden, was zu hohen versunkenen Kosten führt. Auf der anderen Seite können Anforderungen mit relativ geringerem Rechenleistungsbedarf erreicht werden, wie z. B. KI-Inferenz oder bestimmte spezifische Szenarien mit mittlerem bis kleinem Modelltraining. In dezentralen Rechenleistungsnetzwerken können einige relativ große Knotendienstanbieter diese relativ hohen Anforderungen an die Rechenleistung erfüllen.
2) Wo liegen also die Engpässe bei Daten und Bandbreite? Warum ist dezentrales Training so schwer zu erreichen?
Dabei geht es um zwei Schlüsselelemente des Trainings großer Modelle: Rechenleistung mit einer Karte und Parallelität mit mehreren Karten.
Single-Card-Rechenleistung: Derzeit können alle Zentren, die ein großes Modelltraining erfordern, sogenannte Supercomputing-Zentren, mit dem menschlichen Körper verglichen werden, wobei die zugrunde liegende Einheit, die GPU, wie eine Zelle ist. Wenn die Rechenleistung einer einzelnen Zelle (GPU) stark ist, dann kann auch die gesamte Rechenleistung (einzelne Zelle × Menge) sehr stark sein.
Parallelität mehrerer Karten: Das Trainieren eines großen Modells umfasst häufig Hunderte von Milliarden Gigabyte. Für Supercomputing-Zentren, die große Modelle trainieren, sind mindestens Zehntausende von A100-GPUs erforderlich. Dies erfordert die Mobilisierung von Tausenden von Karten für das Training. Das Trainieren eines großen Modells ist jedoch kein einfacher serieller Prozess. Es trainiert nicht einfach auf der ersten A100-Karte und wechselt dann zur zweiten. Stattdessen werden verschiedene Teile des Modells gleichzeitig auf verschiedenen GPUs trainiert, und für das Training von Teil A sind möglicherweise Ergebnisse aus Teil B erforderlich, der eine parallele Verarbeitung umfasst.
Die Dominanz und der steigende Marktwert von NVIDIA, während AMD und heimische Unternehmen wie Huawei und Horizon Schwierigkeiten haben, aufzuholen, sind auf zwei Aspekte zurückzuführen: die CUDA-Softwareumgebung und die NVLink-Multi-Card-Kommunikation.
CUDA-Softwareumgebung: Ob es ein Software-Ökosystem gibt, das zur Hardware passt, ist entscheidend, wie z. B. das CUDA-System von NVIDIA. Der Aufbau eines neuen Systems ist eine Herausforderung, vergleichbar mit der Erstellung einer neuen Sprache mit hohen Wiederbeschaffungskosten.
NVLink-Multi-Card-Kommunikation: Im Wesentlichen umfasst die Multi-Card-Kommunikation die Ein- und Ausgabe von Informationen. Die Parallelisierung und Übertragung ist entscheidend. Das Vorhandensein von NVLink bedeutet, dass NVIDIA- und AMD-Karten nicht kommunizieren können. Darüber hinaus begrenzt NVLink die physische Distanz zwischen GPUs, sodass sie sich im selben Supercomputing-Zentrum befinden müssen. Dies macht es für dezentrale Rechenleistung, die über den ganzen Globus verteilt ist, schwierig, einen zusammenhängenden Rechencluster für das Training großer Modelle zu bilden.
Der erste Punkt erklärt, warum AMD und einheimische Unternehmen wie Huawei und Horizon Schwierigkeiten haben, aufzuholen; der zweite Punkt erklärt, warum dezentrales Training schwer zu erreichen ist.
3) Was wird das Endspiel für dezentrale Rechenleistung sein? Die dezentrale Rechenleistung hat derzeit Schwierigkeiten mit dem Training großer Modelle, da Stabilität von größter Bedeutung ist. Unterbrechungen erfordern eine Umschulung, was zu hohen versunkenen Kosten führt. Die hohen Anforderungen an die Parallelität mehrerer Karten werden durch physische Bandbreitenbeschränkungen begrenzt. NVIDIAs NVLink ermöglicht die Kommunikation mit mehreren Karten, aber innerhalb eines Supercomputing-Zentrums begrenzt NVLink den physischen Abstand zwischen den GPUs. Daher kann verteilte Rechenleistung keinen Rechencluster für das Training großer Modelle bilden.
Für Anforderungen mit relativ geringerem Rechenleistungsbedarf, wie z. B. KI-Inferenz oder bestimmte spezifische Szenarien, die mittleres bis kleines Modelltraining erfordern, haben jedoch dezentrale Rechenleistungsnetze mit einigen relativ großen Knotendienstanbietern Potenzial. Darüber hinaus sind Szenarien wie Edge Computing für das Rendering relativ einfach zu implementieren.
4) Was wird das Endspiel für dezentrale Algorithmusmodelle sein? Die Zukunft dezentraler Algorithmenmodelle hängt von der letztendlichen Richtung der KI ab. Ich glaube, dass die Zukunft der KI 1-2 Closed-Source-Modellgiganten (wie ChatGPT) neben einer Fülle von Modellen aufweisen könnte. In diesem Zusammenhang müssen Produkte der Anwendungsschicht nicht an ein einzelnes großes Modell gebunden werden, sondern kooperieren mit mehreren großen Modellen. In diesem Szenario zeigt das Modell von Bittensor ein erhebliches Potenzial.
In aktuellen Projekten, die Web3 und KI kombinieren, insbesondere solchen, in denen KI Web3-Initiativen unterstützt, nutzen die meisten Projekte KI nur oberflächlich, ohne eine tiefe Integration zwischen KI und Kryptowährungen nachzuweisen. Diese oberflächliche Anwendung zeigt sich in den folgenden zwei Aspekten:
Obwohl aktuelle Web3- und KI-Projekte diese Einschränkungen aufweisen, sollten wir uns darüber im Klaren sein, dass dies nur ein frühes Stadium der Entwicklung ist. In Zukunft können wir mit eingehenderer Forschung und Innovation rechnen, um eine engere Integration zwischen KI und Kryptowährungen zu erreichen und nativere und sinnvollere Lösungen in Bereichen wie Finanzen, dezentrale autonome Organisationen (DAOs), Prognosemärkte und NFTs zu schaffen.
Wie eingangs erwähnt, stehen KI-Projekte vor Herausforderungen in ihren Geschäftsmodellen, zumal immer mehr große Modelle nach und nach Open Source werden. Viele AI + Web3-Projekte, oft reine KI-Projekte, die darum kämpfen, im Web2-Bereich zu gedeihen und die Finanzierung zu sichern, entscheiden sich dafür, Erzählungen und Token-Ökonomie aus dem Web3 zu überlagern, um die Teilnahme der Benutzer zu fördern.
Die entscheidende Frage ist jedoch, ob die Integration der Token-Ökonomie KI-Projekten wirklich hilft, reale Bedürfnisse zu erfüllen, oder ob sie nur als Erzählung oder Short langfristiges Wertversprechen dient. Derzeit sind die meisten AI + Web3-Projekte noch weit davon entfernt, ein praktisches Stadium zu erreichen. Es ist zu hoffen, dass geerdetere und nachdenklichere Teams Token nicht nur als Mittel nutzen, um KI-Projekte zu hypen, sondern auch echte praktische Anwendungsfälle erfüllen.
Aktuell sind zahlreiche Fälle und Anwendungen in AI + Web3 Projekten aufgetaucht. Erstens kann die KI-Technologie effizientere und intelligentere Anwendungsfälle für Web3 bieten. Durch die Fähigkeiten der KI bei der Datenanalyse und -vorhersage können Benutzer im Web3 bessere Werkzeuge für Investitionsentscheidungen und andere Szenarien haben. Darüber hinaus kann KI den Code von Smart Contracts prüfen, die Vertragsausführung optimieren und die Leistung und Effizienz der Blockchain verbessern. Darüber hinaus kann die KI-Technologie präzisere und intelligentere Empfehlungen und personalisierte Dienste für dezentrale Anwendungen anbieten und so die Benutzererfahrung verbessern.
Gleichzeitig bietet die dezentrale und programmierbare Natur des Web3 auch neue Möglichkeiten für die KI-Technologie. Durch Token-Anreize bieten dezentrale Rechenleistungsprojekte neue Lösungen für das Dilemma der unzureichenden KI-Rechenleistung. Die Smart Contracts und verteilten Speichermechanismen des Web3 bieten auch einen breiteren Raum und Ressourcen für die gemeinsame Nutzung und das Training von KI-Algorithmen. Die Benutzerautonomie und die Vertrauensmechanismen des Web3 bieten auch neue Möglichkeiten für die KI-Entwicklung, die es den Nutzern ermöglichen, sich autonom für die Teilnahme an der Datenfreigabe und dem Training zu entscheiden, wodurch die Vielfalt und Qualität der Daten erhöht und die Leistung und Genauigkeit von KI-Modellen weiter verbessert wird.
Obwohl aktuelle AI + Web3 Cross-Over-Projekte noch in den Kinderschuhen stecken und vor vielen Herausforderungen stehen, bringen sie auch viele Vorteile mit sich. Zum Beispiel haben dezentrale Rechenleistungsprodukte einige Nachteile, aber sie verringern die Abhängigkeit von zentralisierten Institutionen, bieten mehr Transparenz und Überprüfbarkeit und ermöglichen eine breitere Beteiligung und Innovation. Für bestimmte Anwendungsfälle und Benutzerbedürfnisse können dezentrale Rechenleistungsprodukte eine wertvolle Wahl sein. Gleiches gilt für die Datenerhebung; Dezentrale Datenerhebungsprojekte bieten Vorteile, wie z. B. die Verringerung der Abhängigkeit von einzelnen Datenquellen, die Bereitstellung einer breiteren Datenabdeckung und die Förderung von Datenvielfalt und Inklusivität. In der Praxis ist es notwendig, diese Vor- und Nachteile abzuwägen und geeignete Management- und technische Maßnahmen zu ergreifen, um Herausforderungen zu bewältigen und sicherzustellen, dass sich dezentrale Datenerhebungsprojekte positiv auf die KI-Entwicklung auswirken.
Insgesamt bietet die Integration von KI + Web3 unendliche Möglichkeiten für zukünftige technologische Innovationen und wirtschaftliche Entwicklung. Durch die Kombination der intelligenten Analyse- und Entscheidungsfähigkeiten der KI mit der dezentralen und nutzerautonomen Natur des Web3 können wir ein intelligenteres, offeneres und gerechteres Wirtschafts- und sogar Sozialsystem aufbauen.