Weiterleiten des Originaltitels: DeAI komprimiert
Da Krypto im Wesentlichen Open-Source-Software mit eingebauten finanziellen Anreizen ist - und KI die Art und Weise disruptiert, wie Software geschrieben wird - liegt es nahe, dass KI einen massiven Einfluss auf den Blockchain-Bereich im gesamten Stapel haben wird.
Für mich liegen die größten Herausforderungen für DeAI auf der Infrastrukturebene, angesichts der Kapitalintensität beim Aufbau von grundlegenden Modellen und der Skaleneffekte bei Daten und Berechnungen.
Angesichts der Skalierungsgesetze hat Big Tech einen ausgeprägten Vorteil: Sie nutzen ihre gigantischen Kriegskassen aus Monopolgewinnen, um die Nachfrage der Verbraucher in der zweiten Generation des Internets zu aggregieren und sie während eines Jahrzehnts künstlich niedriger Zinssätze in Cloud-Infrastruktur zu investieren. Die Hyperscaler versuchen nun, den Markt für Intelligenz zu erobern, indem sie Daten und Berechnungen - die Schlüsselzutaten für KI - monopolisieren.
Aufgrund der Kapitalintensität und der hohen Bandbreitenanforderungen großer Trainingseinheiten sind einheitliche Supercluster immer noch optimal - sie bieten Big Tech die leistungsstärksten Modelle - geschlossene Quellen - die sie zu oligopolähnlichen Margen vermieten möchten, wobei sie die Erlöse in jeder nachfolgenden Generation reinvestieren.
Die Gräben in der KI haben sich jedoch als flacher erwiesen als die Netzwerkeffekte von Web2, wobei führende Frontmodelle im Vergleich zum Feld schnell an Wert verlieren, insbesondere mit Meta, das „verbrannte Erde“ betreibt und Milliarden von Dollar in Open-Source-Frontmodelle wie Llama 3.1 mit SOTA-Level-Leistung investiert.
Dies, zusammen mitaufkommende ForschungBei Low-Latency-dezentralen Schulungsmethoden kann (teilweise) die Kommodifizierung von Vorreiter-Geschäftsmodellen erfolgen, wodurch (zumindest teilweise) der Wettbewerb von Hardware-Superclustern (zugunsten von Big Tech) auf Software-Innovation (marginal zugunsten von Open Source / Crypto) verlagert wird, während der Preis von Intelligenz sinkt.
Angesichts der Rechenleistung von „Mixture of Expert“-Architekturen und LLM-Synthese/Routing scheint es wahrscheinlich, dass wir nicht auf eine Welt von 3 – 5 Megamodellen zusteuern, sondern auf ein Geflecht von Millionen von Modellen mit unterschiedlichen Kosten-/Leistungsabwägungen. Ein Netzwerk ineinander verwobener Intelligenz. Ein Schwarmverstand.
Dies wird zu einem massiven Koordinationsproblem: eine Art, bei der Blockchains und Kryptoanreize gut gerüstet sein sollten, um zu helfen.
Software frisst die Welt. KI frisst Software. Und KI besteht im Grunde nur aus Daten und Berechnungen.
Alles, was die obigen beiden Eingaben (Infrastruktur) am effizientesten beschaffen, koordinieren (Middleware) und den Benutzeranforderungen entsprechen kann (Apps), wird wertvoll sein.
Delphi ist bullish auf verschiedene Komponenten im gesamten Stack:
Da KI durch Daten und Berechnungen angetrieben wird, ist die DeAI-Infrastruktur darauf ausgerichtet, beides so effizient wie möglich zu beschaffen, normalerweise unter Verwendung von Krypto-Anreizen. Wie wir bereits erwähnt haben, ist dies der anspruchsvollste Teil des Stapels, auf dem man konkurrieren kann, aber auch möglicherweise der lohnendste, bedenkt man die Größe der Endmärkte.
Bislang durch Latenz zurückgehalten hoffen dezentrale Trainingsprotokolle und GPU-Märkte, latente, heterogene Hardware zu orchestrieren, um kostengünstige, bedarfsgesteuerte Berechnungen für diejenigen anzubieten, die sich Big Techs integrierte Lösungen nicht leisten können. Unternehmen wie Gensyn, Prime Intellect und Neuromesh stoßen die Grenzen des verteilten Trainings voran, währendio.net, Akash, Aethir etc ermöglichen kostengünstigere Inferenz näher am Rand.
In einer Welt der allgegenwärtigen Intelligenz, die auf kleineren, spezialisierten Modellen basiert, werden Datenvermögenswerte zunehmend wertvoll und monetarisierbar.
Bis heute wurden DePIN (dezentralisierte physische Netzwerke) weitgehend dafür gelobt, dass sie in der Lage sind, kostengünstige Hardware-Netzwerke im Vergleich zu kapitalintensiven etablierten Unternehmen (z.B. Telekommunikationsunternehmen) aufzubauen. Möglicherweise wird der größte Markt für DePIN jedoch in der Sammlung neuartiger Datensätze entstehen, die in die On-Chain-Intelligenz einfließen.agentic Protokolle(später zu besprechen).
In einer Welt, in der Arbeit - der größte TAM der Welt? - durch eine Kombination aus Daten und Berechnungen ersetzt wird, bietet die DeAI-Infrastruktur einen Weg für Nicht-Tech-Barone, umErgreife die Produktionsmittelund tragen zur kommenden vernetzten Wirtschaft bei.
Das Endziel von DeAI ist effektiv zusammensetzbares Rechnen. Wie bei DeFi-Geld-Legos gleicht dezentrale KI den heutigen Mangel an absoluter Leistung durch die erlaubnislose Zusammensetzbarkeit aus und fördert ein offenes Ökosystem von Software- und Rechenprimitiven, die sich im Laufe der Zeit vervielfachen, um die etablierten Unternehmen (hoffentlich) zu übertreffen.
Wenn Google "das integrierte" Extrem ist, dann repräsentiert DeAI das "modulare" Extrem. WieClayton ChristensenErinnert uns daran, dass integrierte Ansätze dazu neigen, in neu entstehenden Branchen durch die Reduzierung von Reibung in der Wertschöpfungskette führend zu sein, aber mit der Reifung des Marktes gewinnen modularisierte Wertschöpfungsketten durch eine größere Konkurrenz und Kosteneffizienz innerhalb jeder Schicht des Stapels an Bedeutung:
Wir sind ziemlich bullish auf mehrere Kategorien, die für die Realisierung dieser modularen Vision unerlässlich sind:
In einer Welt fragmentierender Intelligenz, wie kann man das richtige Modell und den richtigen Zeitpunkt zum bestmöglichen Preis wählen? Nachfrageseitige Aggregatoren haben immer Wert geschaffen (sieheAggregationstheorie) und die Routing-Funktion ist entscheidend für die Optimierung der Pareto-Kurve zwischen Leistung und Kosten in der Welt der vernetzten Intelligenz:
Bittensorhat bisher die Führung in der ersten Generation übernommen, aber eine Reihe engagierter Wettbewerber tauchen auf.
AlloraVeranstaltet Wettbewerbe zwischen verschiedenen Modellen in verschiedenen „Themen“ auf eine Art und Weise, die „kontextbewusst“ ist und sich im Laufe der Zeit selbst verbessert - informiert zukünftige Vorhersagen auf der Grundlage der historischen Genauigkeit unter bestimmten Bedingungen.
Morpheusstrebt danach, der "Nachfragerouter" für Web3-Anwendungsfälle zu werden - im Wesentlichen eine "Apple-Intelligenz" mit einem Open-Source, lokalen Agenten, der den relevanten Kontext eines Benutzers hat und Anfragen effizient durch DeFi oder die aufstrebenden Bausteine der "komponierbaren Rechen"-Infrastruktur von Web3 leiten kann.
Agenteninteroperabilitätsprotokolle wieTheoriqundAutonolas Ziel ist es, das modulare Routing auf die Spitze zu treiben, indem es zusammensetzbare, zusammengesetzte Ökosysteme flexibler Agenten oder Komponenten zu vollwertigen On-Chain-Diensten ermöglicht.
Kurz gesagt werden in einer Welt der sich schnell fragmentierenden Intelligenz Supply- und Demand-Side-Aggregatoren eine äußerst wichtige Rolle spielen. Wenn Google ein 2-Billionen-Dollar-Unternehmen wurde, das Informationen aus aller Welt indexiert, dann sollte der Gewinner bei den Demand-Side-Routern - ob Apple, Google oder eine Web3-Lösung - der agente Intelligenz indexiert - sogar noch größer sein.
Aufgrund ihrer Dezentralisierung sind Blockchains sowohl bei Daten als auch bei Berechnungen stark eingeschränkt. Wie kann man rechen- und datenintensive KI-Anwendungen, die Benutzer in der Blockchain verlangen werden, auf die Kette bringen?
Co-Prozessoren!
Quelle:Florin Digital
Dies sind effektiv „Orakel“, die verschiedene Techniken zum „Überprüfen“ der zugrunde liegenden Daten oder des Modells bieten, die auf eine Weise verwendet werden, die neue Vertrauensannahmen on-chain minimiert, während sie wesentliche Leistungszunahmen bietet. Bisher gab es eine Vielzahl von Projekten, die zkML, opML, TeeML und kryptoökonomische Ansätze verwenden - alle mit unterschiedlichen Vor- und Nachteilen:
Für eine ausführlichere Überprüfung schauen Sie bitte in unseren DeAI-Teil III-Bericht, der in den kommenden Wochen veröffentlicht wird.
Auf hoher Ebene sind Co-Prozessoren unerlässlich, um intelligente Verträge, nun ja... intelligent zu machen – sie bieten "Data-Warehouse"-ähnliche Lösungen, um nach persönlicheren On-Chain-Erfahrungen zu suchen oder um zu überprüfen, dass eine bestimmte Inferenz korrekt abgeschlossen wurde.
TEE-Netzwerke wieSuper, Phala, undMarlinInsbesondere sind sie in letzter Zeit aufgrund ihrer Praktikabilität und ihrer Bereitschaft, heute skalierbare Anwendungen zu hosten, immer beliebter geworden.
Im Allgemeinen sind Co-Prozessoren unverzichtbar, um die hochdeterministischen, aber leistungsschwachen Blockchains mit hochperformanten, aber probabilistischen Intelligenzen zu verschmelzen. Ohne Co-Prozessoren würde die KI nicht in diese Generation von Blockchains eintreten.
Eines der größten Probleme bei der Open-Source-Entwicklung in der KI war der Mangel an Anreizen, um sie nachhaltig zu gestalten. Die KI-Entwicklung ist kapitalintensiv, und die Opportunitätskosten für Rechenleistung und KI-Wissensarbeit sind sehr hoch. Ohne angemessene Anreize zur Belohnung von Open-Source-Beiträgen wird der Raum zwangsläufig den hyperkapitalistischen Hyperskalierern unterliegen.
Eine Vielzahl von Projekten vonSentientzuPluraliszuSaharazuMiraAlle zielen darauf ab, Netzwerke zu starten, die Beiträge zu vernetzten Intelligenzen von fragmentierten Netzwerken von Einzelpersonen ordnungsgemäß ermöglichen und belohnen.
Indem das Geschäftsmodell repariert wird, sollte die Verbindung von Open Source beschleunigt werden - wodurch Entwicklern und KI-Forschern eine Alternative außerhalb von Big Tech zur Verfügung steht, die globaler Natur ist und hoffentlich auch gut kompensiert wird, basierend auf dem geschaffenen Wert.
Obwohl es sehr schwierig ist, es richtig zu machen und immer wettbewerbsfähiger wird, ist der TAM hier enorm.
Während LLMs Muster in großen Textkorpora abgrenzen und lernen, das nächste Wort vorherzusagen, verarbeiten, analysieren und lernen Graph Neural Nets (GNNs) von graphenstrukturierten Daten. Da On-Chain-Daten hauptsächlich komplexe Interaktionen zwischen Benutzern und Smart Contracts umfassen - mit anderen Worten, ein Graph - erscheinen GNNs als logische Wahl, um KI-Anwendungsfälle auf der Chain zu unterstützen.
Projekte wiePONDund RPS versuchen, grundlegende Modelle für Web3 aufzubauen - potenziell transformative im Handel, Defi und sogar sozialen Anwendungsfällen wie
Diese Modelle werden stark auf Data-Warehousing-Lösungen wie ziehenRaum und Zeit,Subsquid,Covalent, undHyperlineauf das ich auch ziemlich optimistisch bin.
GNNs könnten sich als die LLMs von Blockchains und Datenlagern für Web3 erweisen: Sie stellen OLAP-Funktionalität für Web3 bereit und sind damit unverzichtbare Enabler.
Meiner Meinung nach könnten On-Chain-Agenten der Schlüssel zur Lösung der berüchtigt schlechten UX von Kryptowährungen sein, aber noch wichtiger ist die fehlende Nachfrageseite für die armselige Nutzung der USD Milliarden, die wir in den letzten zehn Jahren in die Web3-Infrastruktur investiert haben.
Machen Sie keinen Fehler, die Agenten kommen...
Und es scheint logisch, dass diese Agenten die offene, zugriffsberechtigte Infrastruktur nutzen würden - über Zahlungen und zusammensetzbare Berechnungen - um immer komplexere Endziele zu erreichen.
In der kommenden Wirtschaft der vernetzten Intelligenz sind die wirtschaftlichen Ströme vielleicht viel weniger B -> B -> C und viel mehr Benutzer -> Agent -> Berechnungsnetzwerk -> Agent -> Benutzer.
Agentische Protokollesind das Endergebnis. Anwendungen oder Dienstleistungsunternehmen mit begrenzten Betriebskosten, die hauptsächlich unter Verwendung von On-Chain-Ressourcen betrieben werden, um die Anforderungen von Endbenutzern (oder untereinander) in zusammensetzbaren Netzwerken mit wesentlich niedrigeren Kosten als traditionelle Unternehmen zu erfüllen.
Genau wie beim Web2, wo die Anwendungsschicht den Großteil des Wertes erfasst hat, bin ich ein Fan der These von den "fetten agentischen Protokollen" in DeAI. Die Werterfassung sollte sich im Laufe der Zeit nach oben verschieben.
Das nächste Google, Facebook und Blackrock werden wahrscheinlich agentic Protokolle sein und die Komponenten, die sie ermöglichen, werden gerade geboren.
KI wird die Form unserer Volkswirtschaften verändern. Heute erwartet der Markt, dass die Wertschöpfung in den Grenzen weniger großer Unternehmen im pazifischen Nordwesten der Vereinigten Staaten liegen wird. DeAI repräsentiert eine andere Vision.
Eine Vision von offenen, zusammensetzbaren Netzwerken von Intelligenzen mit Anreizen und Entlohnung auch für kleine Beiträge und mehr kollektive Eigentumsrechte / Governance.
Während einige Erzählungen in DeAI voraus eilen und viele Projekte deutlich über dem aktuellen Fortschritt handeln, ist die Größe der Gelegenheit in der Tat groß. Für diejenigen, die geduldig und kenntnisreich sind, könnte DeAI's Endvision von wirklich zusammensetzbarem Computing die eigentliche Rechtfertigung für Blockchains selbst sein.
Wenn Ihnen dieser Teaser gefallen hat, achten Sie bitte in den kommenden Wochen auf unsere ausführlichen Berichte, die im Rahmen des Delphi AI x Crypto-Monats veröffentlicht werden.
DeAI I: Der Turm & Der Platz (jetzt entsperrt)
DeAI II: Die Mittel der Produktion ergreifen, Infra (bald entsperren)
DeAI III: Komponierbare Berechnung, Middleware (nächste Woche entsperren)
DeAI IV: Die agentische Wirtschaft, Anwendungen (Freischaltung in zwei Wochen)
Es wird ein großer Monat sein. Schnall dich an.
Weiterleiten des Originaltitels: DeAI komprimiert
Da Krypto im Wesentlichen Open-Source-Software mit eingebauten finanziellen Anreizen ist - und KI die Art und Weise disruptiert, wie Software geschrieben wird - liegt es nahe, dass KI einen massiven Einfluss auf den Blockchain-Bereich im gesamten Stapel haben wird.
Für mich liegen die größten Herausforderungen für DeAI auf der Infrastrukturebene, angesichts der Kapitalintensität beim Aufbau von grundlegenden Modellen und der Skaleneffekte bei Daten und Berechnungen.
Angesichts der Skalierungsgesetze hat Big Tech einen ausgeprägten Vorteil: Sie nutzen ihre gigantischen Kriegskassen aus Monopolgewinnen, um die Nachfrage der Verbraucher in der zweiten Generation des Internets zu aggregieren und sie während eines Jahrzehnts künstlich niedriger Zinssätze in Cloud-Infrastruktur zu investieren. Die Hyperscaler versuchen nun, den Markt für Intelligenz zu erobern, indem sie Daten und Berechnungen - die Schlüsselzutaten für KI - monopolisieren.
Aufgrund der Kapitalintensität und der hohen Bandbreitenanforderungen großer Trainingseinheiten sind einheitliche Supercluster immer noch optimal - sie bieten Big Tech die leistungsstärksten Modelle - geschlossene Quellen - die sie zu oligopolähnlichen Margen vermieten möchten, wobei sie die Erlöse in jeder nachfolgenden Generation reinvestieren.
Die Gräben in der KI haben sich jedoch als flacher erwiesen als die Netzwerkeffekte von Web2, wobei führende Frontmodelle im Vergleich zum Feld schnell an Wert verlieren, insbesondere mit Meta, das „verbrannte Erde“ betreibt und Milliarden von Dollar in Open-Source-Frontmodelle wie Llama 3.1 mit SOTA-Level-Leistung investiert.
Dies, zusammen mitaufkommende ForschungBei Low-Latency-dezentralen Schulungsmethoden kann (teilweise) die Kommodifizierung von Vorreiter-Geschäftsmodellen erfolgen, wodurch (zumindest teilweise) der Wettbewerb von Hardware-Superclustern (zugunsten von Big Tech) auf Software-Innovation (marginal zugunsten von Open Source / Crypto) verlagert wird, während der Preis von Intelligenz sinkt.
Angesichts der Rechenleistung von „Mixture of Expert“-Architekturen und LLM-Synthese/Routing scheint es wahrscheinlich, dass wir nicht auf eine Welt von 3 – 5 Megamodellen zusteuern, sondern auf ein Geflecht von Millionen von Modellen mit unterschiedlichen Kosten-/Leistungsabwägungen. Ein Netzwerk ineinander verwobener Intelligenz. Ein Schwarmverstand.
Dies wird zu einem massiven Koordinationsproblem: eine Art, bei der Blockchains und Kryptoanreize gut gerüstet sein sollten, um zu helfen.
Software frisst die Welt. KI frisst Software. Und KI besteht im Grunde nur aus Daten und Berechnungen.
Alles, was die obigen beiden Eingaben (Infrastruktur) am effizientesten beschaffen, koordinieren (Middleware) und den Benutzeranforderungen entsprechen kann (Apps), wird wertvoll sein.
Delphi ist bullish auf verschiedene Komponenten im gesamten Stack:
Da KI durch Daten und Berechnungen angetrieben wird, ist die DeAI-Infrastruktur darauf ausgerichtet, beides so effizient wie möglich zu beschaffen, normalerweise unter Verwendung von Krypto-Anreizen. Wie wir bereits erwähnt haben, ist dies der anspruchsvollste Teil des Stapels, auf dem man konkurrieren kann, aber auch möglicherweise der lohnendste, bedenkt man die Größe der Endmärkte.
Bislang durch Latenz zurückgehalten hoffen dezentrale Trainingsprotokolle und GPU-Märkte, latente, heterogene Hardware zu orchestrieren, um kostengünstige, bedarfsgesteuerte Berechnungen für diejenigen anzubieten, die sich Big Techs integrierte Lösungen nicht leisten können. Unternehmen wie Gensyn, Prime Intellect und Neuromesh stoßen die Grenzen des verteilten Trainings voran, währendio.net, Akash, Aethir etc ermöglichen kostengünstigere Inferenz näher am Rand.
In einer Welt der allgegenwärtigen Intelligenz, die auf kleineren, spezialisierten Modellen basiert, werden Datenvermögenswerte zunehmend wertvoll und monetarisierbar.
Bis heute wurden DePIN (dezentralisierte physische Netzwerke) weitgehend dafür gelobt, dass sie in der Lage sind, kostengünstige Hardware-Netzwerke im Vergleich zu kapitalintensiven etablierten Unternehmen (z.B. Telekommunikationsunternehmen) aufzubauen. Möglicherweise wird der größte Markt für DePIN jedoch in der Sammlung neuartiger Datensätze entstehen, die in die On-Chain-Intelligenz einfließen.agentic Protokolle(später zu besprechen).
In einer Welt, in der Arbeit - der größte TAM der Welt? - durch eine Kombination aus Daten und Berechnungen ersetzt wird, bietet die DeAI-Infrastruktur einen Weg für Nicht-Tech-Barone, umErgreife die Produktionsmittelund tragen zur kommenden vernetzten Wirtschaft bei.
Das Endziel von DeAI ist effektiv zusammensetzbares Rechnen. Wie bei DeFi-Geld-Legos gleicht dezentrale KI den heutigen Mangel an absoluter Leistung durch die erlaubnislose Zusammensetzbarkeit aus und fördert ein offenes Ökosystem von Software- und Rechenprimitiven, die sich im Laufe der Zeit vervielfachen, um die etablierten Unternehmen (hoffentlich) zu übertreffen.
Wenn Google "das integrierte" Extrem ist, dann repräsentiert DeAI das "modulare" Extrem. WieClayton ChristensenErinnert uns daran, dass integrierte Ansätze dazu neigen, in neu entstehenden Branchen durch die Reduzierung von Reibung in der Wertschöpfungskette führend zu sein, aber mit der Reifung des Marktes gewinnen modularisierte Wertschöpfungsketten durch eine größere Konkurrenz und Kosteneffizienz innerhalb jeder Schicht des Stapels an Bedeutung:
Wir sind ziemlich bullish auf mehrere Kategorien, die für die Realisierung dieser modularen Vision unerlässlich sind:
In einer Welt fragmentierender Intelligenz, wie kann man das richtige Modell und den richtigen Zeitpunkt zum bestmöglichen Preis wählen? Nachfrageseitige Aggregatoren haben immer Wert geschaffen (sieheAggregationstheorie) und die Routing-Funktion ist entscheidend für die Optimierung der Pareto-Kurve zwischen Leistung und Kosten in der Welt der vernetzten Intelligenz:
Bittensorhat bisher die Führung in der ersten Generation übernommen, aber eine Reihe engagierter Wettbewerber tauchen auf.
AlloraVeranstaltet Wettbewerbe zwischen verschiedenen Modellen in verschiedenen „Themen“ auf eine Art und Weise, die „kontextbewusst“ ist und sich im Laufe der Zeit selbst verbessert - informiert zukünftige Vorhersagen auf der Grundlage der historischen Genauigkeit unter bestimmten Bedingungen.
Morpheusstrebt danach, der "Nachfragerouter" für Web3-Anwendungsfälle zu werden - im Wesentlichen eine "Apple-Intelligenz" mit einem Open-Source, lokalen Agenten, der den relevanten Kontext eines Benutzers hat und Anfragen effizient durch DeFi oder die aufstrebenden Bausteine der "komponierbaren Rechen"-Infrastruktur von Web3 leiten kann.
Agenteninteroperabilitätsprotokolle wieTheoriqundAutonolas Ziel ist es, das modulare Routing auf die Spitze zu treiben, indem es zusammensetzbare, zusammengesetzte Ökosysteme flexibler Agenten oder Komponenten zu vollwertigen On-Chain-Diensten ermöglicht.
Kurz gesagt werden in einer Welt der sich schnell fragmentierenden Intelligenz Supply- und Demand-Side-Aggregatoren eine äußerst wichtige Rolle spielen. Wenn Google ein 2-Billionen-Dollar-Unternehmen wurde, das Informationen aus aller Welt indexiert, dann sollte der Gewinner bei den Demand-Side-Routern - ob Apple, Google oder eine Web3-Lösung - der agente Intelligenz indexiert - sogar noch größer sein.
Aufgrund ihrer Dezentralisierung sind Blockchains sowohl bei Daten als auch bei Berechnungen stark eingeschränkt. Wie kann man rechen- und datenintensive KI-Anwendungen, die Benutzer in der Blockchain verlangen werden, auf die Kette bringen?
Co-Prozessoren!
Quelle:Florin Digital
Dies sind effektiv „Orakel“, die verschiedene Techniken zum „Überprüfen“ der zugrunde liegenden Daten oder des Modells bieten, die auf eine Weise verwendet werden, die neue Vertrauensannahmen on-chain minimiert, während sie wesentliche Leistungszunahmen bietet. Bisher gab es eine Vielzahl von Projekten, die zkML, opML, TeeML und kryptoökonomische Ansätze verwenden - alle mit unterschiedlichen Vor- und Nachteilen:
Für eine ausführlichere Überprüfung schauen Sie bitte in unseren DeAI-Teil III-Bericht, der in den kommenden Wochen veröffentlicht wird.
Auf hoher Ebene sind Co-Prozessoren unerlässlich, um intelligente Verträge, nun ja... intelligent zu machen – sie bieten "Data-Warehouse"-ähnliche Lösungen, um nach persönlicheren On-Chain-Erfahrungen zu suchen oder um zu überprüfen, dass eine bestimmte Inferenz korrekt abgeschlossen wurde.
TEE-Netzwerke wieSuper, Phala, undMarlinInsbesondere sind sie in letzter Zeit aufgrund ihrer Praktikabilität und ihrer Bereitschaft, heute skalierbare Anwendungen zu hosten, immer beliebter geworden.
Im Allgemeinen sind Co-Prozessoren unverzichtbar, um die hochdeterministischen, aber leistungsschwachen Blockchains mit hochperformanten, aber probabilistischen Intelligenzen zu verschmelzen. Ohne Co-Prozessoren würde die KI nicht in diese Generation von Blockchains eintreten.
Eines der größten Probleme bei der Open-Source-Entwicklung in der KI war der Mangel an Anreizen, um sie nachhaltig zu gestalten. Die KI-Entwicklung ist kapitalintensiv, und die Opportunitätskosten für Rechenleistung und KI-Wissensarbeit sind sehr hoch. Ohne angemessene Anreize zur Belohnung von Open-Source-Beiträgen wird der Raum zwangsläufig den hyperkapitalistischen Hyperskalierern unterliegen.
Eine Vielzahl von Projekten vonSentientzuPluraliszuSaharazuMiraAlle zielen darauf ab, Netzwerke zu starten, die Beiträge zu vernetzten Intelligenzen von fragmentierten Netzwerken von Einzelpersonen ordnungsgemäß ermöglichen und belohnen.
Indem das Geschäftsmodell repariert wird, sollte die Verbindung von Open Source beschleunigt werden - wodurch Entwicklern und KI-Forschern eine Alternative außerhalb von Big Tech zur Verfügung steht, die globaler Natur ist und hoffentlich auch gut kompensiert wird, basierend auf dem geschaffenen Wert.
Obwohl es sehr schwierig ist, es richtig zu machen und immer wettbewerbsfähiger wird, ist der TAM hier enorm.
Während LLMs Muster in großen Textkorpora abgrenzen und lernen, das nächste Wort vorherzusagen, verarbeiten, analysieren und lernen Graph Neural Nets (GNNs) von graphenstrukturierten Daten. Da On-Chain-Daten hauptsächlich komplexe Interaktionen zwischen Benutzern und Smart Contracts umfassen - mit anderen Worten, ein Graph - erscheinen GNNs als logische Wahl, um KI-Anwendungsfälle auf der Chain zu unterstützen.
Projekte wiePONDund RPS versuchen, grundlegende Modelle für Web3 aufzubauen - potenziell transformative im Handel, Defi und sogar sozialen Anwendungsfällen wie
Diese Modelle werden stark auf Data-Warehousing-Lösungen wie ziehenRaum und Zeit,Subsquid,Covalent, undHyperlineauf das ich auch ziemlich optimistisch bin.
GNNs könnten sich als die LLMs von Blockchains und Datenlagern für Web3 erweisen: Sie stellen OLAP-Funktionalität für Web3 bereit und sind damit unverzichtbare Enabler.
Meiner Meinung nach könnten On-Chain-Agenten der Schlüssel zur Lösung der berüchtigt schlechten UX von Kryptowährungen sein, aber noch wichtiger ist die fehlende Nachfrageseite für die armselige Nutzung der USD Milliarden, die wir in den letzten zehn Jahren in die Web3-Infrastruktur investiert haben.
Machen Sie keinen Fehler, die Agenten kommen...
Und es scheint logisch, dass diese Agenten die offene, zugriffsberechtigte Infrastruktur nutzen würden - über Zahlungen und zusammensetzbare Berechnungen - um immer komplexere Endziele zu erreichen.
In der kommenden Wirtschaft der vernetzten Intelligenz sind die wirtschaftlichen Ströme vielleicht viel weniger B -> B -> C und viel mehr Benutzer -> Agent -> Berechnungsnetzwerk -> Agent -> Benutzer.
Agentische Protokollesind das Endergebnis. Anwendungen oder Dienstleistungsunternehmen mit begrenzten Betriebskosten, die hauptsächlich unter Verwendung von On-Chain-Ressourcen betrieben werden, um die Anforderungen von Endbenutzern (oder untereinander) in zusammensetzbaren Netzwerken mit wesentlich niedrigeren Kosten als traditionelle Unternehmen zu erfüllen.
Genau wie beim Web2, wo die Anwendungsschicht den Großteil des Wertes erfasst hat, bin ich ein Fan der These von den "fetten agentischen Protokollen" in DeAI. Die Werterfassung sollte sich im Laufe der Zeit nach oben verschieben.
Das nächste Google, Facebook und Blackrock werden wahrscheinlich agentic Protokolle sein und die Komponenten, die sie ermöglichen, werden gerade geboren.
KI wird die Form unserer Volkswirtschaften verändern. Heute erwartet der Markt, dass die Wertschöpfung in den Grenzen weniger großer Unternehmen im pazifischen Nordwesten der Vereinigten Staaten liegen wird. DeAI repräsentiert eine andere Vision.
Eine Vision von offenen, zusammensetzbaren Netzwerken von Intelligenzen mit Anreizen und Entlohnung auch für kleine Beiträge und mehr kollektive Eigentumsrechte / Governance.
Während einige Erzählungen in DeAI voraus eilen und viele Projekte deutlich über dem aktuellen Fortschritt handeln, ist die Größe der Gelegenheit in der Tat groß. Für diejenigen, die geduldig und kenntnisreich sind, könnte DeAI's Endvision von wirklich zusammensetzbarem Computing die eigentliche Rechtfertigung für Blockchains selbst sein.
Wenn Ihnen dieser Teaser gefallen hat, achten Sie bitte in den kommenden Wochen auf unsere ausführlichen Berichte, die im Rahmen des Delphi AI x Crypto-Monats veröffentlicht werden.
DeAI I: Der Turm & Der Platz (jetzt entsperrt)
DeAI II: Die Mittel der Produktion ergreifen, Infra (bald entsperren)
DeAI III: Komponierbare Berechnung, Middleware (nächste Woche entsperren)
DeAI IV: Die agentische Wirtschaft, Anwendungen (Freischaltung in zwei Wochen)
Es wird ein großer Monat sein. Schnall dich an.