Comment The Graph se développe-t-il dans une infrastructure Web3 alimentée par l'IA

Intermédiaire8/11/2024, 3:20:16 PM
Cet article explore comment The Graph étend son infrastructure Web3 en intégrant des technologies d'IA. Il détaille comment son service d'inférence et son service d'agent aident les développeurs d'application décentralisée à incorporer plus facilement des fonctionnalités d'IA.

En 2022, OpenAI a lancé le modèle GPT-3.5-driven ChatGPT, initiant une vague de récits d'IA. Bien que ChatGPT soit généralement performant pour gérer les requêtes, il peut être limité lorsqu'il s'agit de connaissances spécifiques dans un domaine ou de données en temps réel. Par exemple, il a du mal à fournir des informations détaillées et fiables sur les transactions de jetons de Vitalik Buterin au cours des 18 derniers mois. Pour remédier à cela, l'équipe de développement principale de The Graph, Semiotic Labs, a combiné la pile logicielle d'indexation de The Graph avec OpenAI pour lancer leAgentcprojet, offrant des services d'analyse des tendances du marché des crypto-monnaies et de requête de données de transaction.

Lorsque vous interrogez Agentc sur les transactions de jetons de Vitalik Buterin au cours des 18 derniers mois, il fournit une réponse plus complète. Cependant, les ambitions d'IA de The Graph vont au-delà de cela. Son livre blanc intitulé "Gate"Le Graph comme infrastructure IA« expose son objectif de ne pas lancer une application spécifique, mais de tirer parti de son protocole d'indexation de données décentralisées pour fournir aux développeurs des outils pour construire des applications d'IA natives de Web3. Pour soutenir cet objectif, Semiotic Labs ouvrira également le code source d'Agentc, permettant aux développeurs de créer des dApps d'IA similaires à Agentc, tels que des agents d'analyse des tendances du marché NFT et des assistants de trading DeFi.

La feuille de route de l'IA décentralisée de The Graph

Lancé en juillet 2018, The Graph est un protocole décentralisé d'indexation et de requête de données de la blockchain. Les développeurs peuvent utiliser des API ouvertes pour créer et déployer des index de données appelés sous-graphes, permettant aux applications de récupérer des données on-chain. À ce jour, The Graph prend en charge plus de 50 chaînes, héberge plus de 75 000 projets et a traité plus de 1,26 billion de requêtes.

La capacité de The Graph à gérer de telles données massives est soutenue par ses équipes de base, y compris Edge & Node, Streamingfast, Semiotic, The Guild, GraphOps, Messari et Pinax. Streamingfast fournit une technologie d'architecture inter-chaînes pour les flux de données de la blockchain, tandis que Semiotic AI se concentre sur l'intégration de l'IA et de la cryptographie dans The Graph. The Guild, GraphOps, Messari et Pinax se spécialisent dans des domaines tels que le développement GraphQL, les services d'indexation, le développement de sous-graphes et les solutions de flux de données.

La stratégie d'IA de The Graph n'est pas nouvelle. En mars dernier, le blog de The Graph publiéun article décrivant le potentiel des applications d'IA utilisant ses capacités d'indexation de données. En décembre, The Graph a dévoilé son «Nouvelle ère« roadmap, qui comprend des plans pour ajouter des requêtes assistées par le modèle de langue large (LLM). Le récent livre blanc précise davantage sa feuille de route en matière d'IA, en introduisant deux services d'IA : Inference et Agent Services, qui permettent aux développeurs d'intégrer directement des fonctions d'IA dans l'interface application, avec le soutien de The Graph.

Service d'inférence: soutien à une gamme de modèles d'IA open source

Dans les services d'inférence traditionnels, les modèles effectuent des prédictions sur les données d'entrée à l'aide de ressources cloud centralisées. Par exemple, ChatGPT effectue une inférence et renvoie des réponses. Cependant, cette approche centralisée augmente les coûts et présente des risques de censure. Le Graph vise à remédier à cela en créant un marché décentralisé d'hébergement de modèles, offrant aux développeurs d'applications décentralisées (dApp) plus de flexibilité dans le déploiement et l'hébergement de modèles d'IA.

Le livre blanc donne un exemple de l'utilisation de The Graph pour créer une application qui aide les utilisateurs de Farcaster à comprendre si leurs publications recevront beaucoup de likes. Tout d'abord, les services de données de sous-graphique de The Graph indexent les commentaires et les likes sur les publications de Farcaster. Ensuite, un réseau neuronal est entraîné à prédire si de nouveaux commentaires de Farcaster seront aimés, et le réseau neuronal est déployé dans le service d'inférence de The Graph. L'application résultante peut aider les utilisateurs à rédiger des publications plus susceptibles de recevoir des likes.

Cette approche permet aux développeurs d'utiliser facilement l'infrastructure de The Graph, d'héberger des modèles pré-entraînés sur le réseau et de les intégrer aux applications via des API, ce qui permet aux utilisateurs de découvrir directement ces fonctionnalités lors de l'utilisation de dApps.

Pour offrir aux développeurs plus d'options et de flexibilité, le service d'inférence de The Graph prend en charge la plupart des modèles existants les plus populaires. Selon le livre blanc, «Dans la phase MVP, le service d'inférence de The Graph prendra en charge une sélection de modèles d'IA open-source populaires, notamment Stable Diffusion, Stable Video Diffusion, LLaMA, Mixtral, Grok et Whisper». À l'avenir, tous les modèles ouverts bien testés et indexés peuvent être déployés dans le service d'inférence de The Graph. De plus, pour réduire la complexité technique du déploiement de modèles d'IA, The Graph offre des interfaces conviviales qui simplifient le processus, permettant aux développeurs de télécharger et de gérer leurs modèles d'IA sans se soucier de la maintenance de l'infrastructure.

Afin d'améliorer davantage les performances du modèle dans des applications spécifiques, The Graph prend également en charge le réglage fin des modèles sur des ensembles de données spécifiques. Cependant, le réglage fin n'est généralement pas effectué sur The Graph lui-même. Les développeurs doivent régler finement les modèles de manière externe, puis déployer ces modèles à l'aide du service d'inférence de The Graph. Pour encourager les développeurs à rendre publics les modèles réglés finement, The Graph développe des mécanismes d'incitation, tels que la répartition équitable des frais de requête entre les créateurs de modèles et les indexeurs.

Pour garantir la crédibilité des résultats d'inférence de l'IA, The Graph propose plusieurs méthodes de vérification, notamment des autorités de confiance, un consensus M-sur-N, des preuves de fraude interactives et des zk-SNARKs. Chaque méthode a ses avantages et ses inconvénients. Les autorités de confiance reposent sur des entités de confiance ; le consensus M-sur-N nécessite la validation de plusieurs indexeurs, ce qui augmente la difficulté de tricher tout en augmentant les coûts de calcul et de coordination ; les preuves de fraude interactives offrent une sécurité solide mais ne conviennent pas aux applications nécessitant des réponses rapides ; les zk-SNARKs sont techniquement complexes et moins adaptés aux grands modèles.

The Graph estime que les développeurs et les utilisateurs devraient pouvoir choisir le niveau de sécurité approprié en fonction de leurs besoins. Par conséquent, The Graph prévoit de prendre en charge diverses méthodes de vérification dans son service d'inférence pour répondre aux différents besoins de sécurité et aux différents scénarios d'application. Par exemple, les transactions financières ou la logique métier critique peuvent nécessiter des méthodes de vérification de sécurité plus élevées, telles que zk-SNARKs ou un consensus M-sur-N, tandis que les applications à risque plus faible ou axées sur le divertissement peuvent opter pour des méthodes plus rentables et simples, telles que des autorités de confiance ou des preuves de fraude interactives. De plus, The Graph prévoit d'explorer les technologies améliorant la confidentialité pour résoudre les problèmes de confidentialité des modèles et des utilisateurs.

Service d'Agent: Aider les développeurs à construire des applications autonomes pilotées par l'IA

Alors que le service d'inférence se concentre principalement sur l'exécution de modèles d'IA pré-entraînés pour l'inférence, le service d'agent est plus complexe, nécessitant plusieurs composants pour travailler ensemble afin de permettre aux agents d'effectuer une gamme de tâches complexes et automatisées. Le service d'agent de Graph vise à intégrer la création, l'hébergement et l'exécution d'agents au sein de Graph, avec le soutien fourni par le réseau d'indexation.

Plus précisément, The Graph fournira un réseau décentralisé pour soutenir la construction et l'hébergement des Agents. Une fois qu'un Agent est déployé sur le réseau The Graph, les indexeurs offriront le support d'exécution nécessaire, y compris l'indexation des données et la réponse aux événements on-chain et autres demandes d'interaction.

Comme mentionné précédemment, l'équipe de développement principale de The Graph, Semiotic Labs, a lancé une expérience précoce avec Agent,Agentc, qui combine la pile logicielle d'indexation de The Graph avec OpenAI. Sa fonction principale est de convertir les entrées en langage naturel en requêtes SQL, permettant aux utilisateurs d'interroger les données en temps réel sur la blockchain et de présenter les résultats dans un format facile à comprendre. En termes simples, Agentc se concentre sur la fourniture aux utilisateurs d'une analyse pratique des tendances du marché des cryptomonnaies et de requêtes sur les données de transaction, toutes les données provenant d'Uniswap V2, Uniswap V3, Uniswap X et de leurs forks sur Ethereum, et les prix sont mis à jour toutes les heures.

De plus, The Graph a noté que les modèles LLM utilisés ont un taux de précision de seulement 63,41 %, ce qui indique un potentiel de réponses incorrectes. Pour résoudre ce problème, The Graph développe un nouveau type de grand modèle de langue appelé KGLLM (Knowledge Graph-enabled Large Language Models). KGLLM utilise des données structurées de graphes de connaissances fournies par Geo, réduisant ainsi considérablement la probabilité de générer des informations erronées. Chaque déclaration dans le système de Geo est étayée par des horodatages on-chain et une validation par vote. Après l'intégration du graphe de connaissances de Geo, les Agents peuvent être appliqués à divers scénarios, y compris les réglementations médicales, les évolutions politiques, l'analyse du marché, etc., ce qui améliore la diversité et la précision des services des Agents. Par exemple, KGLLM peut utiliser des données politiques pour fournir des suggestions de changement de politique aux organisations autonomes décentralisées (DAO) et s'assurer qu'elles sont basées sur des informations actuelles et précises.

Les avantages de KGLLM incluent :

  • Utilisation des données structurées :KGLLM utilise des bases de connaissances externes structurées, avec des informations modélisées sous forme graphique dans le graphe de connaissances, rendant les relations entre les données facilement visibles et intuitives à interroger et à comprendre.
  • Traitement des données relationnelles :KGLLM est particulièrement bien adapté pour gérer des données relationnelles, telles que la compréhension des relations entre les personnes et les événements. Il utilise des algorithmes de parcours de graphe pour trouver des informations pertinentes en sautant à travers plusieurs nœuds dans le graphe de connaissances (similaire à se déplacer sur une carte). Cette méthode aide KGLLM à localiser les informations les plus pertinentes pour répondre aux questions.
  • Récupération et génération efficaces d'informations:À l'aide d'algorithmes de parcours de graphes, KGLLM extrait les relations et les convertit en instructions en langage naturel que le modèle peut comprendre. Ces instructions claires permettent à KGLLM de générer des réponses plus précises et pertinentes.

Perspective

En tant que "Google de Web3", The Graph répond aux pénuries de données actuelles dans les services d'IA et simplifie le processus de développement pour les développeurs grâce à ses services d'IA. Avec le développement et l'adoption de plus d'applications d'IA, les expériences utilisateur devraient s'améliorer davantage. À l'avenir, l'équipe de développement de The Graph continuera d'explorer les possibilités d'intégration de l'IA avec Web3. De plus, d'autres équipes au sein de son écosystème, telles que Playgrounds Analytics et DappLooker, conçoivent également des solutions liées aux services d'Agent.

Avertissement:

  1. Cet article est repris de [ChainFeeds Recherche], Tous les droits d'auteur appartiennent à l'auteur original [LindaBell]. S'il y a des objections à cette réimpression, veuillez contacter le Gate Learnéquipe, et ils s'en occuperont rapidement.
  2. Responsabilité de non-responsabilité: Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdite.

Comment The Graph se développe-t-il dans une infrastructure Web3 alimentée par l'IA

Intermédiaire8/11/2024, 3:20:16 PM
Cet article explore comment The Graph étend son infrastructure Web3 en intégrant des technologies d'IA. Il détaille comment son service d'inférence et son service d'agent aident les développeurs d'application décentralisée à incorporer plus facilement des fonctionnalités d'IA.

En 2022, OpenAI a lancé le modèle GPT-3.5-driven ChatGPT, initiant une vague de récits d'IA. Bien que ChatGPT soit généralement performant pour gérer les requêtes, il peut être limité lorsqu'il s'agit de connaissances spécifiques dans un domaine ou de données en temps réel. Par exemple, il a du mal à fournir des informations détaillées et fiables sur les transactions de jetons de Vitalik Buterin au cours des 18 derniers mois. Pour remédier à cela, l'équipe de développement principale de The Graph, Semiotic Labs, a combiné la pile logicielle d'indexation de The Graph avec OpenAI pour lancer leAgentcprojet, offrant des services d'analyse des tendances du marché des crypto-monnaies et de requête de données de transaction.

Lorsque vous interrogez Agentc sur les transactions de jetons de Vitalik Buterin au cours des 18 derniers mois, il fournit une réponse plus complète. Cependant, les ambitions d'IA de The Graph vont au-delà de cela. Son livre blanc intitulé "Gate"Le Graph comme infrastructure IA« expose son objectif de ne pas lancer une application spécifique, mais de tirer parti de son protocole d'indexation de données décentralisées pour fournir aux développeurs des outils pour construire des applications d'IA natives de Web3. Pour soutenir cet objectif, Semiotic Labs ouvrira également le code source d'Agentc, permettant aux développeurs de créer des dApps d'IA similaires à Agentc, tels que des agents d'analyse des tendances du marché NFT et des assistants de trading DeFi.

La feuille de route de l'IA décentralisée de The Graph

Lancé en juillet 2018, The Graph est un protocole décentralisé d'indexation et de requête de données de la blockchain. Les développeurs peuvent utiliser des API ouvertes pour créer et déployer des index de données appelés sous-graphes, permettant aux applications de récupérer des données on-chain. À ce jour, The Graph prend en charge plus de 50 chaînes, héberge plus de 75 000 projets et a traité plus de 1,26 billion de requêtes.

La capacité de The Graph à gérer de telles données massives est soutenue par ses équipes de base, y compris Edge & Node, Streamingfast, Semiotic, The Guild, GraphOps, Messari et Pinax. Streamingfast fournit une technologie d'architecture inter-chaînes pour les flux de données de la blockchain, tandis que Semiotic AI se concentre sur l'intégration de l'IA et de la cryptographie dans The Graph. The Guild, GraphOps, Messari et Pinax se spécialisent dans des domaines tels que le développement GraphQL, les services d'indexation, le développement de sous-graphes et les solutions de flux de données.

La stratégie d'IA de The Graph n'est pas nouvelle. En mars dernier, le blog de The Graph publiéun article décrivant le potentiel des applications d'IA utilisant ses capacités d'indexation de données. En décembre, The Graph a dévoilé son «Nouvelle ère« roadmap, qui comprend des plans pour ajouter des requêtes assistées par le modèle de langue large (LLM). Le récent livre blanc précise davantage sa feuille de route en matière d'IA, en introduisant deux services d'IA : Inference et Agent Services, qui permettent aux développeurs d'intégrer directement des fonctions d'IA dans l'interface application, avec le soutien de The Graph.

Service d'inférence: soutien à une gamme de modèles d'IA open source

Dans les services d'inférence traditionnels, les modèles effectuent des prédictions sur les données d'entrée à l'aide de ressources cloud centralisées. Par exemple, ChatGPT effectue une inférence et renvoie des réponses. Cependant, cette approche centralisée augmente les coûts et présente des risques de censure. Le Graph vise à remédier à cela en créant un marché décentralisé d'hébergement de modèles, offrant aux développeurs d'applications décentralisées (dApp) plus de flexibilité dans le déploiement et l'hébergement de modèles d'IA.

Le livre blanc donne un exemple de l'utilisation de The Graph pour créer une application qui aide les utilisateurs de Farcaster à comprendre si leurs publications recevront beaucoup de likes. Tout d'abord, les services de données de sous-graphique de The Graph indexent les commentaires et les likes sur les publications de Farcaster. Ensuite, un réseau neuronal est entraîné à prédire si de nouveaux commentaires de Farcaster seront aimés, et le réseau neuronal est déployé dans le service d'inférence de The Graph. L'application résultante peut aider les utilisateurs à rédiger des publications plus susceptibles de recevoir des likes.

Cette approche permet aux développeurs d'utiliser facilement l'infrastructure de The Graph, d'héberger des modèles pré-entraînés sur le réseau et de les intégrer aux applications via des API, ce qui permet aux utilisateurs de découvrir directement ces fonctionnalités lors de l'utilisation de dApps.

Pour offrir aux développeurs plus d'options et de flexibilité, le service d'inférence de The Graph prend en charge la plupart des modèles existants les plus populaires. Selon le livre blanc, «Dans la phase MVP, le service d'inférence de The Graph prendra en charge une sélection de modèles d'IA open-source populaires, notamment Stable Diffusion, Stable Video Diffusion, LLaMA, Mixtral, Grok et Whisper». À l'avenir, tous les modèles ouverts bien testés et indexés peuvent être déployés dans le service d'inférence de The Graph. De plus, pour réduire la complexité technique du déploiement de modèles d'IA, The Graph offre des interfaces conviviales qui simplifient le processus, permettant aux développeurs de télécharger et de gérer leurs modèles d'IA sans se soucier de la maintenance de l'infrastructure.

Afin d'améliorer davantage les performances du modèle dans des applications spécifiques, The Graph prend également en charge le réglage fin des modèles sur des ensembles de données spécifiques. Cependant, le réglage fin n'est généralement pas effectué sur The Graph lui-même. Les développeurs doivent régler finement les modèles de manière externe, puis déployer ces modèles à l'aide du service d'inférence de The Graph. Pour encourager les développeurs à rendre publics les modèles réglés finement, The Graph développe des mécanismes d'incitation, tels que la répartition équitable des frais de requête entre les créateurs de modèles et les indexeurs.

Pour garantir la crédibilité des résultats d'inférence de l'IA, The Graph propose plusieurs méthodes de vérification, notamment des autorités de confiance, un consensus M-sur-N, des preuves de fraude interactives et des zk-SNARKs. Chaque méthode a ses avantages et ses inconvénients. Les autorités de confiance reposent sur des entités de confiance ; le consensus M-sur-N nécessite la validation de plusieurs indexeurs, ce qui augmente la difficulté de tricher tout en augmentant les coûts de calcul et de coordination ; les preuves de fraude interactives offrent une sécurité solide mais ne conviennent pas aux applications nécessitant des réponses rapides ; les zk-SNARKs sont techniquement complexes et moins adaptés aux grands modèles.

The Graph estime que les développeurs et les utilisateurs devraient pouvoir choisir le niveau de sécurité approprié en fonction de leurs besoins. Par conséquent, The Graph prévoit de prendre en charge diverses méthodes de vérification dans son service d'inférence pour répondre aux différents besoins de sécurité et aux différents scénarios d'application. Par exemple, les transactions financières ou la logique métier critique peuvent nécessiter des méthodes de vérification de sécurité plus élevées, telles que zk-SNARKs ou un consensus M-sur-N, tandis que les applications à risque plus faible ou axées sur le divertissement peuvent opter pour des méthodes plus rentables et simples, telles que des autorités de confiance ou des preuves de fraude interactives. De plus, The Graph prévoit d'explorer les technologies améliorant la confidentialité pour résoudre les problèmes de confidentialité des modèles et des utilisateurs.

Service d'Agent: Aider les développeurs à construire des applications autonomes pilotées par l'IA

Alors que le service d'inférence se concentre principalement sur l'exécution de modèles d'IA pré-entraînés pour l'inférence, le service d'agent est plus complexe, nécessitant plusieurs composants pour travailler ensemble afin de permettre aux agents d'effectuer une gamme de tâches complexes et automatisées. Le service d'agent de Graph vise à intégrer la création, l'hébergement et l'exécution d'agents au sein de Graph, avec le soutien fourni par le réseau d'indexation.

Plus précisément, The Graph fournira un réseau décentralisé pour soutenir la construction et l'hébergement des Agents. Une fois qu'un Agent est déployé sur le réseau The Graph, les indexeurs offriront le support d'exécution nécessaire, y compris l'indexation des données et la réponse aux événements on-chain et autres demandes d'interaction.

Comme mentionné précédemment, l'équipe de développement principale de The Graph, Semiotic Labs, a lancé une expérience précoce avec Agent,Agentc, qui combine la pile logicielle d'indexation de The Graph avec OpenAI. Sa fonction principale est de convertir les entrées en langage naturel en requêtes SQL, permettant aux utilisateurs d'interroger les données en temps réel sur la blockchain et de présenter les résultats dans un format facile à comprendre. En termes simples, Agentc se concentre sur la fourniture aux utilisateurs d'une analyse pratique des tendances du marché des cryptomonnaies et de requêtes sur les données de transaction, toutes les données provenant d'Uniswap V2, Uniswap V3, Uniswap X et de leurs forks sur Ethereum, et les prix sont mis à jour toutes les heures.

De plus, The Graph a noté que les modèles LLM utilisés ont un taux de précision de seulement 63,41 %, ce qui indique un potentiel de réponses incorrectes. Pour résoudre ce problème, The Graph développe un nouveau type de grand modèle de langue appelé KGLLM (Knowledge Graph-enabled Large Language Models). KGLLM utilise des données structurées de graphes de connaissances fournies par Geo, réduisant ainsi considérablement la probabilité de générer des informations erronées. Chaque déclaration dans le système de Geo est étayée par des horodatages on-chain et une validation par vote. Après l'intégration du graphe de connaissances de Geo, les Agents peuvent être appliqués à divers scénarios, y compris les réglementations médicales, les évolutions politiques, l'analyse du marché, etc., ce qui améliore la diversité et la précision des services des Agents. Par exemple, KGLLM peut utiliser des données politiques pour fournir des suggestions de changement de politique aux organisations autonomes décentralisées (DAO) et s'assurer qu'elles sont basées sur des informations actuelles et précises.

Les avantages de KGLLM incluent :

  • Utilisation des données structurées :KGLLM utilise des bases de connaissances externes structurées, avec des informations modélisées sous forme graphique dans le graphe de connaissances, rendant les relations entre les données facilement visibles et intuitives à interroger et à comprendre.
  • Traitement des données relationnelles :KGLLM est particulièrement bien adapté pour gérer des données relationnelles, telles que la compréhension des relations entre les personnes et les événements. Il utilise des algorithmes de parcours de graphe pour trouver des informations pertinentes en sautant à travers plusieurs nœuds dans le graphe de connaissances (similaire à se déplacer sur une carte). Cette méthode aide KGLLM à localiser les informations les plus pertinentes pour répondre aux questions.
  • Récupération et génération efficaces d'informations:À l'aide d'algorithmes de parcours de graphes, KGLLM extrait les relations et les convertit en instructions en langage naturel que le modèle peut comprendre. Ces instructions claires permettent à KGLLM de générer des réponses plus précises et pertinentes.

Perspective

En tant que "Google de Web3", The Graph répond aux pénuries de données actuelles dans les services d'IA et simplifie le processus de développement pour les développeurs grâce à ses services d'IA. Avec le développement et l'adoption de plus d'applications d'IA, les expériences utilisateur devraient s'améliorer davantage. À l'avenir, l'équipe de développement de The Graph continuera d'explorer les possibilités d'intégration de l'IA avec Web3. De plus, d'autres équipes au sein de son écosystème, telles que Playgrounds Analytics et DappLooker, conçoivent également des solutions liées aux services d'Agent.

Avertissement:

  1. Cet article est repris de [ChainFeeds Recherche], Tous les droits d'auteur appartiennent à l'auteur original [LindaBell]. S'il y a des objections à cette réimpression, veuillez contacter le Gate Learnéquipe, et ils s'en occuperont rapidement.
  2. Responsabilité de non-responsabilité: Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdite.
Lancez-vous
Inscrivez-vous et obtenez un bon de
100$
!