Puce IA seconde moitié : les héros assiègent Nvidia

Source originale : Lei Technology

Source de l'image : générée par Unbounded AI

NVIDIA mène désormais une vie très prospère. De l'engouement pour la monnaie virtuelle à l'ère des grands modèles d'IA, la vitesse de développement de NVIDIA au cours des dernières années a dépassé toutes les périodes précédentes, ce qui a également permis à la valeur marchande de l'entreprise de puces de dépasser avec succès les 10 000 milliards. marque du dollar.

Cependant, comparé à l'économie virtuelle de la monnaie virtuelle, semblable à un château, la « demande réelle » apportée par les grands modèles d'IA est la principale force motrice qui permet à NVIDIA de franchir la barre des mille milliards de dollars de valeur marchande. jusqu'à la livraison Le délai nécessaire pouvait atteindre plusieurs mois et la prime du spot était autrefois proche de 100 %.

Cependant, les beaux jours de NVIDIA pourraient ne pas durer longtemps. Alors que les grands modèles d'IA sont reconnus comme une « voie large », les grandes entreprises intensifient leurs efforts pour acheter des cartes graphiques NVIDIA et construire leurs propres serveurs de formation. Elles voient également des fonds affluer comme une inondation. , a également fait son petit calcul.

Récemment, ** OpenAI a annoncé qu'il commencerait à développer ses propres puces d'IA pour réduire sa dépendance à l'égard de Nvidia. Par coïncidence, Microsoft, qui construit un serveur d'IA à grande échelle, a également annoncé son propre plan de puce d'IA. **Fait intéressant, bien qu'OpenAI appartienne désormais nominalement au camp Microsoft (Microsoft a déjà finalisé l'acquisition d'OpenAI), OpenAI et Microsoft ne semblent pas avoir l'intention de partager des plans de puces.

Outre OpenAI et Microsoft, de nombreux fabricants sont également prêts à franchir le pas.

Assaillé de tous côtés

Le coût de prise en charge d'un centre de données à grande échelle n'est pas faible. L'investissement matériel initial à lui seul se mesure en « centaines de millions ». Le plan de centre de données européen annoncé par Microsoft il y a quelque temps prévoit un investissement initial pouvant atteindre 500 millions de dollars, non y compris l'entretien ultérieur.Frais d'attente. Parmi les 500 millions de dollars américains, outre la construction d'infrastructures et d'autres dépenses, la dépense la plus importante est l'achat de cartes informatiques professionnelles produites par Nvidia.

Selon une analyse réalisée il y a quelque temps, la différence entre le prix de revient et le prix de vente des puces Nvidia pourrait être plus de 10 fois supérieure. En prenant comme exemple le H100, le plus populaire parmi les grandes entreprises, le coût de la carte informatique est d'environ 2 000 -2 500 dollars américains, alors que le prix de vente officiel est supérieur à 25 000 dollars américains.

Que ce soit pour économiser de l'argent ou pour profiter de ce marché émergent, la mise en œuvre de son propre plan de recherche et développement de puces IA est imminente. **À en juger par les informations actuellement connues, les géants des semi-conducteurs tels qu'Intel et AMD ont annoncé une nouvelle série de plans de recherche et de développement de puces IA. Intel utilise le processeur comme une percée pour créer une autre puce IA d'une manière différente, et a même publié En tant que première génération de produits de puces IA, AMD tente de contester la position de Nvidia dans le domaine des GPU. **

Il n'est pas surprenant que les géants traditionnels des semi-conducteurs tentent de s'emparer d'une part du gâteau. Ce qui a encore plus attiré l'attention de Nvidia, c'est qu'OpenAI et Microsoft ont annoncé qu'ils lanceraient des plans de recherche et de développement de puces IA. En tant que deux utilisateurs principaux, s'ils abandonnent Nvidia , ils auront évidemment des conséquences négatives pour Nvidia : le statut écologique et les revenus ont de graves conséquences.

Le projet de puce d'OpenAI n'a été exposé pour la première fois que récemment.Pour une entreprise d'IA, j'ai des doutes sur les capacités de recherche et de développement de puces d'OpenAI. De plus, à en juger par les récentes informations de recrutement publiées par OpenAI, ils constituent une équipe de recherche et développement à partir de zéro. Cela peut prendre au moins un an avant de pouvoir produire des résultats préliminaires, et il y a une forte probabilité qu'ils ne soient pas en mesure de concurrencer les puces phares de Nvidia.

Relativement parlant, le projet de Microsoft en matière de puces est plus préoccupant. Les investissements de Microsoft dans le domaine des puces ont en fait été assez élevés et la société a fabriqué de nombreux produits ces dernières années. ** Et la puce nommée "Athena" qui a été récemment exposée, selon sources internes, la recherche et le développement ont commencé dès 2019 et sont désormais entrés dans la phase de production d'essai. **

Il est rapporté qu'OpenAI a secrètement testé la puce Athena. En tant que puce conçue pour la formation et l'exécution de grands modèles, ses performances sont très bonnes en termes de performances, au moins comparables aux puces grand public d'Amazon, Google et d'autres sociétés.

Bien sûr, les performances d'Athena ne sont certainement pas comparables à celles des puces phares de Nvidia, mais elles peuvent donner à Microsoft une plus grande initiative et permettre à Nvidia d'être légèrement plus sobre dans la fourniture de devis de puces. De plus, Athena n'est que la première puce d'IA professionnelle de Microsoft, et son investissement en R&D de plus de 2 milliards de dollars américains ne produira évidemment pas un seul résultat.

En tant que plus grand sponsor d'OpenAI, Microsoft exigera très probablement qu'OpenAI fournisse un environnement de test et de déploiement pour la puce Athena, après tout, Amazon et Google l'ont fait. Bien avant que Microsoft, Amazon et Google n'investissent dans de nombreuses sociétés d'IA. Alors qu'Amazon a fourni un soutien financier de 4 milliards de dollars à Anthropic, il a également obligé l'autre partie à utiliser deux puces d'IA développées par Amazon. **

Lorsque les principales sociétés d'IA commenceront à passer à d'autres puces ou à des puces développées par elles-mêmes, cela aura inévitablement un impact significatif sur le choix du matériel de l'ensemble du secteur de l'IA. C'est exactement ce que NVIDIA ne veut pas voir.

Contre-mesures de Nvidia

Le charme des grands modèles d’IA y a plongé de nombreuses entreprises technologiques, et certains pensent même que c’est le début de la prochaine révolution industrielle. Bien sûr, ne discutons pas du nombre de nouvelles technologies qui ont été surnommées le « début de la révolution industrielle. » Au moins à en juger par la voie de développement actuelle, le grand modèle d’IA devrait être le plus étroitement lié aux gens ordinaires ces dernières années. .

Les relations étroites avec les gens ordinaires signifient que cette technologie a un marché d'applications très large et peut être rapidement promue et commercialisée pour générer des bénéfices. Depuis la naissance de la technologie jusqu'à son utilisation commerciale, peu de technologies ont progressé aussi rapidement que les grands modèles d'IA. De l'annonce et de l'ouverture de ChatGPT à divers grands modèles d'IA qui surgissent et sont ouverts au public, l'ensemble du processus n'a pris que quelques minutes. un jour et sera achevé dans moins d’un an.

De la productivité au divertissement, en passant par la consommation, les voyages et l'éducation, de grands modèles d'IA ont été mis en œuvre dans de nombreuses applications. Pour cette raison, certaines entreprises puissantes intensifient également leurs efforts pour construire leurs propres centres de données et centres de calcul afin de déployer et de former de plus grandes entreprises. modèles réduits. Les modèles IA vous donnent un avantage sur la concurrence.

**À mesure que le marché de l'IA entre dans une phase concurrentielle, les entreprises recherchent également des méthodes de formation plus efficaces et des modèles plus puissants. En plus d'optimiser les algorithmes et d'autres aspects, des cartes informatiques professionnelles dotées de capacités informatiques plus puissantes sont également indispensables. **Les contre-mesures de NVIDIA sont donc en fait très simples : stabiliser l'équipe R&D et lancer des puces IA qui sont bien en avance sur les autres fabricants.

Les performances matérielles sont le plus grand avantage de NVIDIA : qu'il s'agisse d'Amazon ou de Microsoft, tant qu'ils souhaitent trouver le meilleur équilibre entre performances et consommation d'énergie, NVIDIA est leur premier choix. Il n'y a que deux raisons qui incitent les fabricants à utiliser des puces développées par Nvidia : l'une est que les puces de Nvidia sont trop chères et l'autre est que l'offre est limitée et qu'ils doivent attendre les stocks, ce qui a un impact sur les plans d'expansion des fabricants.

À l'heure actuelle, la capacité de production de Nvidia augmente progressivement et le volume des achats diminue progressivement, et devrait bientôt atteindre un stade d'équilibre entre l'offre et la demande. Ensuite, le seul problème est le prix : étant donné que le coût et le prix de vente de Nvidia sont près de 10 fois différents, il devrait y avoir une large marge de réduction des prix.

**Personnellement, je pense que tant que NVIDIA est prêt à baisser le prix, l'achat de cartes informatiques professionnelles de NVIDIA pour construire des centres de données hautes performances restera une affaire rentable pour de nombreuses entreprises. **Quant aux puces auto-développées ? En fait, les centres de données nécessitent différents types de puces en fonction de leur taille et de leur objectif. Certains centres de données ayant des exigences de performances inférieures peuvent être construits avec des puces auto-développées.

En termes simples, les centres de formation et de développement utilisent les cartes informatiques professionnelles de Nvidia pour améliorer l'efficacité de la formation, tandis que les centres de données destinés aux utilisateurs ordinaires utilisent des puces auto-développées ou autres pour réduire les coûts de construction et les coûts de maintenance ultérieurs. Pour se développer, les entreprises doivent évidemment construire davantage de centres de données dans le monde pour répondre aux besoins des utilisateurs à proximité.

Par conséquent, les avantages que NVIDIA a accumulés dans le passé ne seront pas facilement perdus, même à l'avenir. Cependant, à mesure que d'autres sociétés entrent dans le jeu, la voix de NVIDIA sera réduite. En termes de prix des produits et d'autres aspects, NVIDIA pourrait céder une partie de ses bénéfices pour maintenir sa part de marché.

Cependant, par rapport aux batailles précédentes entre dieux et mortels, le siège de « Guangmingding » par de nombreuses sociétés d'IA cette fois peut en fait permettre aux petites et moyennes entreprises d'IA d'obtenir des solutions de déploiement de centres de données moins chères.

Voir l'original
  • Récompense
  • Commentaire
  • Partager
Commentaire
Aucun commentaire