Maison  >  Article  >  Périphériques technologiques  >  OpenAI a cessé de servir et les grands modèles nationaux sont disponibles gratuitement ! Le jeton de développeur est implémenté librement

OpenAI a cessé de servir et les grands modèles nationaux sont disponibles gratuitement ! Le jeton de développeur est implémenté librement

王林
王林original
2024-06-25 20:56:11879parcourir
Tôt ce matin, OpenAI a soudainement annoncé qu'elle mettrait fin à ses services API vers la Chine, limitant ainsi davantage l'accès des développeurs nationaux aux grands modèles de haut niveau tels que GPT. C'est vraiment difficile pour les développeurs nationaux.

OpenAI a cessé de servir et les grands modèles nationaux sont disponibles gratuitement ! Le jeton de développeur est implémenté librement

Heureusement, à mesure que le niveau des grands modèles open source devient de plus en plus élevé, les développeurs disposent déjà de nombreux bons "remplacements", tels que Qwen2, DeepSeek V2 et d'autres modèles. Afin de fournir aux développeurs des API open source de grands modèles plus rapides, moins chères, plus complètes et offrant une expérience plus fluide, SiliconFlow, acteur professionnel dans le domaine de l'IA Infra, est entré en scène et a lancé le grand guichet unique. modèle de plateforme API SiliconCloud.

Tout à l'heure, Silicon-based Flow a offert un cadeau sans précédent aux développeurs nationaux : Qwen2 (7B), GLM4 (9B), Yi1.5 (9B) et d'autres grands modèles open source de premier plan sont gratuits en permanence.

Désormais, la « liberté des jetons » n'est plus un rêve pour les développeurs, et ils peuvent développer des super applications sans aucun souci.

Portail "Token Free", accès direct en un clic :

cloud.siliconflow.cn/s/free

OpenAI a cessé de servir et les grands modèles nationaux sont disponibles gratuitement ! Le jeton de développeur est implémenté librement

Tout comme à l'ère de l'industrialisation, les usines mécanisées ont favorisé l'efficacité de la production de masse de marchandises. À l’ère des grands modèles, la prospérité des applications d’IA générative nécessite de toute urgence des usines de production de jetons rentables.

Accéder aux API de grands modèles via les services cloud est devenu le meilleur choix pour les développeurs. Cependant, de nombreuses plates-formes ne fournissent que leurs propres API de grands modèles et n'incluent pas d'autres grands modèles de premier plan. Dans le même temps, en termes de vitesse de réponse des modèles, d'expérience utilisateur et de coût, elles sont loin de répondre aux besoins des développeurs.

Désormais, la super usine de jetons liquides à base de silicium SiliconCloud permet aux développeurs de ne plus dépenser d'énergie à déployer de grands modèles et réduit considérablement le seuil et le coût du développement d'applications IA-Native.

Large Model Token Factory

Mise à jour instantanée, sortie extrêmement rapide, prix abordable

Comme elle s'appelle Token Factory, tous les modèles que les utilisateurs aiment se trouvent directement sur Silicon Cloud.

Récemment, la grande communauté de modèles est assez animée et les modèles open source actualisent constamment SOTA, dominant à tour de rôle la liste.

Silicon Fluid a rapidement téléchargé ces grands modèles sur Silicon Cloud dès que possible, y compris le modèle de génération de code open source le plus puissant DeepSeek-Coder-V2, de grands modèles de langage qui surpassent Llama3 Qwen2, GLM-4-9B-Chat et DeepSeek. Modèles de la série V2. Il prend également en charge les modèles de graphiques Vincent tels que Stable Diffusion 3 Medium et InstantID.

Il convient de mentionner que pour les modèles extrêmement difficiles à déployer tels que DeepSeek V2, SiliconCloud est la seule plateforme de services cloud autre que la plateforme officielle qui prend en charge ces grands modèles open source.

Compte tenu de la nécessité de choisir un grand modèle approprié dans différents scénarios d'application, les développeurs peuvent basculer librement dans SiliconCloud.

OpenAI a cessé de servir et les grands modèles nationaux sont disponibles gratuitement ! Le jeton de développeur est implémenté librement

Une telle plate-forme open source d'agrégation de grands modèles a fourni aux développeurs de nombreuses commodités, mais c'est loin d'être suffisant. En tant que meilleure équipe AI Infra au monde, Silicon Flow s'engage à réduire de 10 000 les coûts de déploiement de grands modèles. fois.

Pour atteindre cet objectif, le principal défi est de savoir comment améliorer considérablement la vitesse d'inférence des grands modèles. Dans quelle mesure SiliconCloud y est-il parvenu ?

Visitez l'image ci-dessus pour ressentir la vitesse de réponse de Qwen2-72B-Instruct sur SiliconCloud.

OpenAI a cessé de servir et les grands modèles nationaux sont disponibles gratuitement ! Le jeton de développeur est implémenté librement

Le temps de génération d'image de SD3 Medium, qui vient d'être open source, est d'environ 1 seconde.

OpenAI a cessé de servir et les grands modèles nationaux sont disponibles gratuitement ! Le jeton de développeur est implémenté librement

La vitesse de réponse de ces grands modèles open source est devenue plus rapide, la puissance de sortie de la même puissance de calcul est plus élevée et le prix a naturellement baissé.

Le prix de l'API grand modèle sur Silicon Cloud est également (très) plus abordable. Même pour Qwen2-72B, le site officiel indique qu'il ne coûte que 4,13 yuans / 1M Token. Les nouveaux utilisateurs peuvent également profiter gratuitement de 20 millions de jetons.

Commentaires des développeurs : « C'est si rapide qu'on ne peut jamais revenir en arrière »

Dès la sortie de SiliconCloud, de nombreux développeurs ont partagé leur expérience sur les principales plateformes sociales. Certains utilisateurs de "l'eau du robinet" ont commenté comme ceci :

Sur Zhihu, l'expert en système d'apprentissage automatique @方佳瑞 a fait l'éloge de la vitesse de sortie de SiliconCloud, "Après l'avoir utilisé pendant une longue période, je ne supporte pas la vitesse de réponse des autres grands fabricants de modèles sur le côté Web."

OpenAI a cessé de servir et les grands modèles nationaux sont disponibles gratuitement ! Le jeton de développeur est implémenté librement

L'utilisateur de Weibo @ Zhu William II a déclaré que plusieurs autres plates-formes n'osent pas mettre de modèles de paramètres à grande échelle Qwen2, mais SiliconCloud les a tous mis. C'est très rapide et très bon marché, donc il paiera certainement.

Il a également mentionné que Le produit final du grand modèle est le Token. À l'avenir, la production de Tokens sera complétée par des usines de Tokens telles que Silicon-based Liquidity, ou de grandes sociétés modèles ou des fournisseurs de cloud tels que OpenAI et Alibaba Cloud.

OpenAI a cessé de servir et les grands modèles nationaux sont disponibles gratuitement ! Le jeton de développeur est implémenté librement

De plus, les utilisateurs de X recommandent fortement SiliconCloud. L'expérience est si fluide, en particulier l'équipe de service après-vente attentionnée et de première classe.

OpenAI a cessé de servir et les grands modèles nationaux sont disponibles gratuitement ! Le jeton de développeur est implémenté librement

Évaluation du blogueur du compte officiel WeChat : SiliconCloud a la meilleure expérience parmi les produits similaires en Chine.

OpenAI a cessé de servir et les grands modèles nationaux sont disponibles gratuitement ! Le jeton de développeur est implémenté librement

Ces avis ont un point commun évident, ils mentionnent tous la rapidité de la plateforme SiliconCloud. Pourquoi répond-il si rapidement ?

La réponse est simple : L'équipe Silicon Flow a réalisé un gros travail d'optimisation des performances.

Dès 2016, l'équipe OneFlow, le prédécesseur de Silicon-based Flow, s'est consacrée aux grandes infrastructures de modèles et a été la seule équipe entrepreneuriale au monde à développer un cadre général d'apprentissage profond. En recréant leur entreprise, ils ont pris l'initiative de développer un moteur d'inférence de grands modèles hautes performances basé sur leur riche expérience en matière d'infrastructure d'IA et d'optimisation de l'accélération. Dans certains scénarios, le débit des grands modèles peut être accéléré jusqu'à 10 fois. Le moteur a également été intégré à la plateforme Silicon Cloud.

En d'autres termes, permettre aux développeurs d'utiliser des services de grands modèles avec une sortie plus rapide et des prix abordables est la spécialité de l'équipe mobile basée sur silicium.

Une fois Token gratuit, les applications phénoménales sont-elles encore loin ?

Auparavant, un facteur majeur qui empêchait les développeurs nationaux de développer des applications d'IA était l'inconvénient d'accéder à de grands modèles de haut niveau, même s'ils créaient des applications de haute qualité, ils n'osaient pas les promouvoir à grande échelle car ils le feraient. ils brûlent de l'argent trop rapidement et ils ne peuvent pas se le permettre.

Avec l'itération continue des grands modèles open source nationaux, les modèles représentés par Qwen2 et DeepSeek V2 sont suffisants pour prendre en charge les super applications. Plus important encore, l'émergence de Token factory SiliconCloud peut résoudre les soucis des super individus, ils n'en ont plus. se soucier des applications Au lieu des coûts de puissance de calcul causés par la R&D et la promotion à grande échelle, vous devez uniquement vous concentrer sur la réalisation d'idées de produits et la création d'applications d'IA génératives dont les utilisateurs ont besoin.

On peut dire que c'est maintenant le meilleur moment de « recherche d'or » pour les développeurs et chefs de produit super individuels, et SiliconCloud, un outil de recherche d'or utile, a été préparé pour vous.

Autre rappel : Qwen2 (7B), GLM4 (9B) et d'autres grands modèles open source de premier plan sont gratuits en permanence.

Bienvenue dans Token Factory SiliconCloud :

cloud.siliconflow.cn/s/free

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn