Maison  >  Article  >  Tutoriel logiciel  >  Zhihu lance la dernière application de modèle à grande échelle « Search Aggregation » et commence les tests internes aujourd'hui

Zhihu lance la dernière application de modèle à grande échelle « Search Aggregation » et commence les tests internes aujourd'hui

WBOY
WBOYavant
2024-03-06 22:00:10507parcourir

Zhihu a publié la dernière application de modèle à grande échelle « Search Aggregation » et commencera les tests internes aujourd'hui. Cette nouvelle fonctionnalité fournira aux utilisateurs des résultats de recherche plus intelligents et personnalisés, les aidant ainsi à trouver plus rapidement les informations dont ils ont besoin. L'éditeur PHP Strawberry vous fera comprendre les caractéristiques et l'utilisation de cette fonction, afin que vous puissiez mieux utiliser cette nouvelle fonction et obtenir des informations plus précieuses.

知乎发布最新大模型应用“搜索聚合” 即日开启内测

Comme indiqué précédemment, lors de la « 2023 Zhihu Discovery Conference » en avril, Zhihu a publié le grand modèle de langage « Zhihaitu AI » et a testé en interne le « Hot List Summary » de la fonction d'application du grand modèle sur le site. Un mois plus tard, Zhihu a introduit sur le site une autre fonction d'application de grand modèle « agrégation de recherche ». Ce produit applique des capacités de modèle étendu à la recherche Zhihu. Chaque fois qu'un utilisateur déclenche une recherche, le système regroupe les opinions d'un grand nombre de questions et de réponses, améliorant ainsi l'efficacité des utilisateurs dans l'obtention d'informations et la prise de décisions. Li Dahai a déclaré que « l'agrégation de recherche » commencerait les tests internes aujourd'hui.

Lors de la conférence de presse, Face Wall Intelligence s'est associé à la communauté OpenBMB pour ouvrir le modèle CPM-Bee 10b auto-développé. Li Dahai a introduit que le modèle est formé indépendamment à partir de zéro, sur la base de Architecture de transformateur, excellentes performances bilingues en chinois et en anglais, avec des dizaines de milliards de paramètres et des milliards de corpus de haute qualité. Dans l'examen ZeroCLUE, le CPM-Bee 10b a obtenu une note globale de 78,18. Sur la liste de raisonnement anglaise de connaissances de bon sens, CPM-Bee 10b a obtenu une moyenne de 67 points, comparable au modèle open source anglais LLaMA. "CPM-Bee10b Il sera entièrement open source et autorisé pour un usage commercial. "Li Dahai a déclaré que Wall-Facing Intelligence a toujours adhéré à la voie de l'open source et continuera à adopter l'open source à l'avenir pour promouvoir la prospérité de la technologie et de l'écologie dans le domaine des grands modèles.

La conférence a également présenté le produit de modèle de dialogue « Luca » développé par Wallface Intelligence. Ce produit a encore amélioré les performances du modèle de base open source et peut effectuer une interaction intelligente et prendre en charge plusieurs cycles de dialogue. Lors de la démonstration en direct lors de la conférence de presse, « Luca » a démontré un certain nombre de capacités. Il peut non seulement aider les gens à comprendre la connaissance du monde, à traiter la logique mathématique, à écrire des codes de programme et à inspirer une inspiration créative, mais il peut également utiliser d'énormes quantités de données de connaissances ; pour aider les gens à mieux obtenir des informations, planifier et résoudre des problèmes. La conférence de presse a également démontré la capacité de compréhension multimodale de « Luca ». Il peut non seulement analyser des informations photographiques telles que les paysages et la géographie, mais également comprendre la signification émotionnelle véhiculée par les images humaines. De plus, "Luca" peut également rechercher des articles et générer des résumés. Li Dahai a annoncé que "Luka" avait désormais commencé les tests internes.

Pour plus d’informations, veuillez prêter attention à ce site.


Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer