Maison  >  Article  >  Périphériques technologiques  >  Les chercheurs Apple affirment que leur modèle intégré ReALM surpasse GPT-4 et peut améliorer considérablement l'intelligence de Siri.

Les chercheurs Apple affirment que leur modèle intégré ReALM surpasse GPT-4 et peut améliorer considérablement l'intelligence de Siri.

PHPz
PHPzavant
2024-04-02 09:16:141168parcourir

苹果研究人员称其设备端模型 ReALM 性能优于 GPT-4,可大幅提升 Siri 智能程度

Selon les nouvelles de ce site du 2 avril, bien que Siri puisse actuellement essayer de décrire les images dans le message, l'effet n'est pas stable. Pour autant, Apple n’a pas renoncé à explorer le domaine de l’intelligence artificielle. Dans un récent document de recherche, l'équipe d'intelligence artificielle d'Apple a décrit un modèle qui peut améliorer considérablement l'intelligence de Siri. Ils estiment que ce modèle, appelé ReALM, a surpassé le modèle de langage bien connu d'OpenAI, GPT-4.0 lors des tests.

Cet article présente la particularité de ReALM, qui peut comprendre simultanément le contenu sur l'écran de l'utilisateur et les opérations en cours. Les discussions sont divisées selon les trois types suivants :

  • Screen Entity : fait référence au contenu actuellement affiché sur l'écran de l'utilisateur.
  • Entité de conversation : désigne le contenu lié à la conversation. Par exemple, si l'utilisateur dit « appeler maman », alors les informations de contact de maman sont l'entité de conversation.
  • Entités d'arrière-plan : fait référence à des entités qui peuvent ne pas être directement liées à l'opération en cours de l'utilisateur ou au contenu affiché à l'écran, comme la musique en cours de lecture ou l'alarme sur le point de sonner.

Si cela fonctionne parfaitement, ReALM rendra Siri encore plus intelligent et plus utile. Ils ont comparé les performances de ReALM avec celles des GPT-3.5 et GPT-4.0 d'OpenAI :

Nous avons testé les modèles GPT-3.5 et GPT-4.0 fournis par OpenAI et leur avons fourni des informations contextuelles pour leur permettre de prédire une série d'entités possibles. GPT-3.5 n'accepte que la saisie de texte, nous ne fournissons donc que des indications textuelles. GPT-4 peut comprendre les informations sur les images, nous lui avons donc fourni des captures d'écran, ce qui a considérablement amélioré ses capacités de reconnaissance d'entités d'écran.

Alors, comment fonctionne ReALM d’Apple ?

« Notre modèle a fait des progrès significatifs dans l'identification de différents types d'entités. Même le plus petit modèle a amélioré la précision de la reconnaissance des entités d'écran de plus de 5 % par rapport au système d'origine Compatible avec GPT-3.5 et GPT-. 4.0, notre plus petit modèle fonctionne à égalité avec GPT-4.0, tandis que le plus grand modèle le surpasse considérablement"

L'une des conclusions de l'article est que ReALM a même moins de performances que GPT-4. Avec plus de paramètres, il peut l'égaler en termes de performances et mieux fonctionner lors du traitement des instructions utilisateur dans des domaines spécifiques, ce qui fait de ReALM un système de reconnaissance d'entité pratique et efficace qui peut fonctionner côté appareil.

Pour Apple, comment appliquer cette technologie aux appareils sans affecter les performances semble être la clé. Alors que la conférence des développeurs WWDC 2024 est sur le point de se tenir le 10 juin, on s'attend généralement à ce qu'Apple démontre davantage de réalisations technologiques en matière d'intelligence artificielle dans de nouveaux systèmes tels que iOS 18.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer