Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Apple-Forscher sagen, dass ihr On-Device-Modell ReALM GPT-4 übertrifft und die Siri-Intelligenz deutlich verbessern kann

Apple-Forscher sagen, dass ihr On-Device-Modell ReALM GPT-4 übertrifft und die Siri-Intelligenz deutlich verbessern kann

PHPz
PHPznach vorne
2024-04-02 09:16:141110Durchsuche

苹果研究人员称其设备端模型 ReALM 性能优于 GPT-4,可大幅提升 Siri 智能程度

Laut Nachrichten dieser Website vom 2. April kann Siri derzeit zwar versuchen, die Bilder in der Nachricht zu beschreiben, der Effekt ist jedoch nicht stabil. Allerdings hat Apple die Erforschung des Bereichs der künstlichen Intelligenz nicht aufgegeben. In einem aktuellen Forschungsbericht beschrieb Apples Team für künstliche Intelligenz ein Modell, das die Intelligenz von Siri deutlich verbessern kann. Sie glauben, dass dieses Modell namens ReALM in Tests das bekannte Sprachmodell GPT-4.0 übertroffen hat.

In diesem Artikel wird das Besondere an ReALM vorgestellt, das gleichzeitig den Inhalt auf dem Bildschirm des Benutzers und die laufenden Vorgänge verstehen kann. Diskussionen werden in die folgenden drei Typen unterteilt:

  • Bildschirmentität: bezieht sich auf den Inhalt, der aktuell auf dem Bildschirm des Benutzers angezeigt wird.
  • Konversationsentität: bezieht sich auf Inhalte im Zusammenhang mit der Konversation. Wenn der Benutzer beispielsweise „Mama anrufen“ sagt, sind die Kontaktinformationen der Mutter die Konversationseinheit.
  • Hintergrundentitäten: bezieht sich auf Entitäten, die möglicherweise nicht direkt mit dem aktuellen Vorgang des Benutzers oder dem auf dem Bildschirm angezeigten Inhalt zusammenhängen, z. B. der abgespielten Musik oder dem Alarm, der bald ertönen wird.

Wenn es perfekt funktioniert, wird ReALM Siri noch intelligenter und nützlicher machen. Sie verglichen die Leistung von ReALM mit GPT-3.5 und GPT-4.0 von OpenAI:

Wir haben die von OpenAI bereitgestellten GPT-3.5- und GPT-4.0-Modelle getestet und sie mit Kontextinformationen versorgt, damit sie eine Reihe möglicher Entitäten vorhersagen können. GPT-3.5 akzeptiert nur Texteingaben, daher stellen wir nur Texthinweise bereit. GPT-4 kann Bildinformationen verstehen, daher haben wir ihm Screenshots zur Verfügung gestellt, was seine Fähigkeiten zur Erkennung von Bildschirmobjekten deutlich verbessert hat.

Wie funktioniert also Apples ReALM?

„Unser Modell hat erhebliche Fortschritte bei der Identifizierung verschiedener Arten von Entitäten gemacht. Selbst das kleinste Modell hat die Genauigkeit der Bildschirmentitätserkennung im Vergleich zum Originalsystem um mehr als 5 % verbessert. Kompatibel mit GPT-3.5 und im GPT-. Im Vergleich zu GPT-4.0 schneidet unser kleinstes Modell auf Augenhöhe mit GPT-4.0 ab, während das größere Modell es deutlich übertrifft kann mit der Leistung mithalten und bei der Verarbeitung von Benutzeranweisungen in bestimmten Bereichen eine bessere Leistung erbringen, was ReALM zu einem praktischen und effizienten Entitätserkennungssystem macht, das auf der Geräteseite ausgeführt werden kann.

Für Apple scheint es entscheidend zu sein, wie man diese Technologie auf Geräte anwenden kann, ohne die Leistung zu beeinträchtigen. Da am 10. Juni die Entwicklerkonferenz WWDC 2024 stattfindet, wird allgemein erwartet, dass Apple in neuen Systemen wie iOS 18 weitere Errungenschaften im Bereich der künstlichen Intelligenztechnologie demonstrieren wird.

Das obige ist der detaillierte Inhalt vonApple-Forscher sagen, dass ihr On-Device-Modell ReALM GPT-4 übertrifft und die Siri-Intelligenz deutlich verbessern kann. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen