>  기사  >  기술 주변기기  >  Apple 연구원들은 자사의 온디바이스 모델인 ReALM이 GPT-4보다 성능이 뛰어나며 Siri 지능을 크게 향상시킬 수 있다고 말합니다.

Apple 연구원들은 자사의 온디바이스 모델인 ReALM이 GPT-4보다 성능이 뛰어나며 Siri 지능을 크게 향상시킬 수 있다고 말합니다.

PHPz
PHPz앞으로
2024-04-02 09:16:141168검색

苹果研究人员称其设备端模型 ReALM 性能优于 GPT-4,可大幅提升 Siri 智能程度

4월 2일 이 웹사이트의 뉴스에 따르면 Siri는 현재 메시지의 사진을 설명하려고 시도하고 있지만 효과가 안정적이지 않습니다. 하지만 애플은 인공지능 분야 탐구를 포기하지 않았다. 최근 연구 논문에서 Apple의 인공 지능 팀은 ReALM이라고 불리는 이 모델이 테스트에서 OpenAI의 잘 알려진 언어 모델 GPT-4.0보다 성능이 뛰어났다고 믿습니다.

이 기사에서는 사용자 화면의 내용과 진행 중인 작업을 동시에 이해할 수 있는 ReALM의 특별한 점을 소개합니다. 토론은 다음 세 가지 유형으로 나뉩니다.

  • 화면 개체: 현재 사용자 화면에 표시되는 콘텐츠를 말합니다.
  • 대화 엔터티: 대화와 관련된 내용을 말합니다. 예를 들어 사용자가 "엄마에게 전화해"라고 말하면 엄마의 연락처 정보가 대화 항목이 됩니다.
  • 배경 엔터티: 재생 중인 음악이나 곧 울리려는 알람 등 사용자의 현재 작업이나 화면에 표시되는 콘텐츠와 직접 관련이 없을 수 있는 엔터티를 의미합니다.

완벽하게 작동한다면 ReALM은 Siri를 더욱 스마트하고 유용하게 만들어줄 것입니다. 그들은 ReALM의 성능을 OpenAI의 GPT-3.5 및 GPT-4.0과 비교했습니다.

우리는 OpenAI에서 제공하는 GPT-3.5 및 GPT-4.0 모델을 테스트하고 일련의 가능한 엔터티를 예측할 수 있도록 상황에 맞는 정보를 제공했습니다. GPT-3.5는 텍스트 입력만 허용하므로 텍스트 힌트만 제공합니다. GPT-4는 이미지 정보를 이해할 수 있으므로 스크린샷을 제공하여 화면 개체 인식 기능을 크게 향상시켰습니다.

그렇다면 Apple의 ReALM은 어떻게 작동하나요?

“우리 모델은 다양한 유형의 엔터티를 식별하는 데 상당한 진전을 이루었습니다. 심지어 가장 작은 모델이라도 원래 시스템에 비해 화면 엔터티 인식의 정확도가 5% 이상 향상되었습니다. GPT-3.5 및 GPT-와 호환됩니다. 4.0 비교에서 가장 작은 모델은 GPT-4.0과 동등한 성능을 발휘하지만 더 큰 모델은 GPT-4.0보다 성능이 훨씬 뛰어납니다."

논문의 결론 중 하나는 ReALM이 GPT-4보다 성능이 낮다는 것입니다. 매개변수가 더 많으면 성능 면에서 일치할 수 있으며, 특정 필드에서 사용자 명령을 처리할 때 더 나은 성능을 발휘하므로 ReALM은 장치 측에서 실행할 수 있는 실용적이고 효율적인 엔터티 인식 시스템이 됩니다.

애플의 경우, 이 기술을 성능에 영향을 주지 않고 기기에 어떻게 적용하느냐가 관건인 것 같습니다. 6월 10일 WWDC 2024 개발자 컨퍼런스 개최를 앞두고 있는 만큼, 애플이 iOS 18 등 새로운 시스템에서 더욱 많은 인공지능 기술 성과를 선보일 것으로 예상된다.

위 내용은 Apple 연구원들은 자사의 온디바이스 모델인 ReALM이 GPT-4보다 성능이 뛰어나며 Siri 지능을 크게 향상시킬 수 있다고 말합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제