>  기사  >  기술 주변기기  >  Mistral 오픈 소스 8X22B 대형 모델, OpenAI는 GPT-4 Turbo 비전을 업데이트하며 모두 Google을 괴롭 히고 있습니다.

Mistral 오픈 소스 8X22B 대형 모델, OpenAI는 GPT-4 Turbo 비전을 업데이트하며 모두 Google을 괴롭 히고 있습니다.

王林
王林앞으로
2024-04-10 17:37:271001검색
정말로 구글을 포위하고 억압하는 추세네요!

Google이 어젯밤 Cloud Next 컨퍼런스에서 일련의 주요 릴리스를 발표했을 때 여러분 모두가 열기를 느끼기 위해 모였습니다. OpenAI는 과거에 GPT-4 Turbo를 업데이트했고 Mistral은 나중에 대형 8X22B 모델을 오픈소스로 제공했습니다. .

Google 하트: 난촌의 한 무리의 아이들은 내가 늙고 약하다는 이유로 나를 괴롭혔습니다.

Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌

두 번째로 큰 오픈 소스 모델: Mixtral 8X22B

올해 1월 Mistral AI는 Mixtral 8x7B의 기술 세부 사항을 발표하고 Mixtral 8x7B – Instruct 채팅 모델을 출시했습니다. 이 모델의 성능은 인간 평가 벤치마크에서 GPT-3.5 Turbo, Claude-2.1, Gemini Pro 및 Llama 2 70B 채팅 모델을 크게 능가합니다.

불과 3개월 후 Mistral AI는 Mistral 8X22B 모델을 오픈 소스화하여 오픈 소스 커뮤니티에 강력한 성능을 갖춘 또 다른 대형 모델을 선보였습니다.
Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌
누군가 Mistral 8X22B 모델의 세부 사항을 살펴 보았는데 모델 파일 크기는 약 262GB입니다.
Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌
그 결과 Mistral 8X22B는 이전에 xAI가 출시한 Grok-1(매개변수 볼륨 3,140억)에 이어 지금까지 두 번째로 큰 오픈 소스 모델이 되었습니다.
Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌
어떤 사람들은 MoE 서클에 또 다른 "큰 사람"이 있다고 외쳤습니다. MoE는 전문가 모델의 혼합이며 이전에는 Grok-1도 MoE 모델이었습니다.
Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌
GPT-4 Turbo 비전 기능 새로운 업그레이드

OpenAI는 이제 API를 통해 GPT-4 Turbo with Vision을 사용할 수 있으며 Vision 기능도 JSON 스키마와 함수 호출 .
Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌
다음은 OpenAI 공식 홈페이지 내용입니다.
Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌
그럼에도 불구하고 각계 네티즌들은 OpenAI의 사소한 수리에 대해 "차갑지 않다"고 합니다.
Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌
Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌
참조 링크:
https://platform.openai.com/docs/models/continuous-model-upgrades

위 내용은 Mistral 오픈 소스 8X22B 대형 모델, OpenAI는 GPT-4 Turbo 비전을 업데이트하며 모두 Google을 괴롭 히고 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 jiqizhixin.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제