Google이 어젯밤 Cloud Next 컨퍼런스에서 일련의 주요 릴리스를 발표했을 때 여러분 모두가 열기를 느끼기 위해 모였습니다. OpenAI는 과거에 GPT-4 Turbo를 업데이트했고 Mistral은 나중에 대형 8X22B 모델을 오픈소스로 제공했습니다. . Google 하트: 난촌의 한 무리의 아이들은 내가 늙고 약하다는 이유로 나를 괴롭혔습니다.
두 번째로 큰 오픈 소스 모델: Mixtral 8X22B올해 1월 Mistral AI는 Mixtral 8x7B의 기술 세부 사항을 발표하고 Mixtral 8x7B – Instruct 채팅 모델을 출시했습니다. 이 모델의 성능은 인간 평가 벤치마크에서 GPT-3.5 Turbo, Claude-2.1, Gemini Pro 및 Llama 2 70B 채팅 모델을 크게 능가합니다. 불과 3개월 후 Mistral AI는 Mistral 8X22B 모델을 오픈 소스화하여 오픈 소스 커뮤니티에 강력한 성능을 갖춘 또 다른 대형 모델을 선보였습니다. 누군가 Mistral 8X22B 모델의 세부 사항을 살펴 보았는데 모델 파일 크기는 약 262GB입니다. 그 결과 Mistral 8X22B는 이전에 xAI가 출시한 Grok-1(매개변수 볼륨 3,140억)에 이어 지금까지 두 번째로 큰 오픈 소스 모델이 되었습니다. 어떤 사람들은 MoE 서클에 또 다른 "큰 사람"이 있다고 외쳤습니다. MoE는 전문가 모델의 혼합이며 이전에는 Grok-1도 MoE 모델이었습니다. GPT-4 Turbo 비전 기능 새로운 업그레이드 OpenAI는 이제 API를 통해 GPT-4 Turbo with Vision을 사용할 수 있으며 Vision 기능도 JSON 스키마와 함수 호출 . 다음은 OpenAI 공식 홈페이지 내용입니다. 그럼에도 불구하고 각계 네티즌들은 OpenAI의 사소한 수리에 대해 "차갑지 않다"고 합니다. https://platform.openai.com/docs/models/continuous-model-upgrades위 내용은 Mistral 오픈 소스 8X22B 대형 모델, OpenAI는 GPT-4 Turbo 비전을 업데이트하며 모두 Google을 괴롭 히고 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!