Memang ada trend mengepung dan menindas Google!
Apabila Google membuat satu siri keluaran utama pada persidangan Cloud Next malam tadi, anda semua datang untuk merebut perhatian: OpenAI mengemas kini GPT-4 Turbo pada masa lalu, dan Mistral menggunakan sumber terbuka model 8X22B yang besar kemudian . Google heart: Sekumpulan kanak-kanak di Nancun membuli saya kerana saya sudah tua dan lemah.
Model sumber terbuka kedua terbesar: Mixtral 8X22BPada bulan Januari tahun ini, Mistral AI mengumumkan butiran teknikal Mixtral 8x7B dan melancarkan model Mixtral 8x7B – Instruct chat Prestasi model dengan ketara mengatasi model sembang GPT-3.5 Turbo, Claude-2.1, Gemini Pro dan Llama 2 70B pada penanda aras penilaian manusia. Hanya 3 bulan kemudian, Mistral AI menggunakan sumber terbuka model Mistral 8X22B, membawakan satu lagi model besar dengan prestasi kukuh kepada komuniti sumber terbuka. Seseorang telah melihat butiran model Mistral 8X22B dan saiz fail model adalah lebih kurang 262 GB. Hasilnya, Mistral 8X22B telah menjadi model sumber terbuka kedua terbesar setakat ini, kedua selepas Grok-1 (volume parameter 314 bilion) yang dilancarkan oleh xAI sebelum ini. Sesetengah orang melaungkan bahawa terdapat seorang lagi "orang besar" dalam kalangan KPM. MoE ialah gabungan model pakar, dan sebelum ini Grok-1 juga merupakan model MoE. GPT-4 Turbo fungsi penglihatan naik taraf baharu Di sisi lain, OpenAI mengumumkan bahawa GPT-4 Turbo dengan Vision kini tersedia melalui API, dan fungsi Vision juga boleh menggunakan skema JSON panggilan fungsi. Berikut adalah butiran laman web rasmi OpenAI. Walaupun begitu, netizen dari semua lapisan masyarakat "tidak dingin" tentang pembaikan kecil OpenAI. https://platform.openai.com/docs/models/continuous-model-upgradesAtas ialah kandungan terperinci Model besar sumber terbuka Mistral 8X22B, OpenAI mengemas kini penglihatan GPT-4 Turbo, mereka semua membuli Google. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!