


Minggu lepas, Microsoft melancarkan model sumber terbuka yang dipanggil WizardLM-2 yang boleh dipanggil tahap GPT-4.
Tanpa disangka, ia dipadamkan serta-merta beberapa jam selepas ia disiarkan.
Sesetengah netizen tiba-tiba mendapati bahawa berat model WizardLM dan siaran pengumuman semuanya telah dipadamkan dan tidak lagi berada dalam koleksi Microsoft Selain daripada sebutan tapak, tiada bukti boleh ditemui untuk membuktikan projek rasmi Microsoft ini.
Laman utama projek GitHub telah menjadi 404.
Alamat projek: https://wizardlm.github.io/
Termasuk berat model pada HF, semuanya hilang...
Keseluruhan rangkaian
penuh kekeliruan, mengapa WizardLM hilang?
Tetapi, Microsoft melakukan ini kerana pasukan terlupa untuk "menguji" model tersebut.
Kemudian, pasukan Microsoft muncul untuk memohon maaf dan menjelaskan bahawa sudah agak lama sejak WizardLM dikeluarkan beberapa bulan yang lalu, jadi kami tidak biasa dengan proses keluaran baharu sekarang.
Kami secara tidak sengaja terlepas salah satu perkara yang diperlukan dalam proses keluaran model: ujian keracunan
Microsoft WizardLM dinaik taraf kepada generasi kedua telah dipertingkatkan kepada generasi kedua
berdasarkan LlaMA Sebaik sahaja generasi pertama WizardLM dikeluarkan, ia menarik banyak perhatian daripada komuniti sumber terbuka.
Alamat kertas: https://arxiv.org/pdf/2304.12244.pdf
Seterusnya, versi kod WizardCoder telah dilahirkan - model berdasarkan Kod Llama yang diselaraskan dengan baik Mengarahkan.
Hasil ujian menunjukkan bahawa pas WizardCoder@1 pada HumanEval mencapai 73.2% yang menakjubkan, mengatasi GPT-4 yang asal.
Memandangkan masa berlalu ke 15 April, pembangun Microsoft secara rasmi mengumumkan generasi baharu WizardLM, kali ini ia diperhalusi daripada Mixtral 8x22B.
Ia mengandungi tiga versi parameter iaitu 8x22B, 70B dan 7B.
Yang paling patut disebut ialah dalam ujian penanda aras MT-Bench, model baharu itu mencapai kelebihan utama.
Secara khusus, prestasi versi parameter terbesar model WizardLM 8x22B hampir hampir dengan GPT-4 dan Claude 3.
Di bawah skala parameter yang sama, versi 70B berada di kedudukan pertama.
Versi 7B adalah yang terpantas malah boleh mencapai prestasi yang setara dengan model terkemuka dengan skala parameter yang 10 kali lebih besar.
Rahsia di sebalik prestasi cemerlang WizardLM 2 terletak pada metodologi latihan revolusioner Evol-Instruct yang dibangunkan oleh Microsoft.
Evol-Instruct memanfaatkan model bahasa yang besar untuk menulis semula set arahan awal secara berulang ke dalam varian yang semakin kompleks. Data arahan yang berkembang ini kemudiannya digunakan untuk memperhalusi model asas, dengan ketara meningkatkan keupayaannya untuk mengendalikan tugas yang kompleks.
Yang lain ialah rangka kerja pembelajaran pengukuhan RLEIF, yang juga memainkan peranan penting dalam proses pembangunan WizardLM 2.
Dalam latihan WizardLM 2, kaedah AI Align AI (AAA) juga diguna pakai, yang membolehkan berbilang model besar terkemuka untuk membimbing dan menambah baik satu sama lain.
Rangka kerja AAA terdiri daripada dua komponen utama iaitu "co-teaching" dan "self-study".
Mengajar bersama peringkat ini, WizardLM dan pelbagai model lanjutan sumber terbuka dan proprietari berlesen menjalankan sembang simulasi, pertimbangan kualiti, cadangan untuk penambahbaikan dan menutup jurang kemahiran.
Dengan berkomunikasi antara satu sama lain dan memberikan maklum balas, model boleh belajar daripada rakan sebaya mereka dan meningkatkan keupayaan mereka.
Untuk pembelajaran kendiri, WizardLM boleh menjana data latihan evolusi baharu untuk pembelajaran diselia dan data keutamaan untuk pembelajaran pengukuhan melalui pembelajaran kendiri aktif.
Mekanisme pembelajaran kendiri ini membolehkan model meningkatkan prestasi secara berterusan dengan belajar daripada data dan maklumat maklum balas yang dijana sendiri.
Selain itu, model WizardLM 2 telah dilatih menggunakan data sintetik yang dihasilkan.
Pada pandangan penyelidik, data latihan untuk model besar semakin berkurangan, dan dipercayai bahawa data yang dicipta dengan teliti oleh AI dan model yang diselia secara beransur-ansur oleh AI akan menjadi satu-satunya cara untuk mendapatkan kecerdasan buatan yang lebih berkuasa.
Jadi mereka mencipta sistem latihan sintetik dipacu AI sepenuhnya untuk menambah baik WizardLM-2. .
Sebelum model itu dialih keluar, beberapa pengguna turut mengujinya pada beberapa penanda aras tambahan.
Nasib baik netizen yang mengujinya kagum dengan model 7B dan berkata ia akan menjadi pilihan pertama mereka untuk melaksanakan tugas pembantu tempatan.
Seseorang juga melakukan ujian racun ke atasnya dan mendapati WizardLM-8x22B mendapat 98.33, manakala asas Mixtral-8x22B mendapat 89.46, dan Mixtral 8x7B-Indict93 mendapat markah.
Semakin tinggi markah, lebih baik, bermakna WizardLM-8x22B masih sangat kuat.
Jika tiada ujian keracunan, adalah mustahil untuk menghantar model tersebut.
Semua orang tahu bahawa model besar mudah mengalami halusinasi.
Jika WizardLM 2 mengeluarkan kandungan "toksik, berat sebelah dan tidak betul" dalam jawapan, ia tidak akan mesra kepada model besar.
Secara khususnya, ralat ini telah menarik perhatian seluruh rangkaian, dan juga akan menyebabkan kritikan terhadap Microsoft sendiri, malah mungkin akan disiasat oleh pihak berkuasa.
Sesetengah netizen keliru dan mengatakan bahawa anda boleh mengemas kini penunjuk melalui "ujian keracunan". Mengapa memadamkan keseluruhan repositori dan berat?
Pengarang Microsoft menyatakan bahawa mengikut peraturan dalaman terkini, ini hanya boleh dilakukan.
Ada juga yang kata kita nak model tanpa "lobotomi".
Walau bagaimanapun, pembangun masih perlu menunggu dengan sabar, dan pasukan Microsoft berjanji bahawa ia akan kembali dalam talian selepas ujian selesai.
Atas ialah kandungan terperinci Dalam beberapa jam selepas dikeluarkan, Microsoft memadamkan model sumber terbuka yang besar setanding dengan GPT-4 dalam beberapa saat! Terlupa mengambil ujian racun. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Meta's Llama 3.1 70b dan Llama 3 70b: Perbandingan terperinci META baru -baru ini mengeluarkan Llama 3.1, termasuk model parameter 70B, bersama -sama dengan varian yang lebih besar dan lebih kecil. Peningkatan ini mengikuti pelepasan Llama 3 hanya tiga bulan sebelumnya. Sementara llama 3.1

Lepaskan kuasa persembahan anda: 7 pembuat powerpoint berkuasa AI Sama ada anda seorang pelajar tahun akhir yang membuat projek batu permata yang menonjol atau pertemuan dan persembahan juggling profesional yang sibuk, membuat kesan pertama yang kuat adalah yang paling penting.

Pengenalan Bayangkan senario: Pasukan anda dibanjiri oleh dataset besar -besaran dari pelbagai sumber. Mengintegrasikan, menyusun, dan menganalisis maklumat ini untuk persembahan yang bermakna adalah satu cabaran. Di sinilah Model Power Bi Semantik (PBISM) EX

Ejen AI: Masa Depan AI, Dikuasakan oleh Llamaindex dan Monsterapi Ejen AI bersedia untuk merevolusikan bagaimana kita berinteraksi dengan teknologi. Sistem autonomi ini meniru tingkah laku manusia, melaksanakan tugas yang memerlukan pemikiran, membuat keputusan, dan rea

Membuka kunci AI AI: 7 Kaedah untuk LLMS Latihan Sendiri Bayangkan masa depan di mana sistem AI belajar dan berkembang tanpa campur tangan manusia, seperti kanak -kanak yang menguasai konsep kompleks secara bebas. Ini bukan fiksyen sains; itu janji diri

Pelaporan Kewangan berkuasa AI: merevolusikan pandangan melalui generasi bahasa semula jadi Dalam persekitaran perniagaan dinamik hari ini, analisis kewangan yang tepat dan tepat pada masanya adalah penting untuk membuat keputusan strategik. Pelaporan kewangan tradisional

Robot Tenis Jadual Google Deepmind: Era Baru dalam Sukan dan Robotik Sukan Olimpik Paris 2024 mungkin berakhir, tetapi era baru dalam sukan dan robotik adalah berkemungkinan, terima kasih kepada Google Deepmind. Penyelidikan terobosan mereka ("Mencapai Kompet Tahap Manusia

Membuka Kecekapan dan Skala dengan Gemini Flash 1.5: WebApp Wawasan Makanan Flask Dalam landskap AI yang pesat berkembang, kecekapan dan skalabiliti adalah yang paling utama. Pemaju semakin mencari model berprestasi tinggi yang meminimumkan kos dan latenc


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

VSCode Windows 64-bit Muat Turun
Editor IDE percuma dan berkuasa yang dilancarkan oleh Microsoft

EditPlus versi Cina retak
Saiz kecil, penyerlahan sintaks, tidak menyokong fungsi gesaan kod

SublimeText3 Linux versi baharu
SublimeText3 Linux versi terkini

Dreamweaver CS6
Alat pembangunan web visual

DVWA
Damn Vulnerable Web App (DVWA) ialah aplikasi web PHP/MySQL yang sangat terdedah. Matlamat utamanya adalah untuk menjadi bantuan bagi profesional keselamatan untuk menguji kemahiran dan alatan mereka dalam persekitaran undang-undang, untuk membantu pembangun web lebih memahami proses mengamankan aplikasi web, dan untuk membantu guru/pelajar mengajar/belajar dalam persekitaran bilik darjah Aplikasi web keselamatan. Matlamat DVWA adalah untuk mempraktikkan beberapa kelemahan web yang paling biasa melalui antara muka yang mudah dan mudah, dengan pelbagai tahap kesukaran. Sila ambil perhatian bahawa perisian ini