Rumah >Peranti teknologi >AI >3140 parameter Inferens Grok-1 dipercepatkan sebanyak 3.8 kali, versi PyTorch+HuggingFace ada di sini
Musk melakukan apa yang dia katakan dan sumber terbuka Grok-1, dan komuniti sumber terbuka sangat gembira.
Walau bagaimanapun, masih terdapat beberapa kesukaran dalam membuat perubahan atau pengkomersilan berdasarkan Grok-1:
Grok-1 dibina menggunakan Rust+JAX, dan ambang untuk pengguna yang biasa mengarusperdanakan ekosistem perisian seperti Python+ PyTorch+HuggingFace adalah tinggi.
Pencapaian terkini pasukan Colossal-AI menyelesaikan keperluan mendesak semua orang Sediakan Grok+Hugging+Pyce Torch yang mudah dan mudah digunakan -1, yang boleh melaksanakan penaakulan Latency dipercepatkan hampir 4 kali ganda !
Kini, model itu telah diterbitkan di HuggingFace dan ModelScope.
Pautan muat turun HuggingFace:
https://www.php.cn/link/335396ce0d3f6e808c26132f91916eae
ModelScope pautan muat turun:
/php279999999999999999999999999999999999999999999999999999997 e8 91995dc9e
Latensi inferens dipercepatkan hampir 4 kali ganda.
Tutorial PenggunaanSelepas memuat turun dan memasang Colossal-AI, mulakan sahaja skrip inferens../run_inference_fast.sh hpcaitech/grok-1Berat model akan dimuat turun dan dimuatkan secara automatik, dan keputusan inferens akan kekal sejajar. Seperti yang ditunjukkan dalam rajah di bawah, ujian berjalan pencarian rakus Grok-1. Untuk butiran lanjut, sila rujuk kes penggunaan grok-1:
https://www.php.cn/link/e2575ed7d2c481c414c10e688bcbc4cf1
Khususnya, model asas asal daripada fasa pra-latihan pada Oktober 2023, yang tidak diperhalusi untuk mana-mana aplikasi tertentu (seperti dialog).
Secara struktur, Grok-1 menggunakan seni bina pakar campuran (MoE),
mengandungi 8 pakar, dan jumlah parameter ialah 314B (314 bilion) Apabila memproses Token, dua daripada pakar akan diaktifkan, dan parameter pengaktifan amaun ialah 86B. Melihat pada jumlah parameter yang diaktifkan sahaja, ia telah melebihi 70B model padat Llama 2. Bagi seni bina KPM, tidak keterlaluan untuk memanggil jumlah parameter ini sebagai raksasa.
Maklumat parameter lanjut adalah seperti berikut:
Panjang tetingkap ialah 8192 token, ketepatannya ialah bf16mesra komersial.
Pada masa ini, rating bintang Grok-1 di GitHub telah mencapai 43.9k Bintang.
Qubit memahami bahawa Colossal-AI akan melancarkan lagi pengoptimuman untuk Grok-1 dalam masa terdekat seperti pecutan selari dan pengurangan kuantitatif kos memori grafik Selamat datang untuk terus memberi perhatian.
Alamat sumber terbuka Colossal-AI:
https://www.php.cn/link/b9531e7d2a8f38fe8dcc73f58cae9530
Atas ialah kandungan terperinci 3140 parameter Inferens Grok-1 dipercepatkan sebanyak 3.8 kali, versi PyTorch+HuggingFace ada di sini. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!