Rumah > Artikel > Peranti teknologi > Alami detik resapan stabil model bahasa besar StableLM 7 bilion parameter dalam talian
Dalam pertempuran model bahasa besar, Stability AI juga telah berakhir.
Baru-baru ini, Stability AI mengumumkan pelancaran model bahasa besar pertama mereka-StableLM. Penting: Ia adalah sumber terbuka dan tersedia di GitHub.
Model bermula dengan parameter 3B dan 7B, dan akan diikuti oleh versi dari 15B hingga 65B.
Selain itu, Stability AI turut mengeluarkan model penalaan halus RLHF untuk penyelidikan.
Alamat projek: https://github.com/Stability-AI/StableLM/
Walaupun OpenAI tidak terbuka, komuniti sumber terbuka sudah berkembang. Pada masa lalu kami mempunyai Pembantu Terbuka dan Dolly 2.0, dan kini kami mempunyai StableLM.
Kini, kita boleh mencuba demo model sembang diperhalusi StableLM pada Muka Memeluk.
Sebagai contoh, anda boleh bertanya cara membuat sandwic mentega kacang, dan ia akan memberi anda resipi yang rumit dan sedikit tidak masuk akal.
Atau tulis duel rap epik antara rangkaian saraf dan kecerdasan buatan simbolik:
Sekali lagi Atau tulis "e-mel mesej bertuah" (penjanaan teks):
Dan, gunakan bahasa C untuk mengira makna kehidupan (penjanaan kod):
Walau bagaimanapun, seorang wartawan media asing secara peribadi menguji StableLM dan mendapati bahawa: dari segi serius bercakap karut, ia dibandingkan dengan ChatGPT sebelumnya, bukan sebut terlalu mengalah.
Sebagai contoh, jika anda bertanya apa yang berlaku pada 6 Januari 2021? Ia akan memberitahu anda: Penyokong Trump mengawal Badan Perundangan.
Jika tujuan utama penggunaan LM Stabil bukan penjanaan teks, apakah yang boleh dilakukannya?
Jika anda bertanya soalan ini secara peribadi, ia akan berkata seperti ini, "Ia digunakan terutamanya sebagai sistem sokongan keputusan dalam kejuruteraan sistem dan seni bina, dan juga boleh digunakan untuk pembelajaran statistik. , pembelajaran pengukuhan dan bidang lain 》
Selain itu, LM Stabil jelas tidak mempunyai perlindungan untuk beberapa kandungan sensitif. Sebagai contoh, berikan ujian "Jangan puji Hitler" yang terkenal, dan jawapannya juga mengejutkan.
Walau bagaimanapun, kami tidak tergesa-gesa untuk memanggilnya "model bahasa paling teruk yang pernah ada." Lagipun, ia adalah sumber terbuka kotak hitam AI membolehkan sesiapa sahaja mengintip ke dalam kotak dan melihat kemungkinan punca yang menyebabkan masalah itu.
Stability AI secara rasmi mendakwa bahawa versi Alpha StableLM mempunyai 3 bilion dan 7 bilion parameter, dan akan ada versi berikutnya dengan 15 bilion hingga 65 bilion parameter .
StabilityAI juga dengan berani menyatakan bahawa pembangun boleh menggunakannya sesuka hati mereka. Selagi anda mematuhi syarat yang berkaitan, anda boleh melakukan apa sahaja yang anda mahu, sama ada memeriksa, menggunakan atau menyesuaikan model asas.
StableLM berkuasa ia bukan sahaja menjana teks dan kod, tetapi juga menyediakan asas teknikal untuk aplikasi hiliran. Ia adalah contoh yang bagus tentang bagaimana model yang kecil dan cekap boleh mencapai prestasi yang cukup tinggi dengan latihan yang betul.
Pada tahun-tahun awal, Stability AI dan pusat penyelidikan bukan untung Eleuther AI membangunkan model bahasa awal bersama-sama mempunyai pengumpulan yang mendalam.
Seperti GPT-J, GPT-NeoX dan Pythia, ini adalah produk latihan koperasi antara kedua-dua syarikat, dan dilatih pada set data sumber terbuka The Pile.
Model sumber terbuka seterusnya, seperti Cerebras-GPT dan Dolly-2, semuanya adalah produk susulan daripada tiga beradik di atas.
Kembali ke StableLM, ia telah dilatih pada set data baharu yang dibina pada The Pile Set data ini mengandungi 1.5 trilion token, iaitu kira-kira 3 kali ganda daripada The Pile. Panjang konteks model ialah 4096 token.
Dalam laporan teknikal yang akan datang, Stability AI akan mengumumkan saiz model dan tetapan latihan.
Sebagai bukti konsep, pasukan memperhalusi model dengan Alpaca Universiti Stanford dan menggunakan data daripada set data terkini lima ejen perbualan. Gabungan: Alpaca Universiti Stanford, gpt4all Nomic-AI, set data ShareGPT52K RyokoAI, Dolly makmal Databricks dan HH Anthropic.
Model ini akan dikeluarkan sebagai StableLM-Tuned-Alpha. Sudah tentu, model yang diperhalusi ini adalah untuk tujuan penyelidikan sahaja dan bukan komersial.
Pada masa hadapan, Stability AI juga akan mengumumkan lebih banyak butiran set data baharu.
Antaranya, set data baharu sangat kaya, sebab itu prestasi StableLM hebat. Walaupun skala parameter masih agak kecil pada masa ini (berbanding dengan 175 bilion parameter GPT-3).
Kestabilan AI mengatakan bahawa model bahasa adalah teras era digital, dan kami berharap semua orang boleh bersuara dalam model bahasa.
Dan ketelusan StableLM. Ciri seperti kebolehaksesan dan sokongan juga melaksanakan konsep ini.
Cara terbaik untuk mewujudkan ketelusan ialah menjadi sumber terbuka. Pembangun boleh masuk jauh ke dalam model untuk mengesahkan prestasi, mengenal pasti risiko dan membangunkan langkah perlindungan bersama-sama. Syarikat atau jabatan yang memerlukan juga boleh menyesuaikan model untuk memenuhi keperluan mereka sendiri.
Pengguna setiap hari boleh menjalankan model pada bila-bila masa, di mana-mana sahaja pada peranti tempatan mereka. Pembangun boleh menggunakan model untuk mencipta dan menggunakan aplikasi kendiri serasi perkakasan. Dengan cara ini, faedah ekonomi yang dibawa oleh AI tidak akan dibahagikan oleh beberapa syarikat, dan dividen adalah milik semua pengguna harian dan komuniti pembangun.
Ini adalah sesuatu yang model tertutup tidak boleh lakukan.
Stability AI membina model untuk menyokong pengguna, bukan menggantikannya. Dalam erti kata lain, AI yang mudah dan mudah digunakan dibangunkan untuk membantu orang ramai mengendalikan kerja dengan lebih cekap dan meningkatkan kreativiti dan produktiviti orang ramai. Daripada cuba membangunkan sesuatu yang tidak dapat dikalahkan untuk menggantikan segala-galanya.
Stability AI menyatakan bahawa model ini telah diterbitkan di GitHub, dan laporan teknikal yang lengkap akan dikeluarkan pada masa hadapan.
Stability AI berharap dapat bekerjasama dengan pelbagai pembangun dan penyelidik. Pada masa yang sama, mereka juga menyatakan bahawa mereka akan melancarkan rancangan RLHF penyumberan ramai, kerjasama pembantu terbuka, dan mencipta set data sumber terbuka untuk pembantu AI.
Nama Stability AI sudah sangat kita kenali. Ia adalah syarikat di sebalik model penjanaan imej terkenal Stable Diffusion.
Kini, dengan pelancaran StableLM, boleh dikatakan bahawa Stability AI semakin jauh dalam penggunaan AI untuk memberi manfaat kepada semua orang . Lagipun, sumber terbuka sentiasa menjadi tradisi baik mereka.
Pada tahun 2022, Stability AI menyediakan pelbagai cara untuk semua orang menggunakan Stable Diffusion, termasuk tunjuk cara awam, perisian versi beta dan muat turun penuh model Pembangun boleh menggunakan model tersebut sesuka hati menjalankan Pelbagai integrasi.
Sebagai model imej revolusioner, Stable Diffusion mewakili alternatif yang telus, terbuka dan berskala kepada AI proprietari.
Jelas sekali, Stable Diffusion membolehkan semua orang melihat pelbagai faedah sumber terbuka Sudah tentu, terdapat juga beberapa kelemahan yang tidak dapat dielakkan, tetapi ini sudah pasti nod sejarah yang bermakna.
(Bulan lepas, kebocoran "epik" model sumber terbuka Meta LLaMA menghasilkan satu siri "penggantian" ChatGPT dengan persembahan yang menakjubkan. Keluarga alpaca adalah seperti alam semesta. Kelahiran seperti letupan: Alpaca, Vicuna, Koala, ChatLLaMA, FreedomGPT, ColossalChat...)
Walau bagaimanapun, Stability AI juga memberi amaran bahawa walaupun set data yang digunakannya harus membantu Mengenai "Membimbing bahasa asas model ke dalam pengedaran teks yang lebih selamat, tetapi tidak semua berat sebelah dan ketoksikan boleh dikurangkan melalui penalaan halus."
Hari ini, kami menyaksikan ledakan model penjanaan teks sumber terbuka, apabila syarikat besar dan kecil mendapati bahawa dalam bidang AI generatif yang semakin menguntungkan, adalah penting untuk mencipta nama untuk diri anda lebih awal. .
Sepanjang tahun lalu, Meta, Nvidia dan kumpulan bebas seperti projek BigScience yang disokong oleh Hugging Face telah mengeluarkan model API "peribadi" serupa dengan penggantian GPT-4 dan Claude Anthropic.
Ramai penyelidik telah mengkritik hebat model sumber terbuka ini serupa dengan StableLM kerana penjenayah mungkin menggunakannya dengan motif tersembunyi, seperti mencipta e-mel pancingan data atau membantu perisian hasad.
Tetapi Stablity AI menegaskan bahawa sumber terbuka adalah cara yang paling betul.
Kestabilan AI menekankan, “Kami membuka sumber model kami untuk meningkatkan ketelusan dan memupuk kepercayaan Penyelidik boleh memperoleh pemahaman yang mendalam tentang model ini dan mengesahkan prestasi mereka, teknik kebolehjelasan penyelidikan, mengenal pasti potensi risiko, dan membantu dalam membangunkan langkah perlindungan "Akses terbuka dan terperinci kepada model kami membolehkan pelbagai penyelidikan dan akademik. , membangunkan teknologi kebolehjelasan dan keselamatan yang melampaui model tertutup."
Kenyataan AI Kestabilan memang masuk akal. Malah GPT-4, model teratas industri dengan penapis dan pasukan semakan manusia, tidak terlepas daripada ketoksikan.
Selain itu, model sumber terbuka jelas memerlukan lebih banyak usaha untuk melaraskan dan membetulkan bahagian belakang - terutamanya jika pembangun tidak mengikuti kemas kini terkini.
Malah, melihat kembali sejarah, Kestabilan AI tidak pernah mengelak kontroversi.
Sebentar tadi, ia berada di puncak kes undang-undang pelanggaran dituduh menggunakan imej berhak cipta yang dikikis dari Internet untuk membangunkan AI lukisan. Alat yang melanggar hak jutaan artis.
Selain itu, sesetengah orang yang mempunyai motif tersembunyi telah menggunakan alatan AI Stability untuk menghasilkan imej lucah palsu yang mendalam bagi ramai selebriti, serta imej ganas.
Walaupun Stability AI menekankan nada amalnya dalam catatan blog, Stability AI juga menghadapi tekanan daripada pengkomersialan, sama ada dalam bidang seni, animasi, bioperubatan atau audio yang dihasilkan.
Ketua Pegawai Eksekutif Stability AI, Emad Mostaque telah membayangkan rancangan untuk diumumkan kepada umum Stability AI bernilai lebih daripada $1 bilion tahun lepas dan telah menerima lebih daripada 1 bilion dalam modal teroka. Bagaimanapun, menurut media asing Semafor, Stability AI "membakar wang, tetapi membuat kemajuan perlahan dalam membuat wang."
Atas ialah kandungan terperinci Alami detik resapan stabil model bahasa besar StableLM 7 bilion parameter dalam talian. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!