Rumah > Artikel > Peranti teknologi > LLaMa 3 mungkin ditangguhkan ke Julai, menyasarkan GPT-4 dan belajar pelajaran daripada Gemini
Model penjanaan imej masa lalu sering dikritik kerana mempersembahkan imej kebanyakannya orang kulit putih, dan model Gemini Google telah menghadapi masalah kerana keterlaluan yang melampau. Hasil imej yang dihasilkannya menjadi terlalu berhati-hati dan menyimpang dengan ketara daripada fakta sejarah, mengejutkan pengguna. Google mendakwa model itu lebih bijak daripada yang dijangkakan oleh pembangun. Perhatian ini ditunjukkan bukan sahaja dalam imej yang dijana, tetapi juga dalam sering menganggap beberapa gesaan sebagai sensitif dan dengan itu enggan memberikan jawapan.
Memandangkan isu ini terus menarik perhatian, cara untuk mencapai keseimbangan antara keselamatan dan kebolehgunaan telah menjadi cabaran besar bagi Meta. LLaMA 2 dianggap sebagai "pemain kuat" dalam bidang sumber terbuka dan juga telah menjadi model bintang Meta Ia mengubah keadaan model besar sebaik sahaja ia dilancarkan. Pada masa ini, Meta sedang bersedia sepenuhnya untuk melancarkan LLaMa 3, tetapi terlebih dahulu perlu menyelesaikan masalah yang ditinggalkan oleh LLaMA 2: ia kelihatan terlalu konservatif dalam menjawab soalan kontroversi.
Meta menambah perlindungan dalam Llama 2 untuk menghalang LLM daripada menjawab pelbagai soalan kontroversi. Walaupun konservatisme ini diperlukan untuk mengendalikan kes ekstrem, seperti pertanyaan yang berkaitan dengan keganasan atau aktiviti haram, ia juga mengehadkan keupayaan model untuk menjawab soalan yang lebih biasa tetapi sedikit kontroversi. Menurut The Information, apabila dia bertanya kepada LLaMA 2 bagaimana pekerja boleh mengelak daripada masuk ke pejabat pada hari-hari apabila mereka dikehendaki datang ke pejabat, dia telah ditolak nasihat atau diberitahu bahawa "adalah penting untuk menghormati dan mematuhi dasar syarikat dan garis panduan." ". LLaMA 2 juga enggan memberikan jawapan tentang cara mengejek rakan anda, memenangi peperangan atau merosakkan enjin kereta. Jawapan konservatif ini bertujuan untuk mengelakkan bencana PR.
Walau bagaimanapun, telah didedahkan bahawa kepimpinan kanan Meta dan beberapa penyelidik yang terlibat dalam kerja model percaya bahawa jawapan LLaMA 2 adalah terlalu "selamat". Meta sedang berusaha untuk menjadikan model LLaMA 3 yang akan datang lebih fleksibel dan menyediakan lebih banyak maklumat kontekstual apabila memberikan jawapan, dan bukannya menolak jawapan secara langsung. Penyelidik cuba menjadikan LLaMA 3 lebih interaktif dengan pengguna dan lebih memahami maksudnya. Dilaporkan bahawa versi baharu model itu akan lebih berupaya membezakan pelbagai makna sesuatu perkataan. Sebagai contoh, LLaMA 3 mungkin memahami bahawa soalan tentang cara memusnahkan enjin kereta merujuk kepada cara mematikannya, bukan untuk memusnahkannya. Meta juga merancang untuk melantik orang dalaman untuk mengendalikan latihan nada dan keselamatan dalam beberapa minggu akan datang, The Information melaporkan, sebagai sebahagian daripada usaha syarikat untuk menjadikan respons model lebih bernuansa.
Cabaran yang Meta dan Google perlu atasi bukan sekadar mencari titik keseimbangan ini, banyak syarikat gergasi teknologi turut terjejas dalam pelbagai peringkat. Mereka perlu bekerja keras untuk membina produk yang semua orang suka, boleh gunakan dan berfungsi dengan lancar, di samping memastikan produk tersebut selamat dan boleh dipercayai. Ini adalah masalah yang mesti dihadapi oleh syarikat teknologi semasa mereka mengejar teknologi AI.
Keluaran LLaMa 3 amat dinantikan, dengan Meta merancang untuk mengeluarkannya pada bulan Julai, tetapi jadual masih boleh berubah. Ketua Pegawai Eksekutif Meta, Mark Zuckerberg bercita-cita tinggi dan pernah berkata, "Walaupun Llama 2 bukan model peneraju industri, ia adalah model sumber terbuka terbaik. Untuk LLaMa 3 dan model seterusnya, matlamat kami adalah untuk membina SOTA, dan akhirnya menjadi industri- model terkemuka 》
Alamat asal: https://www.reuters.com/technology/meta-plans-launch-new-ai-language-model-llama-3 -july-information-reports-2024 -02-28/
Meta Saya harap LLaMa 3 dapat mengejar GPT-4 OpenAI. Kakitangan syarikat Meta mendedahkan bahawa ia masih belum diputuskan sama ada LLaMa 3 akan menjadi multi-modal dan sama ada ia akan dapat memahami dan menjana teks dan imej, kerana para penyelidik belum mula memperhalusi model tersebut. Walau bagaimanapun, LLaMa dijangka mempunyai lebih daripada 14 bilion parameter, yang akan melebihi LLaMa 2 dengan ketara, menunjukkan peningkatan ketara dalam keupayaannya untuk mengendalikan pertanyaan yang kompleks.
Selain 350,000 H100 dan berpuluh bilion dolar yang boleh diuruskan, bakat juga merupakan "keperluan" untuk latihan LLaMa 3. Meta membangunkan LLaMa melalui kumpulan AI generatifnya, yang berasingan daripada pasukan penyelidikan AI asasnya. Louis Martin, penyelidik yang bertanggungjawab untuk keselamatan LLaMa 2 dan 3, meninggalkan syarikat itu pada Februari. Kevin Stone, yang mengetuai pembelajaran pengukuhan, juga meninggalkan bulan ini. Sama ada ini akan memberi kesan kepada latihan LLaMa 3 tidak diketahui. Kami akan menunggu dan melihat sama ada LLaMa 3 boleh mencapai keseimbangan yang baik antara keselamatan dan kebolehgunaan dan memberi kami kejutan baharu dari segi keupayaan pengekodan.
Atas ialah kandungan terperinci LLaMa 3 mungkin ditangguhkan ke Julai, menyasarkan GPT-4 dan belajar pelajaran daripada Gemini. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!