Rumah >Peranti teknologi >AI >Kimi K1.5 vs Openai O1: Model penalaran yang lebih baik?

Kimi K1.5 vs Openai O1: Model penalaran yang lebih baik?

Joseph Gordon-Levitt
Joseph Gordon-Levittasal
2025-03-07 09:26:09646semak imbas

Openai adalah yang pertama memperkenalkan model penaakulan seperti O1 dan O1-Mini, tetapi adakah ia satu-satunya pemain dalam permainan? Bukan dengan tembakan panjang! LLM Cina seperti Deepseek, Qwen, dan sekarang Kimi melangkah untuk mencabar OpenAI dengan menyampaikan keupayaan yang sama dengan harga yang lebih berpatutan. Selepas debut Deepseek yang mengagumkan, giliran Kimi Ai bersinar dengan model Kimi K1.5 yang baru. Dalam artikel ini, kami akan menguji Kimi K1.5 terhadap Openai O1 pada tugas yang sama dan melihat mana yang lebih baik!

Jadual Kandungan

    Apa itu Kimi K1.5? Carian Web
  • Tugas 5: Analisis Imej
  • Hasil Akhir: Kimi K1.5 vs OpenAI O1
  • Kesimpulan
  • Sila ambil perhatian:
  • Sila ambil perhatian: Kimi K1.5 adalah percuma, sambil mengakses Chatgpt Plus untuk O1 dan O1-Mini berharga $ 20. Sebelum menyelam ke dalam tugas, mari kita bandingkan dua model.
  • Apa itu kimi k1.5?
  • Kimi K1.5 adalah LLM berbilang modal oleh Moonshot AI yang dilatih dengan pembelajaran tetulang (RL) dan direka untuk cemerlang dalam pelbagai tugas penalaran di seluruh teks, penglihatan, dan pengekodan. Dilancarkan baru -baru ini, Kimi K1.5 dengan cepat mendapat perhatian untuk prestasi yang mengagumkan, yang sepadan dengan keupayaan model Openai O1 tanpa pratonton atau akhiran mini.
  • Ciri Utama
sepenuhnya percuma dengan penggunaan tanpa had

carian web masa nyata di seluruh 100 laman web

menganalisis sehingga 50 fail (pdfs, docs, ppts, imej) dengan mudah

penalaran katil maju, tersedia tanpa kos

pemahaman imej yang dipertingkatkan, melampaui pengekstrakan teks asas

    Juga baca:
  • Openai O1: Siri Model Baru Terbuka
  • O1-Mini: Model yang mengubah permainan untuk STEM dan penalaran
  • Kimi K1.5 vs Openai O1 dan O1-Mini
  • Kimi K1.5 sepadan dengan Openai's O1 dan O1-Mini dalam tugas-tugas yang panjang dan mengatasi GPT-4O dan Claude Sonnet 3.5 dalam tugas pendek. Keupayaan berbilang modal, terutamanya dalam penalaran visual, meletakkannya sebagai pesaing yang kuat untuk model OpenAI. Penggunaan teknik latihan RL, resipi data multi-modal, dan pengoptimuman infrastruktur telah menjadi penting dalam mencapai hasil ini.

K1.5 Model Long-Cot: Memajukan Penalaran Multi-Modal

Model Kimi K1.5 Long-Cot mencapai prestasi canggih (SOTA) melalui kombinasi skala konteks panjang, kaedah pengoptimuman dasar yang lebih baik, dan pembelajaran tetulang teks-teks (RL). Tidak seperti model bahasa tradisional pretraining, yang bergantung kepada ramalan yang akan datang dan dibatasi oleh data latihan yang ada, Kimi K1.5 memanfaatkan RL untuk skala data latihannya dengan belajar untuk meneroka dengan ganjaran. Pendekatan ini mewujudkan rangka kerja RL yang sederhana namun berkesan, mengelakkan teknik kompleks seperti carian atau fungsi nilai pokok Monte Carlo.

Kimi K1.5 vs Openai O1: Model penalaran yang lebih baik?

Penanda aras utama menyerlahkan prestasi luar biasa model:

  • Penalaran matematik : skor 96.2 pada Math-500 dan 77.5 pada AIME 2024, yang sepadan dengan model Openai's O1 dan O1-Mini.
  • Pengaturcaraan : persentil ke -94 pada codeforces, cemerlang dalam pengaturcaraan kompetitif.
  • penalaran visual : 74.9 pada Mathvista, mempamerkan integrasi multi-modal yang kuat.
Keupayaan model untuk mengendalikan tugas-tugas konteks panjang seperti perancangan, refleksi, dan pembetulan dipertingkatkan dengan peluncuran separa semasa latihan, meningkatkan kecekapan dan prestasi.

K1.5 Model pendek-cot: Kecekapan dan Prestasi

Model pendek-cot membina kejayaan model long-cot, menggunakan kaedah long2short yang berkesan untuk menyaring teknik-teknik yang panjang ke dalam rangka kerja yang lebih efisien. Pendekatan ini menggabungkan penalaan halus, pembelajaran tetulang, dan penyulingan lama ke pendek, memberikan alasan yang cepat dan tepat untuk tugas-tugas konteks pendek.

Kimi K1.5 vs Openai O1: Model penalaran yang lebih baik? Pencapaian yang ketara termasuk:

    Penalaran matematik
  • : skor 94.6 pada Math-500 dan 60.8 pada AIME 2024, mengatasi model pendek yang sedia ada seperti GPT-4O dan Claude Sonnet 3.5 hingga 550%. Pengaturcaraan
  • : 47.3 Pada LiveCodeBench, cemerlang dalam penjanaan kod dan tugas debug.
  • Pemahaman Bahasa Semulajadi
  • : Berkesan untuk aplikasi masa nyata seperti chatbots dan pembantu maya.
  • Teknik penyulingan lama, termasuk penggabungan model dan pensampelan penolakan terpendek, memastikan prestasi tinggi dengan kos pengiraan yang dikurangkan, menjadikan model pendek-cot sangat cekap.
  • untuk mengetahui lebih lanjut, anda boleh menyemak kertas penyelidikan mereka di sini!

Sekarang, mari kita menilai Kimi K1.5 dan Openai O1 pada arahan yang sama!

tugas 1: teka -teki zebra

prompt:

Selesaikan teka -teki zebra ini dengan betul.

Respons Openai O1:

Butiran Pemungut
Collector Position Nationality Lot Amount Spent Shirt Color
Collector #1 Portuguese Toy Unknown Blue
Collector #2 Japanese Lot 40 0,000 Purple
Collector #3 Italian Lot 30 0,000 Pink
Collector #4 Canadian Unknown 0,000 Yellow
Collector #5 Unknown Unknown 0,000 Unknown

Kimi K1.5 vs Openai O1: Model penalaran yang lebih baik?

KIMI K1.5 Respons:

Butiran Pemungut

Kimi K1.5 vs Openai O1: Model penalaran yang lebih baik?

Pemerhatian:

Tanggapan yang disediakan oleh OpenAI O1 adalah tidak tepat. Jadual yang dihasilkan tidak mematuhi format yang diperlukan dalam soalan, menjadikan respons tidak boleh dipercayai. Sebaliknya, Kimi K1.5 memberikan respons dalam format yang betul seperti soalan, tetapi kandungan jawapan itu sendiri tidak betul.

keputusan:

Openai O1: ❌ | Kimi K1.5: ❌

tugas 2: penalaran logik

prompt:

Anda berjalan ke bilik dan melihat katil. Di atas katil terdapat dua anjing, empat kucing, zirafah, lima ekor lembu, dan itik. Terdapat juga tiga kerusi dan meja. Berapa banyak kaki di lantai? Respons Openai O1:

KIMI K1.5 Respons: Kimi K1.5 vs Openai O1: Model penalaran yang lebih baik?

Pemerhatian:

Kimi K1.5 vs Openai O1: Model penalaran yang lebih baik? Jawapan yang betul:

22 (2 (manusia) 4 (jadual) 4 (katil) 12 (3 kerusi))

Openai O1 mengambil masa terlalu lama untuk menghasilkan respons. Walaupun pengiraan adalah betul dan termasuk penjelasan terperinci, ia gagal menyumbang kaki manusia di atas lantai, membuat jawapannya tidak betul. Sebaliknya, Kimi K1.5 menyediakan jawapan yang betul dalam masa yang kurang.

keputusan:

Openai O1: ❌ | Kimi K1.5: ✅

Tugas 3: Buat laman HTML

prompt:

Buat halaman HTML yang mudah dengan butang yang mengubah warna latar belakang menjadi merah jambu apabila diklik dengan beberapa confetti

.

Respons Openai O1:

KIMI K1.5 Respons:

Pemerhatian:

Kedua -dua model mematuhi prompt dan memberikan respons yang betul. Dari segi rupa dan fungsi laman web, Kimi K1.5 melakukan pekerjaan yang lebih baik!

keputusan:

Openai O1: ❌ | Kimi K1.5: ✅

tugas 4: carian web

Respons Openai O1:

Mata Utama untuk meringkaskan proses membina pangkalan data vektor untuk data Wikipedia:

  1. Kumpulkan data : Dapatkan artikel Wikipedia dari Dumps atau API.
  2. teks preprocess : Bersihkan teks dan berpecahnya menjadi lebih kecil, "ketulan."
  3. Pilih model embedding : Gunakan model bahasa (mis., Embeddings terbuka) untuk menukar ketulan teks ke dalam vektor berangka.
  4. menghasilkan embeddings : untuk setiap bahagian, menghasilkan perwakilan vektor semantiknya.
  5. Sediakan pangkalan data vektor : Pilih kedai vektor (mis., Pinecone, Weaviate, Faiss, Chroma) untuk menyimpan dan mengindeks embeddings.
  6. Masukkan vektor : Muatkan semua vektor chunk dan metadata yang berkaitan (mis., Rujukan artikel asal) ke dalam pangkalan data.
  7. Pengambilan Pengambilan : Tanya pangkalan data dengan soalan vektor untuk memastikan ketulan wikipedia yang relevan dikembalikan.
  8. Mengoptimumkan dan mengintegrasikan : Gunakan pengindeksan dan integrasi dengan saluran paip generasi pengambilan semula (RAG) untuk pengambilan maklumat yang cekap dan tepat.

KIMI K1.5 Respons:

Artikel "Panduan Komprehensif untuk Membina Sistem Rag Agentik dengan Langgraph" menggariskan proses membina pangkalan data vektor untuk data Wikipedia sebagai sebahagian daripada mewujudkan sistem RAG yang agentik. Berikut adalah langkah utama yang diringkaskan:

  1. Pasang Dependencies : Pasang perpustakaan yang diperlukan seperti Langchain, Langchain-Openai, Langchain-Community, Langgraph, dan Langchain-Chroma.
  2. Masukkan kekunci API : Kekunci API input dengan selamat untuk carian terbuka dan tavily menggunakan fungsi getpass untuk mengelakkan mendedahkannya dalam kod.
  3. Pembolehubah Persekitaran Persediaan : Tetapkan Pembolehubah Persekitaran untuk Kekunci API Carian Terbuka dan Tavily.
  4. beban data wikipedia :
    • Muat turun data Wikipedia dari pautan Google Drive yang disediakan atau gunakan fail arkib tempatan.
    • Ekstrak dan muatkan data ke dalam senarai dokumen.
  5. Dokumen Chunk :
    • Gunakan splitter teks untuk membahagikan dokumen ke dalam ketulan yang lebih kecil dan terkawal.
    • Artikel menggunakan RecursiveCharacterTextSplitter untuk memecah dokumen ke dalam ketulan kira -kira 2000 aksara dengan tumpang tindih 300 aksara.
  6. Buat pangkalan data vektor :
    • Mulakan klien pangkalan data vektor Chroma.
    • Gunakan model penyembuhan OpenAI (teks-embedding-3-kecil) untuk menukar ketulan dokumen ke dalam embeddings.
    • Simpan ketulan dokumen dan embeddings mereka dalam indeks pangkalan data vektor, yang menyatakan persamaan kosinus sebagai fungsi jarak.
  7. persediaan vektor pangkalan data vektor :
    • Konfigurasi retriever untuk mengambil 3 dokumen paling serupa berdasarkan kesamaan kosinus.
    • Tetapkan ambang persamaan (mis., 0.3) untuk menyaring dokumen yang tidak serupa dengan pertanyaan.
  8. menguji retriever :
      menguji retriever dengan pertanyaan sampel untuk memastikan ia mengembalikan dokumen yang relevan.
    • Untuk pertanyaan tanpa dokumen yang relevan dalam pangkalan data vektor, retriever harus mengembalikan senarai kosong.
Pemerhatian:

output Kimi K1.5 cemerlang dengan menyediakan langkah -langkah pelaksanaan yang terperinci dan tindakan dengan parameter teknikal tertentu dan keperluan perpustakaan. Ia mengimbangi kedalaman yang komprehensif dengan organisasi yang jelas, menerangkan alasan di sebalik setiap langkah, dan dengan berkesan menghubungkan proses teknikal ke matlamat yang lebih luas untuk membina sistem RAG yang agentik.

keputusan:

Openai O1: ❌ | Kimi K1.5: ✅

tugas 5: analisis imej

prompt:

Imej menunjukkan skema yang sangat mudah dipermudahkan dari pusat data di ruang angkasa, dengan beberapa anggapan yang memudahkan yang memerlukan justifikasi. Tugas -tugas yang lebih rendah dari kawasan permukaan radiator yang diperlukan untuk pusat data. Imej input:

Kimi K1.5 vs Openai O1: Model penalaran yang lebih baik?

Respons Openai O1:

di bawah adalah proses penalaran langkah demi langkah dengan andaian yang jelas menyatakan dengan jelas, justifikasi, dan penerapan undang-undang termodinamik pertama. Hasil akhir akan menjadi terikat yang lebih rendah pada kawasan radiator yang diperlukan untuk menghilangkan 1 GW haba yang dihasilkan oleh pusat data berasaskan ruang.

andaian utama dan penyederhanaan

1. Input kuasa dan penjanaan haba: Anggapkan pusat data dikuasakan oleh sumber kuasa solar 1 GW. Hampir semua kuasa elektrik yang digunakan oleh GPU akan ditukar menjadi haba (penukaran tenaga elektrik-ke-termal pada dasarnya 100% pada keadaan mantap kerana semua tenaga elektrik yang tidak disimpan akhirnya akan hilang sebagai haba). Oleh itu, haba sisa yang akan dikeluarkan adalah kira -kira 1 GW = 1 × 10^9 W.

2. Pemindahan haba radiasi sahaja:

Di ruang angkasa, tidak ada penyejukan konvensional atau konduktif kepada pemindahan haba radiasi yang sama. Oleh itu, mod utama penolakan haba adalah radiasi terma dari permukaan radiator ke ruang dalam.

3. Emisiviti dan penyerapan:

Anggapkan radiator dibina dengan permukaan emissivity tinggi, Sayε = 0.9

ε

= 0.9. Ini adalah munasabah untuk permukaan yang disalut dengan cat atau bahan-bahan emis yang tinggi. Untuk terikat yang lebih rendah di kawasan yang diperlukan, kami menganggap keadaan yang ideal:

Radiator terutamanya menghadap jauh dari matahari untuk meminimumkan penyerapan solar.
  • KIMI K1.5 Respons:

Untuk menganggarkan batas bawah kawasan permukaan radiator yang diperlukan untuk pusat data di ruang angkasa, saya mulakan dengan menggunakan undang-undang Stefan-Boltzmann, yang menggambarkan kuasa yang dipancarkan oleh permukaan:

Untuk mengendalikan matahari dan ruang yang mendalam dalam pengurusan terma, pusat data harus dilindungi dari cahaya matahari langsung menggunakan cahaya matahari atau diposisikan di lokasi di mana ia tidak terdedah kepada matahari, seperti sisi gelap planet atau bulan. Radiator mesti direka untuk memancarkan haba dengan cekap ke ruang kosong, yang sangat sejuk. Kimi K1.5 vs Openai O1: Model penalaran yang lebih baik?

Undang -undang termodinamik pertama digunakan untuk senario ini dengan memastikan bahawa haba yang dihasilkan oleh peralatan pusat data adalah sama dengan haba yang dipancarkan oleh radiator. Undang -undang ini menjamin bahawa jumlah tenaga dalam sistem tetap malar, dengan haba yang dihasilkan sepenuhnya diambil kira dalam reka bentuk radiator.

Bahagian bawah kawasan permukaan radiator yang diperlukan adalah kira -kira

766 meter persegi

. Pusat data harus dilindungi dari cahaya matahari langsung dan radiator harus dioptimumkan untuk pelesapan haba di ruang vakum untuk mengekalkan keseimbangan haba.

Pemerhatian:

Respons Kimi K1.5 lebih unggul kerana beberapa sebab. Ia menunjukkan penalaran matematik yang jelas melalui pendekatan langkah demi langkah, bermula dengan persamaan undang-undang Stefan-Boltzmann asas. Kimi jelas mentakrifkan semua pembolehubah dan nilai mereka, menunjukkan proses matematik penyelesaian untuk kawasan radiator, dan menyediakan hasil berangka konkrit sebanyak 766 meter persegi. Penjelasan termasuk justifikasi yang jelas untuk strategi pengurusan terma, pertimbangan praktikal seperti meletakkan radiator di sisi gelap planet, dan sambungan langsung kepada undang-undang termodinamik pertama dengan aplikasi dunia nyata. Tanggapan ini disimpulkan dengan nombor tertentu dan cadangan yang boleh diambil tindakan.

Sebaliknya, tindak balas Openai O1 tetap lebih teori, memberi tumpuan kepada andaian umum dan persediaan daripada menyelesaikan pengiraan sebenar. Ia tidak mempunyai penyelesaian berangka konkrit dan tidak sepenuhnya menangani aspek pengurusan terma, menjadikannya kurang praktikal dan boleh dilakukan berbanding dengan pendekatan terperinci dan berorientasikan penyelesaian Kimi K1.5.

keputusan:

Openai O1: ❌ | Kimi K1.5: ✅

Hasil Akhir: Kimi K1.5 vs Openai O1

Hasil tugas
Task Winner
Zebra Puzzle Neither
Logical Reasoning Kimi k1.5
Create an HTML Site Kimi k1.5
Web Search Kimi k1.5
Image Analysis Kimi k1.5
Juga baca: Kimi K1.5 vs Deepseek R1: Pertempuran LLM Cina Terbaik

Kesimpulan

Model percuma seperti Kimi K1.5 dan DeepSeek R1 mencabar dominasi Openai O1, yang menawarkan prestasi unggul dalam penalaran, pengekodan, dan tugas berbilang modal tanpa sebarang kos. Dengan Kimi K1.5 mengatasi OpenAI dalam tanda aras utama dan DeepSeek R1 yang cemerlang dalam cabaran pengekodan, membayar $ 20/bulan untuk Openai O1 masih dibenarkan? Beritahu kami di bahagian komen di bawah!

Nantikan blog Analytics Vidhya untuk lebih banyak kandungan yang hebat!

Atas ialah kandungan terperinci Kimi K1.5 vs Openai O1: Model penalaran yang lebih baik?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn