Rumah > Artikel > pembangunan bahagian belakang > GPT-mini: padat dan berkuasa?
Salah satu masalah utama saya kebelakangan ini ialah saiz tetingkap konteks GPT-3.5 Turbo dan harga GPT-4o, aplikasi yang saya bina menggunakan 300k+ token setiap perbualan. Masukkan kos suara dan ia menjadi agak mahal.
Selain itu, GPT-3.5 bukanlah model yang paling bijak dan saya menemui hasil yang lebih baik dengan Claude Haiku. Masalah dengan Haiku ialah had API yang rendah dan beberapa isu kestabilan yang pelik.
Saya tiada pilihan, kerana GPT-4 terlalu mahal untuk kes penggunaan saya memandangkan jumlah token yang saya gunakan.
Mencuba GPT-4o mini, dan agak kagum, alasannya jauh lebih baik daripada GPT-3.5, dan tetingkap konteks ialah 128k - yang cukup baik untuk kes penggunaan saya (...dan harga yang rendah juga membantu ).
Sudahkah anda menggunakan mini dan apakah pendapat dan pengalaman anda setakat ini?
Atas ialah kandungan terperinci GPT-mini: padat dan berkuasa?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!