


Model besar memberi suapan kepada model kecil dengan tepat, dan penyulingan pengetahuan membantu meningkatkan prestasi algoritma AI.
01 Latar belakang kelahiran penyulingan pengetahuan
Sejak itu, rangkaian saraf dalam (DNN) telah mencapai kejayaan besar dalam kedua-dua industri dan akademik, terutamanya dalam tugas penglihatan komputer. Kejayaan pembelajaran mendalam sebahagian besarnya disebabkan oleh seni bina berskala untuk pengekodan data dengan berbilion parameter Matlamat latihannya adalah untuk memodelkan hubungan antara input dan output pada set data latihan yang sedia ada Prestasi sangat bergantung pada kerumitan rangkaian dan kuantiti dan kualiti data latihan berlabel.
Berbanding dengan algoritma tradisional dalam bidang penglihatan komputer, kebanyakan model berasaskan DNN mempunyai keupayaan generalisasi yang kukuh disebabkan oleh terlebih parameter Keupayaan generalisasi ini kepada model dicerminkan dalam fakta bahawa model boleh memberikan hasil ramalan yang lebih baik untuk semua input data kepada masalah tertentu, sama ada data latihan, data ujian atau data yang tidak diketahui kepunyaan masalah tersebut.
Dalam konteks pembelajaran mendalam semasa, untuk meningkatkan kesan ramalan algoritma perniagaan, jurutera algoritma selalunya mempunyai dua penyelesaian:
Gunakan rangkaian berparameter yang lebih kompleks Pembelajaran ini keupayaan adalah sangat kuat, tetapi ia memerlukan banyak sumber pengkomputeran untuk melatih, dan kelajuan inferens adalah perlahan.
Model bersepadu menyepadukan banyak model dengan kesan yang lebih lemah, biasanya termasuk penyepaduan parameter dan penyepaduan hasil.
Kedua-dua penyelesaian ini boleh meningkatkan prestasi algoritma sedia ada dengan ketara, tetapi kedua-duanya meningkatkan skala model, mewujudkan beban pengiraan yang lebih besar dan memerlukan sumber pengkomputeran dan storan yang besar.
Dalam kerja, tujuan utama pelbagai model algoritma adalah untuk melayan aplikasi tertentu. Sama seperti dalam jual beli kita perlu mengawal pendapatan dan perbelanjaan kita. Dalam aplikasi industri, selain memerlukan model mempunyai ramalan yang baik, penggunaan sumber pengkomputeran juga mesti dikawal dengan ketat Anda tidak boleh hanya mempertimbangkan keputusan tanpa mengambil kira kecekapan. Dalam bidang penglihatan komputer di mana jumlah pengekodan data input adalah tinggi, sumber pengkomputeran adalah lebih terhad, dan penghunian sumber algoritma kawalan adalah lebih penting.
Secara umumnya, model yang lebih besar mempunyai hasil ramalan yang lebih baik, tetapi masa latihan yang panjang dan kelajuan inferens yang perlahan menyukarkan untuk menggunakan model dalam masa nyata. Terutamanya pada peranti dengan sumber pengkomputeran terhad, seperti pengawasan video, kereta pandu sendiri dan persekitaran awan berdaya tinggi, kelajuan tindak balas jelas tidak mencukupi. Walaupun model yang lebih kecil mempunyai kelajuan inferens yang lebih pantas, disebabkan parameter yang tidak mencukupi, kesan inferens dan prestasi generalisasi mungkin tidak begitu baik. Cara menimbang model berskala besar dan model berskala kecil sentiasa menjadi topik hangat Kebanyakan penyelesaian semasa adalah untuk memilih model DNN dengan saiz yang sesuai berdasarkan prestasi peranti terminal dalam persekitaran penggunaan.
Bagaimana jika kita ingin mempunyai model yang lebih kecil yang boleh mencapai kesan yang sama atau hampir seperti model besar sambil mengekalkan kelajuan inferens yang pantas? Dalam pembelajaran mesin, kita sering menganggap bahawa terdapat potensi hubungan fungsi pemetaan antara input dan output Mempelajari model baharu dari awal ialah fungsi pemetaan yang tidak diketahui antara data input dan label yang sepadan. Atas alasan bahawa data input kekal tidak berubah, melatih model kecil dari awal adalah sukar untuk mendekati kesan model besar dari sudut empirikal. Untuk meningkatkan prestasi algoritma model kecil, secara amnya cara yang paling berkesan adalah dengan melabelkan lebih banyak data input, iaitu, untuk menyediakan lebih banyak maklumat penyeliaan, yang boleh menjadikan fungsi pemetaan yang dipelajari lebih teguh dan berfungsi dengan lebih baik. Untuk memberikan dua contoh, dalam bidang penglihatan komputer, tugas pembahagian contoh boleh meningkatkan kesan pengesanan kotak sempadan sasaran dengan menyediakan maklumat topeng tambahan tugas pembelajaran pemindahan boleh meningkatkan tugas baharu dengan ketara dengan menyediakan model terlatih pada yang lebih besar; set data kesan ramalan. Oleh itumenyediakan lebih banyak maklumat penyeliaan mungkin menjadi kunci untuk memendekkan jurang antara model berskala kecil dan model berskala besar.
Menurut apa yang diperkatakan sebelum ini, mendapatkan lebih banyak maklumat penyeliaan bermakna melabelkan lebih banyak data latihan, yang selalunya memerlukan kos yang besar. Jadi adakah terdapat kaedah kos rendah dan cekap untuk mendapatkan maklumat penyeliaan? Artikel 2006 [1] menunjukkan bahawa model baru boleh dibuat untuk menghampiri model asal (model adalah fungsi). Kerana fungsi model asal diketahui, lebih banyak maklumat penyeliaan ditambah secara semula jadi apabila melatih model baharu, yang jelas lebih boleh dilaksanakan. Memikirkan lebih lanjut, maklumat penyeliaan yang dibawa oleh model asal mungkin mengandungi dimensi pengetahuan yang berbeza ini mungkin tidak ditangkap oleh model baharu itu sendiri, ini penting untuk model baharu model juga merupakan sejenis pembelajaran "cross-domain".Pada tahun 2015, Hinton mengikuti idea anggaran dalam makalah "Menyuling Pengetahuan dalam Rangkaian Neural" [2] dan mula-mula mencadangkan konsep "Penyulingan Pengetahuan (KD)": ia boleh dilatih terlebih dahulu Dengan membina model yang besar dan berkuasa dan kemudian memindahkan pengetahuan yang terkandung di dalamnya kepada model kecil, tujuan "mengekalkan kelajuan penaakulan pantas model kecil sambil mencapai kesan yang setara dengan atau hampir dengan model besar " tercapai. Model besar yang dilatih dahulu boleh dipanggil model guru, dan model kecil yang dilatih kemudian dipanggil model pelajar Keseluruhan proses latihan boleh dibandingkan dengan "pembelajaran guru-pelajar." Pada tahun-tahun berikutnya, sejumlah besar penyulingan pengetahuan dan kerja pembelajaran guru-pelajar muncul, menyediakan industri dengan lebih banyak penyelesaian baharu. Pada masa ini, KD telah digunakan secara meluas dalam dua bidang berbeza: pemampatan model dan pemindahan pengetahuan [3].
02 Penyulingan Pengetahuan
Pengenalan
Penyulingan Pengetahuan ialah kaedah berasaskan "guru- pelajar Kaedah pemampatan model berdasarkan idea "rangkaian" digunakan secara meluas dalam industri kerana kesederhanaan dan keberkesanannya. Tujuannya adalah untuk mengekstrak pengetahuan yang terkandung dalam model besar terlatih - Distill (Distill) - ke dalam model kecil yang lain. Jadi bagaimana untuk memindahkan pengetahuan atau keupayaan generalisasi model besar kepada model kecil? Kertas KD menyediakan vektor kebarangkalian output sampel model besar kepada model kecil sebagai sasaran lembut, supaya output model kecil cuba bergantung pada sasaran lembut ini (asalnya ia bergantung pada pengekodan satu panas) untuk anggaran pembelajaran model besar tingkah laku.
Dalam proses latihan label keras tradisional, semua label negatif dilayan secara seragam, tetapi kaedah ini memisahkan hubungan antara kategori. Sebagai contoh, jika anda ingin mengenali digit tulisan tangan, sesetengah gambar dengan label yang sama seperti "3" mungkin kelihatan lebih seperti "8", dan sesetengahnya mungkin kelihatan lebih seperti "2". Label keras tidak dapat membezakan maklumat ini, tetapi dengan baik- model besar terlatih boleh memberikan. Output lapisan softmax model besar, sebagai tambahan kepada contoh positif, label negatif juga mengandungi banyak maklumat Sebagai contoh, kebarangkalian yang sepadan dengan beberapa label negatif adalah lebih besar daripada label negatif yang lain. Tingkah laku pembelajaran anggaran membolehkan setiap sampel membawa lebih banyak maklumat kepada rangkaian pelajar daripada kaedah latihan tradisional.
Oleh itu, pengarang mengubah suai fungsi kehilangan semasa melatih rangkaian pelajar, membenarkan model kecil untuk menyesuaikan taburan kebarangkalian output model besar sambil menyesuaikan label kebenaran asas data latihan. Kaedah ini dipanggil Latihan Penyulingan Pengetahuan (Latihan KD). Sampel latihan yang digunakan dalam proses penyulingan pengetahuan boleh sama seperti yang digunakan untuk melatih model besar, atau set Pemindahan bebas boleh didapati.
Penjelasan terperinci kaedah
Secara khusus, penyulingan pengetahuan menggunakan model Guru-Pelajar, di mana guru adalah output "pengetahuan" dan pelajar adalah " penerima ilmu. Proses penyulingan pengetahuan terbahagi kepada 2 peringkat:
- Latihan model guru:
- Melatih "model Guru", yang disebut sebagai Net-T, dicirikan oleh yang agak kompleks. model, dan Ia boleh disepadukan daripada berbilang model terlatih secara berasingan. Tiada sekatan pada seni bina model, jumlah parameter atau penyepaduan untuk "model Guru" kerana model itu tidak perlu digunakan untuk input X, ia boleh mengeluarkan Y, di mana Y dipetakan softmax dan output Nilai sepadan dengan nilai kebarangkalian kategori yang sepadan. Latihan model pelajar:
- Latih "model Pelajar", dirujuk sebagai Net-S, iaitu model tunggal dengan bilangan parameter yang kecil dan struktur model yang agak mudah. Begitu juga, untuk input X, ia boleh mengeluarkan Y, dan Y juga boleh mengeluarkan nilai kebarangkalian yang sepadan dengan kategori yang sepadan selepas pemetaan softmax. Memandangkan keputusan rangkaian menggunakan softmax dengan mudah boleh melampau, iaitu keyakinan kelas tertentu adalah sangat tinggi dan keyakinan kelas lain sangat rendah model pelajar memberi perhatian kepada maklumat kelas yang positif Mungkin masih tergolong dalam kategori tertentu sahaja. Di samping itu, kerana kategori maklumat negatif yang berbeza juga mempunyai kepentingan relatif, adalah tidak baik untuk semua skor negatif menjadi serupa, dan tidak dapat mencapai tujuan penyulingan pengetahuan. Untuk menyelesaikan masalah ini, konsep suhu (Suhu) diperkenalkan, dan suhu tinggi digunakan untuk menyaring maklumat yang dibawa oleh nilai kebarangkalian kecil. Secara khusus, logit dibahagikan dengan suhu T sebelum melalui fungsi softmax.
Semasa latihan, pengetahuan yang dipelajari oleh model guru terlebih dahulu disuling kepada model kecil Khususnya, untuk sampel X, lapisan kedua dari model besar mula-mula dibahagikan dengan suhu T, dan kemudian sasaran lembut diramalkan melalui. softmax. Begitu juga untuk model Lapisan terakhir dibahagikan dengan suhu yang sama T, dan kemudian meramalkan hasil melalui softmax, dan kemudian menggunakan entropi silang hasil ini dan sasaran lembut sebagai sebahagian daripada jumlah kehilangan latihan. Kemudian entropi silang keluaran biasa model kecil dan label nilai sebenar (sasaran keras) digunakan sebagai bahagian lain daripada jumlah kehilangan latihan. Jumlah kerugian menimbang kedua-dua kerugian bersama-sama sebagai kerugian terakhir untuk melatih model kecil.
Apabila model kecil dilatih dan perlu diramal, suhu T tidak diperlukan lagi, dan ia boleh dikeluarkan terus mengikut softmax konvensional.
03 FitNet
Pengenalan
Kertas FitNet memperkenalkan pembayang peringkat pertengahan semasa penyulingan untuk membimbing latihan model pelajar. Gunakan model guru yang luas dan cetek untuk melatih model pelajar yang sempit dan mendalam. Apabila melaksanakan bimbingan pembayang, adalah dicadangkan untuk menggunakan lapisan untuk memadankan bentuk keluaran lapisan pembayang dan lapisan berpandu Ini sering dipanggil lapisan penyesuaian dalam kerja akan datang.
Secara amnya, semasa melakukan penyulingan pengetahuan, bukan sahaja output logit model guru digunakan, malah peta ciri lapisan tengah model guru digunakan sebagai maklumat penyeliaan. Apa yang boleh dibayangkan ialah terlalu sukar untuk model kecil untuk meniru model besar secara langsung di hujung keluaran (semakin dalam model, semakin sukar untuk dilatih, dan agak memenatkan untuk menghantar lapisan terakhir isyarat pengawasan kepada hadapan). Adalah lebih baik untuk menambah beberapa isyarat penyeliaan di tengah, supaya model dapat mempelajari fungsi pemetaan yang lebih sukar lapisan demi lapisan semasa latihan, dan bukannya secara langsung mempelajari fungsi pemetaan yang paling sukar, sebagai tambahan, panduan petunjuk mempercepatkan penumpuan daripada model pelajar. Mencari minima tempatan yang lebih baik pada masalah bukan cembung membolehkan rangkaian pelajar menjadi lebih mendalam dan berlatih dengan lebih pantas. Rasanya tujuan kami adalah untuk membenarkan pelajar membuat soalan peperiksaan kemasukan kolej, jadi kami mula-mula mengajar mereka soalan sekolah rendah (mula-mula biarkan model kecil menggunakan separuh pertama model untuk belajar mengekstrak ciri asas imej), dan kemudian kembali ke tujuan asal , untuk mempelajari soalan peperiksaan kemasukan kolej (gunakan KD untuk melaraskan semua parameter model kecil).
Artikel ini ialah nenek moyang peta ciri perantaraan penyulingan yang dicadangkan Algoritma yang dicadangkan adalah sangat mudah, tetapi ideanya adalah hebat.
Penjelasan terperinci kaedah
Kaedah khusus FitNets ialah:
- Tentukan rangkaian guru dan latih Matang, ekstrak pembayang daripada lapisan ciri tengah rangkaian guru.
- Sediakan rangkaian pelajar , yang biasanya lebih sempit dan lebih dalam daripada rangkaian guru. Rangkaian pelajar dilatih supaya lapisan ciri perantaraan rangkaian pelajar sepadan dengan pembayang model guru. Memandangkan lapisan ciri tengah rangkaian pelajar dan saiz pembayang guru adalah berbeza, adalah perlu untuk menambah regressor selepas lapisan ciri tengah rangkaian pelajar untuk peningkatan dimensi ciri agar sepadan dengan saiz lapisan pembayang. Fungsi kehilangan yang sepadan dengan lapisan pembayang rangkaian guru dan lapisan ciri perantaraan rangkaian pelajar yang diubah oleh regressor ialah fungsi kehilangan ralat purata kuasa dua.
Dalam latihan sebenar, ia sering digunakan bersama dengan Latihan KD dalam bahagian sebelumnya, menggunakan kaedah dua peringkat latihan: pertama gunakan latihan pembayang untuk melatih parameter separuh pertama model kecil, dan kemudian gunakan Latihan KD untuk melatih keseluruhan parameter. Memandangkan lebih banyak maklumat penyeliaan digunakan dalam proses penyulingan, kaedah penyulingan berdasarkan peta ciri perantaraan berprestasi lebih baik daripada kaedah penyulingan berdasarkan logit hasil, tetapi masa latihan lebih lama.
04 Ringkasan
Penyulingan pengetahuan sangat berkesan untuk memindahkan pengetahuan daripada ensembel atau daripada model besar yang sangat teratur kepada model yang lebih kecil. Penyulingan berfungsi dengan baik walaupun data untuk mana-mana satu atau lebih kelas tiada daripada set data migrasi yang digunakan untuk melatih model penyulingan. Selepas KD dan FitNet klasik dicadangkan, pelbagai kaedah penyulingan muncul. Pada masa hadapan, kami juga berharap dapat membuat penerokaan lanjut dalam bidang pemampatan model dan pemindahan pengetahuan.
Mengenai pengarang
Ma Jialiang ialah jurutera algoritma penglihatan komputer kanan di NetEase Yidun Beliau bertanggungjawab terutamanya untuk penyelidikan, pembangunan, pengoptimuman dan inovasi algoritma penglihatan komputer dalam bidang kandungan. keselamatan.
Atas ialah kandungan terperinci Model besar memberi suapan kepada model kecil dengan tepat, dan penyulingan pengetahuan membantu meningkatkan prestasi algoritma AI.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!
![Tidak boleh menggunakan chatgpt! Menjelaskan sebab dan penyelesaian yang boleh diuji dengan segera [terbaru 2025]](https://img.php.cn/upload/article/001/242/473/174717025174979.jpg?x-oss-process=image/resize,p_40)
Chatgpt tidak boleh diakses? Artikel ini menyediakan pelbagai penyelesaian praktikal! Ramai pengguna mungkin menghadapi masalah seperti tidak dapat diakses atau tindak balas yang perlahan apabila menggunakan chatgpt setiap hari. Artikel ini akan membimbing anda untuk menyelesaikan masalah ini langkah demi langkah berdasarkan situasi yang berbeza. Punca ketidakmampuan dan penyelesaian masalah awal Chatgpt Pertama, kita perlu menentukan sama ada masalah itu berada di sisi pelayan Openai, atau masalah rangkaian atau peranti pengguna sendiri. Sila ikuti langkah di bawah untuk menyelesaikan masalah: Langkah 1: Periksa status rasmi Openai Lawati halaman Status Openai (status.openai.com) untuk melihat sama ada perkhidmatan ChATGPT berjalan secara normal. Sekiranya penggera merah atau kuning dipaparkan, ini bermakna terbuka

Pada 10 Mei 2025, ahli fizik MIT Max Tegmark memberitahu The Guardian bahawa AI Labs harus mencontohi kalkulus ujian triniti Oppenheimer sebelum melepaskan kecerdasan super buatan. "Penilaian saya ialah 'Compton Constant', kebarangkalian perlumbaan

Teknologi penciptaan muzik AI berubah dengan setiap hari berlalu. Artikel ini akan menggunakan model AI seperti CHATGPT sebagai contoh untuk menerangkan secara terperinci bagaimana menggunakan AI untuk membantu penciptaan muzik, dan menerangkannya dengan kes -kes sebenar. Kami akan memperkenalkan bagaimana untuk membuat muzik melalui Sunoai, AI Jukebox pada muka yang memeluk, dan perpustakaan Python Music21. Dengan teknologi ini, semua orang boleh membuat muzik asli dengan mudah. Walau bagaimanapun, perlu diperhatikan bahawa isu hak cipta kandungan AI yang dihasilkan tidak boleh diabaikan, dan anda mesti berhati-hati apabila menggunakannya. Mari kita meneroka kemungkinan AI yang tidak terhingga dalam bidang muzik bersama -sama! Ejen AI terbaru Terbuka "Openai Deep Research" memperkenalkan: [Chatgpt] Ope

Kemunculan CHATGPT-4 telah memperluaskan kemungkinan aplikasi AI. Berbanding dengan GPT-3.5, CHATGPT-4 telah meningkat dengan ketara. Ia mempunyai keupayaan pemahaman konteks yang kuat dan juga dapat mengenali dan menghasilkan imej. Ia adalah pembantu AI sejagat. Ia telah menunjukkan potensi yang besar dalam banyak bidang seperti meningkatkan kecekapan perniagaan dan membantu penciptaan. Walau bagaimanapun, pada masa yang sama, kita juga harus memberi perhatian kepada langkah berjaga -jaga dalam penggunaannya. Artikel ini akan menerangkan ciri-ciri CHATGPT-4 secara terperinci dan memperkenalkan kaedah penggunaan yang berkesan untuk senario yang berbeza. Artikel ini mengandungi kemahiran untuk memanfaatkan sepenuhnya teknologi AI terkini, sila rujuknya. Ejen AI Terbuka Terbuka, sila klik pautan di bawah untuk butiran "Penyelidikan Deep Openai"

App ChatGPT: Melepaskan kreativiti anda dengan pembantu AI! Panduan pemula Aplikasi CHATGPT adalah pembantu AI yang inovatif yang mengendalikan pelbagai tugas, termasuk menulis, terjemahan, dan menjawab soalan. Ia adalah alat dengan kemungkinan tidak berkesudahan yang berguna untuk aktiviti kreatif dan pengumpulan maklumat. Dalam artikel ini, kami akan menerangkan dengan cara yang mudah difahami untuk pemula, dari cara memasang aplikasi telefon pintar ChATGPT, kepada ciri-ciri yang unik untuk aplikasi seperti fungsi input suara dan plugin, serta mata yang perlu diingat apabila menggunakan aplikasi. Kami juga akan melihat dengan lebih dekat sekatan plugin dan penyegerakan konfigurasi peranti-ke-peranti

Chatgpt Versi Cina: Buka kunci pengalaman baru dialog Cina AI Chatgpt popular di seluruh dunia, adakah anda tahu ia juga menawarkan versi Cina? Alat AI yang kuat ini bukan sahaja menyokong perbualan harian, tetapi juga mengendalikan kandungan profesional dan serasi dengan Cina yang mudah dan tradisional. Sama ada pengguna di China atau rakan yang belajar bahasa Cina, anda boleh mendapat manfaat daripadanya. Artikel ini akan memperkenalkan secara terperinci bagaimana menggunakan versi CHATGPT Cina, termasuk tetapan akaun, input perkataan Cina, penggunaan penapis, dan pemilihan pakej yang berbeza, dan menganalisis potensi risiko dan strategi tindak balas. Di samping itu, kami juga akan membandingkan versi CHATGPT Cina dengan alat AI Cina yang lain untuk membantu anda memahami lebih baik kelebihan dan senario aplikasinya. Perisikan AI Terbuka Terbuka

Ini boleh dianggap sebagai lonjakan seterusnya ke hadapan dalam bidang AI generatif, yang memberi kita chatgpt dan chatbots model bahasa besar yang lain. Daripada hanya menjawab soalan atau menghasilkan maklumat, mereka boleh mengambil tindakan bagi pihak kami, Inter

Teknik pengurusan akaun berganda yang cekap menggunakan CHATGPT | Penjelasan menyeluruh tentang cara menggunakan perniagaan dan kehidupan peribadi! ChatGPT digunakan dalam pelbagai situasi, tetapi sesetengah orang mungkin bimbang untuk menguruskan pelbagai akaun. Artikel ini akan menerangkan secara terperinci bagaimana untuk membuat pelbagai akaun untuk chatgpt, apa yang perlu dilakukan apabila menggunakannya, dan bagaimana untuk mengendalikannya dengan selamat dan cekap. Kami juga meliputi perkara penting seperti perbezaan dalam perniagaan dan penggunaan peribadi, dan mematuhi syarat penggunaan OpenAI, dan memberikan panduan untuk membantu anda menggunakan pelbagai akaun. Terbuka


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SecLists
SecLists ialah rakan penguji keselamatan muktamad. Ia ialah koleksi pelbagai jenis senarai yang kerap digunakan semasa penilaian keselamatan, semuanya di satu tempat. SecLists membantu menjadikan ujian keselamatan lebih cekap dan produktif dengan menyediakan semua senarai yang mungkin diperlukan oleh penguji keselamatan dengan mudah. Jenis senarai termasuk nama pengguna, kata laluan, URL, muatan kabur, corak data sensitif, cangkerang web dan banyak lagi. Penguji hanya boleh menarik repositori ini ke mesin ujian baharu dan dia akan mempunyai akses kepada setiap jenis senarai yang dia perlukan.

MantisBT
Mantis ialah alat pengesan kecacatan berasaskan web yang mudah digunakan yang direka untuk membantu dalam pengesanan kecacatan produk. Ia memerlukan PHP, MySQL dan pelayan web. Lihat perkhidmatan demo dan pengehosan kami.

ZendStudio 13.5.1 Mac
Persekitaran pembangunan bersepadu PHP yang berkuasa

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan
