Rumah > Artikel > pembangunan bahagian belakang > sepersepuluh Pembelajaran Mesin dan seterusnya: Pembelajaran Mesin A-Z
Sebelum saya mula mempelajari pembelajaran mesin dengan betul pada musim panas lalu, saya sudah mempunyai beberapa kursus pembelajaran mesin yang dibeli di Udemy. Kursus yang paling asas di antara kursus itu ialah Pembelajaran Mesin A-Z: AI, Python & R, jadi, ia menjadi titik permulaan saya. Kursus ini berfungsi sebagai pengenalan yang sempurna kepada bidang ini, meliputi pelbagai teknik pembelajaran mesin klasik dan beberapa pembelajaran mendalam.
Lazimnya, sebagai pengaturcara, kami bekerja dengan data berstruktur. Walau bagaimanapun, dunia sememangnya kucar-kacir. Pembelajaran mesin terbukti sebagai alat yang tidak ternilai untuk menangani maklumat yang tidak berstruktur. Saya sangat kagum dengan kursus itu kerana ia memperkenalkan dunia pendekatan baharu yang dirasakan seperti mendapat kuasa besar.
Kursus ini menerangkan proses pembelajaran mesin langkah demi langkah. Peringkat awal proses yang penting ialah prapemprosesan data, yang berlaku walaupun sebelum sebarang algoritma boleh digunakan.
Permulaan prapemprosesan ialah pemisahan data. Adalah lazim untuk membahagikan set data kepada tiga bahagian: set latihan, pengesahan dan ujian. Set latihan digunakan untuk latihan model, set pengesahan membantu menilai lampiran semasa latihan dan set ujian digunakan untuk menilai prestasi model selepas latihan.
Mengendalikan data yang hilang adalah satu lagi aspek kritikal. Bergantung pada situasi dan jumlah data yang hilang, terdapat dua pilihan utama:
Selain itu, selalunya adalah penting untuk melaksanakan skala ciri, kerana sesetengah algoritma pembelajaran mesin sensitif kepada skala data input. Sebagai contoh, algoritma yang mengira jarak antara titik data, seperti K-Nearest Neighbors (K-NN), akan berat sebelah ke arah pembolehubah dengan skala yang lebih besar jika data tidak dilaraskan untuk mengimbangi ini. Skala ciri membantu memastikan bahawa julat pembolehubah tidak bersandar menyumbang kepada analisis yang sama. Ini boleh dilakukan melalui kaedah seperti normalisasi atau penyeragaman. Normalisasi menskalakan semula ciri kepada julat tetap, biasanya dari 0 hingga 1. Standardisasi melaraskan semua ciri untuk mempunyai 0 min dan sisihan piawai 1.
Langkah prapemprosesan ini diperlukan untuk mencipta model pembelajaran mesin yang mantap yang berprestasi baik dalam senario dunia sebenar.
Model regresi ialah sejenis alat statistik yang digunakan untuk meramal hasil berterusan berdasarkan satu atau lebih pembolehubah input. Ia adalah asas untuk meramal dan menentukan kekuatan hubungan antara pembolehubah. Model ini berfungsi dengan mencipta persamaan yang paling sesuai dengan data yang diperhatikan. Saya sudah mempunyai beberapa pengalaman dengan model regresi terutamanya dengan Regression Linear daripada kursus statistik yang saya ambil tahun lalu.
Regresi Polinomial memanjangkan regresi linear dengan menambah istilah dengan kuasa yang lebih besar daripada satu. Ini membolehkan model memuatkan julat bentuk data yang lebih luas, menangkap perhubungan yang lebih kompleks antara pembolehubah. Walau bagaimanapun, polinomial darjah yang lebih tinggi boleh membawa kepada pemasangan lampau, di mana model padan dengan data latihan terlalu rapat dan berprestasi buruk pada data yang tidak kelihatan. Ini berlaku kerana model belajar hingar daripada data latihan, tersalah anggap ia sebagai perhubungan sebenar.
Seterusnya, kursus ini memperkenalkan Support Vector Regression (SVR), model berkuasa yang boleh merangkum perhubungan bukan linear dengan risiko overfitting yang lebih rendah dan boleh memodelkan perhubungan eksponen. Matlamat utama SVR ialah untuk mencipta garis ramalan yang sesuai dengan kebanyakan titik data sedekat mungkin sambil cuba memastikan garisan itu sehalus dan rata yang mungkin. Dalam erti kata lain, SVR cuba mencapai keseimbangan antara mengikuti data latihan dengan teliti dan mengelakkan model yang terlalu kompleks yang mungkin tidak berfungsi dengan baik pada data baharu yang tidak kelihatan. Ia melakukan ini dengan membenarkan margin ralat yang kecil, di mana penyelewengan boleh diterima. Ini menjadikan SVR pilihan yang mantap untuk meramalkan nilai berterusan, terutamanya apabila data kompleks atau mempunyai banyak kebolehubahan.
Selepas itu Pokok Keputusan dan Hutan Rawak diperkenalkan. Biasanya dikenali untuk pengelasan, teknik ini juga boleh digunakan dalam tetapan regresi. Kursus ini menerangkan bagaimana model ini boleh meramalkan output berdasarkan peraturan keputusan yang disimpulkan daripada ciri data. Pokok Keputusan dan Hutan Rawak mencipta model berdasarkan siri keputusan binari daripada ciri dalam set data. Pendekatan ini boleh membawa kepada model yang sesuai dengan data latihan tetapi gagal untuk digeneralisasikan kepada data baharu kerana proses membuat keputusan adalah sewenang-wenangnya dan tidak semestinya menangkap hubungan matematik asas antara pembolehubah.
Sebaliknya, kaedah seperti SVR dan Regression Polinomial bertujuan untuk mengenal pasti hubungan matematik yang wujud dalam data. Contohnya, SVR cuba menyesuaikan lengkung terbaik yang mungkin dalam margin ralat tertentu, dan regresi polinomial boleh memodelkan perhubungan yang mengikut persamaan polinomial. Jika hubungan sebenar antara pembolehubah adalah matematik, kaedah ini berkemungkinan menunjukkan prestasi yang lebih baik dengan kurang risiko overfitting. Keupayaan untuk mendedahkan dan memanfaatkan perhubungan matematik ini menjadikan SVR, Linear dan Regression Polinomial lebih teguh untuk meramalkan hasil di mana perhubungan data asas adalah kukuh dan jelas.
Bahagian tentang regresi diakhiri dengan strategi untuk memilih model terbaik. Percubaan dengan pendekatan berbeza dan penilaian prestasi mereka pada data ujian masih disyorkan, kerana percubaan masih merupakan satu-satunya cara untuk memilih model yang benar-benar optimum.
Pengkelasan melibatkan meramalkan tindak balas kategori berdasarkan pembolehubah input.
Regression Logistik, walaupun namanya, adalah teknik pengelasan asas, sesuai untuk masalah klasifikasi binari. Ia digunakan untuk ramalan hasil yang mempunyai dua keadaan yang mungkin cth., ya/tidak, benar/salah. Ia berfungsi dengan memodelkan kebarangkalian kelas lalai, biasanya berlabel 1, sebagai fungsi ciri input. Regression logistik menggunakan fungsi logistik pada output persamaan linear, menghasilkan skor kebarangkalian antara 0 dan 1. Model ini teguh, mudah dan cekap untuk masalah klasifikasi binari.
Model seterusnya dalam kursus ialah K-Nearest Neighbors (K-NN). Ia mengklasifikasikan titik data berdasarkan cara jirannya diklasifikasikan, mampu menangani masalah berbilang kelas dan sempadan keputusan yang lebih kompleks.
Kursus ini juga merangkumi Mesin Vektor Sokongan (SVM) untuk pengelasan, menerangkan penggunaan kernel yang berbeza untuk mengendalikan pengelasan linear dan bukan linear. Mesin Vektor Sokongan membina satah hiper dalam ruang berbilang dimensi untuk memisahkan kelas yang berbeza. SVM berprestasi baik dalam ruang dimensi tinggi. Ia serba boleh kerana keupayaannya untuk menggunakan fungsi kernel yang berbeza untuk menjadikan hyperplane lebih mudah disesuaikan dengan data. Contohnya, kernel linear bagus untuk data boleh dipisahkan secara linear, manakala kernel fungsi asas jejarian (RBF) boleh memetakan hubungan bukan linear.
Pengkelasan dan pengelompokan ialah kedua-dua kaedah menyusun data tetapi mempunyai tujuan yang berbeza. Pengelasan ialah pendekatan pembelajaran terkawal di mana model dilatih pada data berlabel. Ini bermakna model belajar daripada contoh yang sudah mempunyai kategori atau kelas yang ditetapkan. Tugasnya adalah untuk meramalkan kategori untuk data baharu berdasarkan apa yang telah dipelajari. Sebagai contoh, model klasifikasi mungkin menentukan sama ada e-mel adalah spam atau bukan spam berdasarkan latihan dengan set data e-mel yang dilabelkan dengan sewajarnya.
Pengkelompokan, sebaliknya, ialah teknik pembelajaran tanpa pengawasan yang melibatkan pengumpulan set objek sedemikian rupa sehingga objek dalam kumpulan yang sama lebih serupa antara satu sama lain berbanding kumpulan lain. . Ia digunakan apabila kami tidak mempunyai label yang dipratentukan untuk data. Model itu sendiri menemui kumpulan yang wujud dalam data. Contoh pengelompokan mungkin membahagikan pelanggan kepada kumpulan berdasarkan gelagat pembelian tanpa pengetahuan awal tentang jenis pelanggan yang berbeza.
Kedua-dua kaedah adalah asas dalam analisis data:
K-Means ialah teknik pengelompokan popular yang membahagikan data kepada gugusan K yang berbeza dan tidak bertindih berdasarkan cirinya. Proses ini melibatkan secara rawak memulakan titik K sebagai pusat kluster dan menetapkan setiap titik data kepada kluster terdekat berdasarkan jarak Euclidean. Pusat kluster kemudiannya dikira semula sebagai min bagi mata yang ditetapkan, dan proses ini berulang sehingga centroid stabil dan tidak lagi bergerak dengan ketara. Kaedah ini amat berkesan untuk set data yang besar dan digunakan secara meluas kerana kesederhanaan dan kecekapannya. K-Means berfungsi paling baik dengan data yang gugusannya berbentuk sfera dan bersaiz sekata, menjadikannya kurang berkesan dengan bentuk gugusan yang kompleks.
Kluster Hierarki, tidak seperti K-Means, tidak memerlukan bilangan kluster untuk dinyatakan terlebih dahulu. Ia membina hierarki kelompok sama ada dengan kaedah pembahagian atau kaedah aglomeratif.
Dalam pendekatan aglomeratif, setiap titik data bermula sebagai gugusannya sendiri, dan pasangan gugusan digabungkan apabila seseorang bergerak ke atas hierarki. Proses ini berterusan sehingga semua titik digabungkan menjadi satu kelompok di bahagian atas hierarki. Kaedah ini berfaedah untuk mengenal pasti tahap persamaan antara titik data dan diwakili secara visual menggunakan dendrogram, yang boleh membantu menentukan bilangan gugusan dengan memotong dendrogram pada tahap yang sesuai.
Kaedah pembahagian pengelompokan hierarki, juga dikenali sebagai pengelompokan atas ke bawah, bermula dengan semua pemerhatian dalam satu gugusan dan secara beransur-ansur membahagikan gugusan kepada yang lebih kecil. Pendekatan ini bermula di bahagian atas hierarki dan berjalan ke bawah, menjadikannya mudah dari segi konsep: setiap pemisahan direka bentuk untuk mencipta kelompok yang paling jelas dan koheren yang mungkin pada setiap peringkat bahagian.
Dalam amalan, kaedah pembahagian melibatkan pemeriksaan kelompok pada setiap langkah dan memilih titik terbaik untuk memisahkannya. Ini melibatkan mengukur jarak antara cerapan dalam kelompok dan mengenal pasti jarak terbesar sebagai titik pembahagian. Proses ini diteruskan secara rekursif, membelah setiap kelompok berikutnya sehingga setiap pemerhatian adalah kelompoknya sendiri atau sehingga bilangan kelompok tertentu dicapai. Ia secara amnya lebih intensif dari segi pengiraan berbanding pendekatan aglomeratif, kerana ia memerlukan paparan global data pada setiap pemisahan, menjadikannya kurang biasa digunakan dalam set data yang sangat besar.
Penghimpunan hierarki amat berguna untuk set data yang lebih kecil atau apabila perhubungan antara titik data perlu diperiksa dengan teliti, seperti dalam sains biologi atau apabila mengelompokkan data sejarah.
Pembelajaran mendalam ialah subset pembelajaran mesin yang menggunakan rangkaian saraf dengan banyak lapisan. Ia jauh berbeza daripada teknik pembelajaran mesin klasik. Walaupun pembelajaran mesin klasik memfokuskan pada ciri yang selalunya dipilih dan direkayasa secara manual, pembelajaran mendalam bertujuan untuk melatih rangkaian saraf untuk mempelajari ciri. Model tersebut mengautomasikan pengekstrakan ciri dengan membina corak kompleks daripada yang lebih ringkas. Ini menjadikan pembelajaran mendalam sangat berkuasa untuk tugas seperti pengecaman imej dan pertuturan, di mana data input sangat berdimensi dan hubungan dalam data adalah kompleks. Walau bagaimanapun, ia memerlukan sejumlah besar maklumat untuk melatih model pembelajaran mendalam.
Elemen asas pembelajaran mendalam ialah rangkaian saraf bersambung padat ke hadapan, atau Rangkaian Neural Buatan (ANN). Dalam rangkaian ini, neuron disusun dalam lapisan, dengan lapisan pertama mengambil data input dan lapisan terakhir menghasilkan output. Setiap neuron dalam satu lapisan bersambung ke setiap neuron dalam lapisan seterusnya, menjadikan rangkaian "bersambung padat." Neuron ini mempunyai berat dan berat sebelah yang menyesuaikan apabila rangkaian belajar daripada data semasa proses latihan. Output setiap neuron dikira oleh fungsi pengaktifan tak linear, yang memperkenalkan keupayaan untuk menangkap hubungan tak linear dalam data.
Lapisan neuron, dalam ANN, boleh diwakili oleh vektor yang terdiri daripada pemberat dan pincang. Data disebarkan ke hadapan melalui lapisan ini menggunakan pendaraban matriks. Output setiap lapisan dikira dengan mendarab data input dengan matriks berat dan kemudian menambah istilah bias. Output ini kemudiannya melalui fungsi pengaktifan sebelum ia dihantar ke lapisan seterusnya.
Fungsi pengaktifan adalah penting kerana ia memperkenalkan bukan linear ke dalam model, membenarkan rangkaian untuk belajar dan model kompleks, hubungan bukan linear dalam data. Tanpa fungsi pengaktifan bukan linear, rangkaian, tanpa mengira kedalamannya, masih akan berkelakuan seperti perceptron satu lapisan, yang hanya boleh mempelajari sempadan linear.
Alternatif kepada ANN asas ialah Rangkaian Neural Konvolusi (CNN). Tidak seperti rangkaian bersambung padat di mana setiap input disambungkan ke setiap neuron, CNN beroperasi pada volum piksel dan menggunakan penapis untuk mencipta peta ciri yang meringkaskan kehadiran ciri yang dikesan dalam input, seperti tepi dalam imej. Ini menjadikan CNN sangat cekap untuk tugas yang melibatkan hierarki spatial, kerana ia mengurangkan bilangan parameter yang diperlukan, mengurangkan beban pengiraan.
Rangkaian Neural Konvolusi ialah jenis rangkaian saraf khusus untuk memproses data yang mempunyai topologi seperti grid, seperti imej. CNN menggunakan penapis yang menjalankan operasi lilitan semasa penapis meluncur ke atas input untuk mencipta peta ciri yang meringkaskan kehadiran ciri yang dikesan dalam input. Ini menjadikan mereka sangat cekap untuk tugas berkaitan imej.
CNN memanfaatkan operasi matematik konvolusi, teknik asas dalam pemprosesan isyarat digital. Dalam konteks DSP, konvolusi digunakan untuk mengubah isyarat dengan penapis, mengekstrak ciri penting. Begitu juga, dalam CNN, konvolusi melibatkan penggunaan penapis pada imej untuk menghasilkan peta ciri. Proses ini dengan berkesan membolehkan rangkaian mengesan persamaan atau ciri khusus dalam imej yang sepadan dengan penapis. Contohnya, penapis mungkin belajar untuk mengesan tepi atau bentuk tertentu.
Apabila imej input diproses melalui lapisan konvolusi berturut-turut, CNN menggunakan berbilang penapis pada setiap lapisan untuk mencari corak yang semakin kompleks. Lapisan pertama mungkin mengesan tepi atau tekstur ringkas, manakala lapisan yang lebih dalam boleh mengecam ciri yang lebih kompleks seperti bahagian objek atau keseluruhan objek.
Keturunan kecerunan ialah algoritma pengoptimuman asas yang digunakan dalam melatih rangkaian saraf dan model pembelajaran mesin yang lain. Ia berfungsi dengan melaraskan parameter model secara berulang untuk meminimumkan fungsi kehilangan, yang mengukur sejauh mana ramalan model sepadan dengan data sebenar. Dalam setiap langkah, algoritma mengira kecerunan fungsi kehilangan berkenaan dengan parameter model dan menggerakkan parameter ke arah yang mengurangkan kehilangan.
Backpropagation ialah teknik yang digunakan untuk mengira kecerunan ini dengan cekap dalam rangkaian saraf. Ia melibatkan dua fasa:
Proses ini memanfaatkan peraturan rantaian kalkulus untuk menganggarkan kecerunan, memastikan setiap pemberat dilaraskan mengikut kadar sumbangannya kepada ralat keseluruhan. Bersama-sama, Gradient Descent dan Backpropagation membolehkan rangkaian saraf belajar daripada data dengan menambah baik ketepatannya secara berulang.
Fungsi kehilangan memainkan peranan penting dalam membimbing proses latihan. Ia juga dikenali sebagai fungsi kos atau fungsi ralat. Ia mengukur perbezaan antara output rangkaian yang diramalkan dan nilai sasaran sebenar. Metrik ini menyediakan ukuran konkrit tentang prestasi rangkaian. Matlamat latihan adalah untuk meminimumkan kehilangan ini, dengan itu mengoptimumkan parameter model.
Fungsi kehilangan yang biasa digunakan dalam ANN berbeza-beza bergantung pada jenis tugasan tertentu:
Satu cabaran penting apabila membina rangkaian saraf dalam ialah masalah kecerunan yang semakin hilang. Kecerunan yang digunakan dalam proses latihan boleh menjadi terlalu kecil, menghalang pemberat daripada menukar nilainya, yang menghalang rangkaian daripada mengemas kini parameter yang mencukupi.
Isu ini amat ketara dengan fungsi pengaktifan sigmoid atau tanh. Untuk mengurangkan masalah ini, pembelajaran mendalam telah menggunakan fungsi pengaktifan Unit Linear Dibetulkan (ReLu). ReLu ditakrifkan sebagai ReLU(x)=max(0,x), dengan x mewakili input kepada neuron. Fungsi ini membantu mengekalkan kecerunan yang lebih kuat semasa latihan, membolehkan rangkaian yang lebih mendalam untuk belajar dengan berkesan tanpa kecerunan yang hilang. Kesederhanaan dan kecekapan ini dalam mempromosikan ketaklinieran tanpa menjejaskan skala kecerunan menjadikan ReLu pilihan popular dalam seni bina pembelajaran mendalam.
Kursus ini berkembang menjadi pelbagai teknik pembelajaran mesin yang lebih khusus, setiap satu disesuaikan dengan aplikasi dan domain tertentu.
Pemprosesan Bahasa Asli (NLP) melibatkan penggunaan teknik pengiraan untuk analisis dan sintesis bahasa dan pertuturan semula jadi. Salah satu cabaran utama dalam menggunakan pembelajaran mesin untuk NLP ialah data teks sememangnya tidak berstruktur dan berdimensi tinggi. Teks mesti ditukar kepada format berangka yang boleh diproses oleh algoritma pembelajaran mesin, tugas yang rumit oleh nuansa bahasa seperti sintaks, semantik dan konteks.
The Bag of Words (BoW) menangani perkara ini dengan mengubah teks menjadi vektor panjang tetap dengan mengira kekerapan setiap perkataan muncul dalam dokumen, mengabaikan susunan dan konteks perkataan. Kaedah ini memudahkan data teks, menjadikannya terurus untuk model pembelajaran mesin asas dan berfungsi sebagai teknik asas untuk tugas pengelasan teks, seperti pengesanan spam atau analisis sentimen. Walau bagaimanapun, kesederhanaan model BoW, mengabaikan susunan perkataan dan konteks semantik mengehadkan keberkesanannya untuk tugas bahasa yang lebih kompleks.
Pembelajaran Pengukuhan (RL) ialah sejenis pembelajaran mesin di mana ejen belajar membuat keputusan dengan berinteraksi dengan persekitaran. Ia berbeza daripada pembelajaran diselia, kerana pasangan input/output yang betul tidak pernah dibentangkan, atau tindakan sub-optimum diperbetulkan secara eksplisit. Strategi ini berkembang dengan mengimbangi penerokaan, mencuba perkara baharu dan eksploitasi, menggunakan maklumat yang diketahui, dalam proses membuat keputusan.
Ejen mengambil tindakan berdasarkan polisi, menerima maklum balas melalui ganjaran atau hukuman dan mengemas kini polisinya untuk memaksimumkan ganjaran jangka panjang. Dua strategi ketara dalam RL yang membantu mengurus dilema penerokaan-eksploitasi ialah Keyakinan Atas Terikat (UCB) dan Pensampelan Thompson.
UCB ialah algoritma yang mengutamakan penerokaan dengan memilih tindakan yang mempunyai ganjaran tinggi atau belum pernah dicuba dengan kerap. Ideanya adalah untuk mengimbangi ganjaran yang diketahui dengan potensi mencari ganjaran yang lebih tinggi dalam tindakan yang kurang dicuba. UCB melakukan ini dengan membina had keyakinan di sekitar anggaran ganjaran tindakan dan memilih tindakan dengan batas keyakinan atas tertinggi. Pendekatan ini secara sistematik mengurangkan ketidakpastian dan menambah baik pembuatan keputusan dari semasa ke semasa.
Pensampelan Thompson mengambil pendekatan Bayesian untuk masalah penerokaan-eksploitasi. Ia melibatkan pensampelan daripada pengedaran posterior ganjaran untuk setiap tindakan dan memilih tindakan dengan sampel tertinggi. Kaedah ini membolehkan penerokaan yang lebih berkemungkinan berdasarkan prestasi tindakan yang diketahui, mengimbangi secara dinamik antara meneroka tindakan baharu dan mengeksploitasi tindakan yang diketahui berdasarkan taburan kebarangkalian ganjarannya.
Kedua-dua UCB dan Pensampelan Thompson adalah teknik yang berkuasa dalam situasi di mana persekitaran pembelajaran pada mulanya tidak diketahui oleh ejen, membolehkan penerokaan sistematik dan pembelajaran yang dioptimumkan berdasarkan maklum balas yang diterima daripada persekitaran. Kaedah ini amat berguna dalam senario membuat keputusan masa nyata seperti ujian A/B atau penghalaan rangkaian.
PCA ialah teknik statistik yang digunakan untuk pengurangan dimensi sambil mengekalkan sebanyak mungkin varians. Ia berfungsi dengan mengenal pasti apa yang dipanggil komponen utama - arah di mana varians data dimaksimumkan. Ia mengurangkan dimensi data dengan mengubah pembolehubah asal kepada satu set pembolehubah ortogon yang baharu. Ortogonal membolehkan pembolehubah baharu ini tidak berkorelasi yang mungkin, dan mengambil kira varians maksimum dalam data. Ini amat berguna dalam mengurangkan bilangan pembolehubah dalam data sambil mengekalkan perhubungan yang menyumbang paling banyak kepada variansnya. Dengan menukar data kepada satu set dimensi baharu dengan kerumitan yang dikurangkan, PCA membantu dalam menggambarkan data berdimensi tinggi, mempercepatkan algoritma pembelajaran dan mengalih keluar hingar.
LDA, sebaliknya, juga merupakan teknik pengurangan dimensi tetapi lebih memfokuskan pada memaksimumkan kebolehpisahan antara kategori yang diketahui. Ia cuba memodelkan perbezaan antara kelas data. LDA mencapai ini dengan mencari gabungan linear ciri yang memisahkan kelas. Gabungan yang terhasil boleh digunakan sebagai pengelas linear atau untuk pengurangan dimensi sebelum pengelasan kemudian.
Kedua-dua PCA dan LDA mempunyai tujuan yang sedikit berbeza:
Bahagian akhir kursus meneroka strategi pemilihan model lanjutan dan memperkenalkan meningkatkan. Boosting berfungsi dengan menggabungkan berbilang pelajar lemah menjadi model yang lebih kuat secara berurutan. Setiap pelajar dalam urutan memfokuskan pada ralat yang dibuat oleh yang sebelumnya, secara beransur-ansur meningkatkan ketepatan model. Pelajar biasanya model mudah seperti pokok keputusan, dan setiap satu menyumbang secara berperingkat kepada keputusan muktamad, menjadikan ensembel lebih kuat daripada mana-mana model individu sahaja.
Salah satu pelaksanaan teknik ini yang paling popular ialah Peningkatan Kecerunan Melampau (XGBoost), yang menyerlah kerana kecekapan dan keberkesanannya merentas pelbagai tugas pemodelan ramalan.
Kursus "Pembelajaran Mesin A-Z: AI, Python & R" ialah titik permulaan yang bagus untuk sesiapa yang berminat dalam pembelajaran mesin. Ia merangkumi banyak topik penting dan memberikan gambaran keseluruhan yang luas, tetapi ia hanya permulaan.
Menghabiskan kursus ini tidak akan menjadikan anda pakar bersedia untuk kerja pembelajaran mesin khusus serta-merta. Sebaliknya, anggap ia sebagai langkah pertama. Ia membantu anda memahami asas dan menunjukkan kepada anda bahagian pembelajaran mesin yang mungkin paling menarik untuk anda.
Atas ialah kandungan terperinci sepersepuluh Pembelajaran Mesin dan seterusnya: Pembelajaran Mesin A-Z. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!