Rumah  >  Artikel  >  Peranti teknologi  >  Andrew Ng: Enam algoritma teras pembelajaran mesin

Andrew Ng: Enam algoritma teras pembelajaran mesin

王林
王林ke hadapan
2023-04-08 14:01:08972semak imbas

Andrew Ng: Enam algoritma teras pembelajaran mesin

Artikel ini diterbitkan semula daripada Lei Feng.com Jika anda perlu mencetak semula, sila pergi ke tapak web rasmi Lei Feng.com untuk memohon kebenaran.

Baru-baru ini, Andrew Ng mengemas kini catatan blog tentang "The Batch," surat berita kecerdasan buatan mingguan yang diasaskannya, meringkaskan asal-usul sejarah pelbagai algoritma asas dalam bidang pembelajaran mesin. Pada permulaan artikel, Andrew Ng mengimbas kembali keputusan yang dibuatnya dalam proses penyelidikannya: Bertahun-tahun yang lalu, dalam projek, apabila memilih algoritma, dia terpaksa memilih antara rangkaian saraf dan algoritma pembelajaran pokok keputusan. Memandangkan belanjawan pengiraan, dia akhirnya memilih rangkaian saraf, meninggalkan pepohon keputusan yang dirangsang untuk masa yang lama. Ini adalah keputusan yang salah "Nasib baik, pasukan saya segera menyemak pilihan saya dan projek itu berjaya," kata Ng. Beliau mengeluh bahawa adalah sangat penting untuk terus belajar dan mengemaskini pengetahuan asas. Seperti bidang teknikal lain, bidang pembelajaran mesin sentiasa berkembang apabila bilangan penyelidik bertambah dan bilangan hasil penyelidikan bertambah. Tetapi sumbangan beberapa algoritma asas dan idea teras boleh bertahan dalam ujian masa:

  • Algoritma: regresi linear dan logistik, pepohon keputusan, dsb.
  • Konsep: regularisasi, fungsi kehilangan pengoptimuman, bias/variance, dsb.

Pada pandangan Ng, algoritma dan konsep ini merupakan idea teras banyak mesin model pembelajaran termasuk peramal harga rumah, penjana imej teks (seperti DALL·E), dsb. Dalam artikel terbaru ini, Andrew Ng dan pasukannya menyiasat asal-usul, kegunaan, evolusi, dsb. enam algoritma asas, dan memberikan penjelasan yang lebih terperinci. Enam algoritma tersebut ialah: regresi linear, regresi logistik, keturunan kecerunan, rangkaian saraf, pepohon keputusan dan algoritma k-means clustering.

1 Regresi Linear: Lurus & Sempit

Regresi linear ialah kaedah statistik utama dalam pembelajaran mesin, tetapi ia tidak menang tanpa perlawanan. Ia telah dicadangkan oleh dua ahli matematik yang cemerlang, tetapi 200 tahun kemudian, masalah itu masih tidak dapat diselesaikan. Kontroversi lama menunjukkan bukan sahaja kegunaan algoritma yang luar biasa, tetapi juga kesederhanaan pentingnya.

Jadi algoritma siapakah regresi linear? Pada tahun 1805, ahli matematik Perancis Adrien-Marie Legendre menerbitkan kaedah untuk memasang garis pada satu set titik sambil cuba meramalkan kedudukan komet (navigasi cakerawala adalah arah saintifik yang paling berharga dalam perdagangan global pada masa itu, sama seperti kecerdasan buatan hari ini . pintar).

Andrew Ng: Enam algoritma teras pembelajaran mesin

Kapsyen: Lakaran potret Adrien-Marie LegendreEmpat tahun kemudian, 24 tahun- keajaiban Jerman lama Carl Friedrich Gauss menegaskan bahawa dia telah menggunakannya sejak 1795 tetapi menganggapnya terlalu remeh untuk ditulis. Tuntutan Gauss mendorong Legendre untuk menerbitkan tanpa nama, dengan menyatakan bahawa "seorang geometer yang sangat terkenal menggunakan kaedah ini tanpa teragak-agak >

Ilustrasi: Carl Friedrich Gauss

Andrew Ng: Enam algoritma teras pembelajaran mesin

Cerun dan Sisihan<.>: Regresi linear adalah mudah apabila hubungan antara hasil dan pembolehubah yang mempengaruhinya mengikut garis lurus ia berfungsi. Sebagai contoh, penggunaan bahan api kereta adalah berkaitan secara linear dengan beratnya.

  • Hubungan antara penggunaan bahan api y kereta dan beratnya x bergantung pada cerun w garis lurus (setakat mana penggunaan bahan api meningkat dengan berat) dan istilah bias b (bahan api penggunaan pada berat sifar): y=w *x+b.
  • Semasa latihan, algoritma meramalkan penggunaan bahan api yang dijangkakan berdasarkan berat kereta. Ia membandingkan jangkaan dan penggunaan bahan api sebenar. Ia kemudian meminimumkan perbezaan kuasa dua, biasanya dengan teknik kuasa dua terkecil biasa, mengasah nilai w dan b.
  • Memandangkan seretan kereta boleh menjana ramalan yang lebih tepat. Pembolehubah tambahan memanjangkan garisan ke satah. Dengan cara ini, regresi linear boleh menampung sebarang bilangan pembolehubah/dimensi.

Dua langkah untuk mempopularkan: Algoritma serta-merta membantu pelayar menjejaki bintang, serta ahli biologi kemudiannya (terutamanya Charles Darwin) Sepupu Francis Galton) yang dikenal pasti ciri-ciri yang diwarisi dalam tumbuhan dan haiwan. Kedua-dua perkembangan selanjutnya ini membuka kunci potensi luas regresi linear. Pada tahun 1922, ahli statistik British Ronald Fisher dan Karl Pearson menunjukkan bagaimana regresi linear boleh dimuatkan ke dalam rangka kerja statistik umum korelasi dan pengedaran, menjadikannya berguna dalam semua sains. Dan, hampir satu abad kemudian, kemunculan komputer memberikan data dan kuasa pemprosesan untuk mengeksploitasinya ke tahap yang lebih besar.

Menangani Kekaburan: Sudah tentu, data tidak pernah diukur dengan sempurna dan sesetengah pembolehubah adalah lebih penting daripada yang lain. Fakta kehidupan ini memberi inspirasi kepada variasi yang lebih kompleks. Sebagai contoh, regresi linear dengan regularisasi (juga dikenali sebagai "regresi rabung") menggalakkan model regresi linear untuk tidak terlalu bergantung pada mana-mana satu pembolehubah, atau lebih tepat, untuk bergantung sama rata pada pembolehubah yang paling penting. Jika untuk kesederhanaan, satu lagi bentuk regularisasi (L1 dan bukannya L2) menghasilkan laso (anggaran termampat) yang menggalakkan seberapa banyak pekali yang mungkin menjadi sifar. Dalam erti kata lain, ia belajar untuk memilih pembolehubah dengan kuasa ramalan yang tinggi dan mengabaikan yang lain. Rangkaian anjal menggabungkan kedua-dua jenis regularisasi ini. Ia berguna apabila data jarang atau apabila ciri kelihatan berkaitan.

Dalam setiap neuron : Kini, versi ringkas masih sangat berguna. Jenis neuron yang paling biasa dalam rangkaian saraf ialah model regresi linear, diikuti dengan fungsi pengaktifan bukan linear, menjadikan regresi linear sebagai komponen asas pembelajaran mendalam.

2 Regresi Logistik: Mengikuti Keluk

Ada masanya regresi logistik hanya digunakan untuk mengklasifikasikan satu perkara: jika anda minum sebotol racun, anda Adalah adakah mungkin untuk dilabel "hidup" atau "mati"? Masa telah berubah, dan hari ini, bukan sahaja panggilan perkhidmatan kecemasan memberikan jawapan yang lebih baik kepada soalan ini, tetapi regresi logistik juga merupakan teras pembelajaran mendalam.

Kawalan Racun: Fungsi logistik bermula pada tahun 1830-an, apabila ahli statistik Belgium P.F Verhulst menciptanya untuk menggambarkan dinamik populasi: pertumbuhan eksponen dari semasa ke semasa Ledakan awal tahap pertumbuhan berkurangan kerana ia menggunakan sumber yang ada, menghasilkan keluk logistik yang berciri. Lebih daripada satu abad kemudian, ahli statistik Amerika E. B. Wilson dan pelajarnya Jane Worcester mencipta regresi logistik untuk mengira berapa banyak bahan berbahaya yang diberikan boleh membawa maut.

Andrew Ng: Enam algoritma teras pembelajaran mesin

Kapsyen: P.F. VerhulstFungsi pemasangan: regresi logistik Fit a fungsi logistik kepada set data untuk meramalkan kebarangkalian hasil tertentu (cth., kematian pramatang) untuk kejadian tertentu (cth., pengambilan strychnine).

  • Latihan melaraskan kedudukan tengah lengkung secara mendatar dan kedudukan tengah lengkung secara menegak untuk meminimumkan ralat antara output fungsi dan data.
  • Melaraskan bahagian tengah ke kanan atau kiri bermakna memerlukan lebih atau kurang racun untuk membunuh orang biasa. Cerun curam membayangkan kepastian: sebelum titik separuh jalan, kebanyakan orang bertahan di luar titik separuh jalan, "katakan selamat tinggal" (bermaksud kematian). Cerun yang lembut lebih memaafkan: di bawah bahagian tengah lengkung, lebih daripada separuh akan bertahan di atas itu, kurang daripada separuh akan bertahan.
  • Tetapkan ambang, katakan 0.5, antara satu hasil dengan hasil yang lain, dan lengkung menjadi pengelas. Hanya masukkan dos ke dalam model dan anda akan tahu sama ada anda perlu merancang pesta atau pengebumian.

Lebih banyak hasil : Kerja Verhulst mendapati kebarangkalian hasil binari, mengabaikan kemungkinan selanjutnya seperti mangsa keracunan mungkin memasuki sisi mana kehidupan akhirat. Penggantinya melanjutkan algoritma:

  • Pada penghujung 1960-an, ahli statistik British David Cox dan ahli statistik Belanda Henri Theil, bekerja secara bebas, menjalankan regresi logistik untuk situasi dengan lebih daripada dua kemungkinan hasil.
  • Kerja selanjutnya menghasilkan regresi logistik tersusun, di mana hasilnya adalah nilai tersusun.
  • Untuk mengendalikan data jarang atau berdimensi tinggi, regresi logistik boleh memanfaatkan teknik regularisasi yang sama seperti regresi linear.

Andrew Ng: Enam algoritma teras pembelajaran mesin

Kapsyen: David CoxKeluk Pelbagai Fungsi : Logistik fungsi menerangkan pelbagai fenomena dengan ketepatan yang tinggi, jadi regresi logistik menyediakan ramalan garis dasar yang berguna dalam banyak situasi. Dalam bidang perubatan, ia menganggarkan risiko kematian dan penyakit. Dalam sains politik, ia meramalkan pemenang dan kalah dalam pilihan raya. Dalam ekonomi, ia meramalkan prospek perniagaan. Lebih penting lagi, ia memacu subset neuron dalam pelbagai rangkaian neural (di mana ketaklinearan ialah fungsi sigmoid).

Keturunan Kecerunan 3: Segala-galanya Menurun

Bayangkan mendaki di pergunungan selepas senja dan menyedari anda tidak dapat melihat apa-apa di bawah anda. Dan bateri telefon anda mati, jadi anda tidak boleh menggunakan apl GPS anda untuk mencari jalan pulang. Anda mungkin menemui laluan terpantas melalui penurunan kecerunan. Berhati-hati untuk tidak keluar dari tebing. Matahari dan Permaidani: Turun kecerunan lebih berfaedah daripada menuruni rupa bumi yang curam. Pada tahun 1847, ahli matematik Perancis Augustin-Louis Cauchy mencipta algoritma untuk menghampiri orbit bintang. Enam puluh tahun kemudian, rakan senegaranya Jacques Hadamard telah membangunkannya secara bebas untuk menggambarkan ubah bentuk objek nipis dan fleksibel, seperti permaidani, yang mungkin memudahkan pendakian ke bawah lutut. Walau bagaimanapun, dalam pembelajaran mesin, penggunaan yang paling biasa adalah untuk mencari titik terendah fungsi kehilangan algoritma pembelajaran.

Andrew Ng: Enam algoritma teras pembelajaran mesin

Kapsyen: Augustin-Louis CauchyNaik turun: Seorang yang terlatih rangkaian saraf menyediakan fungsi yang mengira keluaran yang dikehendaki diberikan input. Satu cara untuk melatih rangkaian adalah untuk meminimumkan kehilangan, atau ralat, dalam output dengan mengira secara berulang perbezaan antara output sebenar dan output yang dikehendaki, dan kemudian menukar nilai parameter rangkaian untuk mengurangkan perbezaan.

Keturunan kecerunan mengurangkan perbezaan, meminimumkan fungsi yang mengira kerugian. Nilai parameter rangkaian adalah bersamaan dengan kedudukan pada rupa bumi, dan kerugian ialah ketinggian semasa. Semasa anda turun, anda boleh meningkatkan keupayaan rangkaian untuk mengira sesuatu yang hampir dengan output yang diingini. Keterlihatan adalah terhad kerana dalam situasi pembelajaran biasa yang diselia, algoritma hanya bergantung pada nilai parameter rangkaian dan kecerunan atau kecerunan fungsi kehilangan - iaitu di mana anda berada di atas bukit dan cerun di bawah anda.

  • Pendekatan asasnya adalah untuk bergerak ke arah di mana rupa bumi turun paling curam. Caranya adalah untuk menentukur panjang langkah anda. Ambil langkah yang terlalu kecil dan mengambil masa yang lama untuk membuat kemajuan;
  • Memandangkan kedudukan semasa, algoritma menganggarkan arah penurunan terpantas dengan mengira kecerunan fungsi kehilangan. Kecerunan menghala ke atas bukit, jadi algoritma pergi ke arah yang bertentangan dengan menolak sebahagian kecil kecerunan. Pecahan α dipanggil kadar pembelajaran menentukan saiz langkah sebelum mengukur kecerunan semula.
  • Ulang langkah ini dan harap anda boleh sampai ke lembah. tahniah!

Terperangkap di Lembah : Sayang sekali telefon anda kehabisan bateri kerana algoritma mungkin tidak mendorong anda ke bahagian bawah gunung. Anda boleh terperangkap dalam landskap tidak cembung yang terdiri daripada berbilang lembah (minima tempatan), puncak (maksimum tempatan), mata pelana (mata pelana) dan dataran tinggi. Sebenarnya, tugas seperti pengecaman imej, penjanaan teks dan pengecaman pertuturan semuanya bukan cembung, dan banyak variasi keturunan kecerunan telah muncul untuk menangani situasi ini.

Sebagai contoh, algoritma mungkin mempunyai momentum yang membantu ia menguatkan turun naik kecil, menjadikannya lebih cenderung untuk mencapai bahagian bawah. Para penyelidik mencipta begitu banyak variasi sehingga nampaknya terdapat banyak pengoptimum berbanding minima tempatan. Mujurlah, minima tempatan dan minima global cenderung lebih kurang sama.

Pengoptimum optimum: Keturunan kecerunan ialah pilihan yang jelas untuk mencari minimum mana-mana fungsi. Dalam kes di mana penyelesaian tepat boleh dikira secara langsung - contohnya, dalam tugas regresi linear dengan bilangan pembolehubah yang besar - ia boleh menghampiri nilai dan selalunya lebih cepat dan lebih murah. Tetapi ia berguna dalam tugas bukan linear yang kompleks. Dengan keturunan gradien dan rasa pengembaraan, anda mungkin boleh keluar dari pergunungan tepat pada waktunya untuk makan malam.

4 Rangkaian Neural: Fungsi Mencari

Mari kita selesaikan perkara ini dahulu: Otak bukanlah satu set unit pemprosesan grafik, jika ia Jika ya, perisian yang dijalankannya jauh lebih kompleks daripada rangkaian neural tiruan biasa. Rangkaian saraf diilhamkan oleh struktur otak: lapisan neuron yang saling berkait, masing-masing mengira outputnya sendiri berdasarkan keadaan jirannya Rantaian aktiviti yang terhasil membentuk idea—atau mengenali idea.

Dari biologi kepada tiruan: Idea bahawa otak belajar melalui interaksi antara neuron bermula sejak 1873, tetapi tidak sehingga 1943 ahli sains saraf Amerika Warren McCulloch dan Walter Pitts menggunakan peraturan matematik mudah untuk membina model rangkaian saraf biologi. Pada tahun 1958, ahli psikologi Amerika Frank Rosenblatt membangunkan sensor, rangkaian visual satu lapisan yang dilaksanakan pada mesin kad tebuk, dengan matlamat membina versi perkakasan untuk Tentera Laut A.S.

Andrew Ng: Enam algoritma teras pembelajaran mesin

Kapsyen: Frank RosenblattLebih besar adalah lebih baik: Ciptaan Rosenblatt boleh hanya mengenali klasifikasi baris tunggal. Kemudian, ahli matematik Ukraine Alexey Ivakhnenko dan Valentin Lapa mengatasi had ini dengan menyusun rangkaian neuron dalam sebarang bilangan lapisan.

Pada tahun 1985, saintis komputer Perancis Yann LeCun, David Parker, dan ahli psikologi Amerika David Rumelhart dan rakan sekerja, bekerja secara bebas, menerangkan penggunaan rambatan belakang untuk melatih rangkaian sedemikian dengan berkesan.

Dalam dekad pertama alaf baharu, penyelidik termasuk Kumar Chellapilla, Dave Steinkraus dan Rajat Raina (dengan kerjasama Andrew Ng) mendorong lebih jauh lagi dengan menggunakan unit pemprosesan grafik pembangunan rangkaian saraf, yang membolehkan rangkaian saraf yang lebih besar dan lebih besar untuk belajar daripada sejumlah besar data yang dihasilkan oleh Internet.

Cocok untuk setiap tugas : Prinsip di sebalik rangkaian saraf adalah mudah: untuk sebarang tugas, terdapat fungsi yang melaksanakannya. Rangkaian saraf membentuk fungsi yang boleh dilatih dengan menggabungkan berbilang fungsi mudah, setiap satu dilakukan oleh neuron tunggal. Fungsi neuron ditentukan oleh parameter boleh laras yang dipanggil "berat".

Memandangkan pemberat dan nilai rawak ini untuk contoh input dan output yang diingini, anda boleh menukar pemberat secara berulang sehingga fungsi yang boleh dilatih melaksanakan tugas di tangan.

  • Satu neuron mengambil pelbagai input (cth. nombor yang mewakili piksel atau perkataan, atau output lapisan sebelumnya), mendarabnya dengan pemberat, dan produk ditambah, dan menghasilkan jumlah fungsi tak linear atau fungsi pengaktifan yang dipilih oleh pembangun. Dalam tempoh ini, anda harus menganggap bahawa ia adalah regresi linear, ditambah dengan fungsi pengaktifan.
  • Latihan mengubah suai berat. Untuk setiap input contoh, rangkaian mengira output dan membandingkannya dengan output yang dijangkakan. Rambatan belakang mengubah pemberat melalui penurunan kecerunan untuk mengurangkan perbezaan antara output sebenar dan jangkaan. Apabila proses ini diulang cukup kali dengan contoh yang cukup (baik), rangkaian belajar untuk melaksanakan tugas.

Kotak Hitam: Walaupun dengan apa-apa nasib rangkaian yang terlatih boleh melakukan tugasnya, akhirnya anda akhirnya membaca fungsi yang selalunya Ia sangat kompleks — mengandungi beribu-ribu pembolehubah dan fungsi pengaktifan bersarang — bahawa sukar untuk menerangkan cara rangkaian berjaya dalam tugasnya. Tambahan pula, rangkaian yang terlatih hanya sebaik data yang dipelajarinya.

Sebagai contoh, jika set data adalah berat sebelah, maka output rangkaian juga akan menjadi berat sebelah. Jika ia hanya mengandungi imej kucing beresolusi tinggi, tidak diketahui bagaimana ia akan bertindak balas terhadap imej resolusi rendah. Sekeping akal: The New York Times menjejaki gembar-gembur AI apabila ia melaporkan pada sensor Rosenblatt pada tahun 1958, dengan menyatakan bahawa "Tentera Laut A.S. mahukan mesin yang boleh berjalan, bercakap, melihat, menulis dan meniru dirinya sendiri." prototaip komputer elektronik yang menyedari kewujudannya sendiri

Walaupun penderia pada masa itu tidak memenuhi keperluan ini, ia menghasilkan banyak model yang mengagumkan: rangkaian saraf konvolusi untuk imej yang berulang untuk teks , pengubah untuk pertuturan, video, struktur protein, dsb.

Mereka sudah melakukan perkara yang menakjubkan, seperti melebihi prestasi peringkat manusia semasa bermain Go dan mendekati prestasi peringkat manusia dalam tugas praktikal seperti mendiagnosis imej X-ray. Walau bagaimanapun, mereka masih lebih sukar untuk ditangani dari segi akal dan penaakulan logik.

5 Pokok Keputusan: Dari Akar ke Daun

Apakah jenis "binatang" Aristotle? Porphyry, seorang pengikut ahli falsafah yang tinggal di Syria pada abad ketiga, datang dengan cara yang logik untuk menjawab soalan ini.

Beliau menggabungkan "kategori kewujudan" yang dicadangkan oleh Aristotle daripada umum kepada khusus, dan mengklasifikasikan Aristotle ke dalam setiap kategori secara bergilir-gilir: Kewujudan Aristotle Dodd adalah material dan bukannya konseptual atau rohani; adalah bernyawa dan bukannya tidak bernyawa; pemikirannya adalah rasional dan bukannya tidak rasional.

Oleh itu, klasifikasinya adalah manusia. Guru logik zaman pertengahan melukis urutan ini sebagai gambar rajah aliran menegak: pokok keputusan awal.

Perbezaan dalam Nombor: Maju pantas ke 1963, apabila ahli sosiologi Universiti Michigan John Sonquist dan ahli ekonomi James Morgan mengumpulkan responden tinjauan dilaksanakan buat kali pertama dalam komputer. Kerja seperti ini telah menjadi biasa dengan kemunculan perisian yang melatih algoritma secara automatik, dan pepohon keputusan kini digunakan oleh pelbagai perpustakaan pembelajaran mesin termasuk scikit-learn dan lain-lain. Kod ini dibangunkan dalam tempoh 10 tahun oleh empat ahli statistik di Universiti Stanford dan Universiti California, Berkeley. Pada masa ini, menulis pepohon keputusan dari awal telah menjadi tugasan kerja rumah Pembelajaran Mesin 101.

Akar di udara: Pokok keputusan boleh melakukan pengelasan atau regresi. Ia tumbuh ke bawah, dari akar ke mahkota, mengklasifikasikan contoh input hierarki keputusan kepada dua (atau lebih). Topik saintis perubatan dan antropologi Jerman Johann Blumenbach terlintas di fikiran: sekitar tahun 1776, dia mula-mula membezakan monyet daripada beruk (meninggalkan manusia sebelum itu, monyet dan beruk dikumpulkan bersama).

Pengkelasan ini bergantung kepada pelbagai kriteria, seperti sama ada ia mempunyai ekor, sama ada ia mempunyai dada yang sempit atau lebar, sama ada ia tegak atau membongkok, dan tahap kecerdasannya. Gunakan pokok keputusan terlatih untuk melabelkan haiwan tersebut, dengan mengambil kira setiap kriteria satu demi satu, dan akhirnya memisahkan dua kumpulan haiwan tersebut.

  • Pokok itu bermula dari nod akar yang boleh dianggap sebagai pangkalan data biologi yang mengandungi semua kes - cimpanzi, gorila dan orang utan, serta monyet capuchin, Babon dan marmoset. Akar memberikan pilihan antara dua nod anak sama ada ia mempamerkan ciri tertentu, menghasilkan dua nod anak yang mengandungi contoh dengan dan tanpa ciri tersebut. Secara analogi, proses ini berakhir dengan sebarang bilangan nod daun, setiap satu mengandungi kebanyakan atau semua kategori.
  • Untuk membesar, pokok mesti mencari akarnya. Untuk membuat pilihan, pertimbangkan semua ciri dan nilainya - pelengkap belakang, dada tong, dll. - dan pilih yang memaksimumkan ketulenan pembahagian. "Ketulenan optimum" ditakrifkan sebagai 100% kejadian kategori yang masuk ke nod anak tertentu dan bukan ke nod lain. Garpu jarang 100% tulen selepas hanya satu keputusan, dan mereka mungkin tidak akan pernah. Semasa proses ini berterusan, satu peringkat demi satu nod anak dihasilkan, sehingga ketulenan tidak meningkat dengan banyak dengan mempertimbangkan lebih banyak ciri. Pada ketika ini, pokok itu telah dilatih sepenuhnya.
  • Semasa inferens, contoh baharu melalui pepohon keputusan dari atas ke bawah, melengkapkan penilaian keputusan yang berbeza pada setiap peringkat. Ia akan mendapat label data yang terkandung dalam nod daun di mana ia berada.

Ke dalam 10 Teratas: Memandangkan kesimpulan Blumenbach (kemudian dibatalkan oleh Charles Darwin) bahawa manusia dibezakan daripada beruk melalui pelvis, tangan, dan giginya yang besar, Bagaimana jika kita mahu memanjangkan pokok keputusan untuk mengklasifikasikan bukan sahaja beruk dan monyet, tetapi manusia? Saintis komputer Australia John Ross Quinlan membuat ini mungkin pada tahun 1986 dengan ID3, yang melanjutkan pokok keputusan untuk menyokong hasil bukan binari. Pada tahun 2008, dalam senarai sepuluh algoritma perlombongan data teratas yang dirancang oleh Persidangan Perlombongan Data Antarabangsa IEEE, algoritma pemurnian lanjutan bernama C4.5 menduduki tempat teratas.

Dalam dunia di mana inovasi berleluasa, ini adalah kuasa yang kekal. Mengupas daun: Pokok keputusan mempunyai beberapa kelemahan. Mereka boleh melebihkan data dengan mudah dengan menambahkan berbilang peringkat hierarki supaya nod daun hanya merangkumi satu contoh. Apa yang lebih teruk ialah mereka terdedah kepada kesan rama-rama: menukar contoh, pokok yang tumbuh adalah berbeza sama sekali.

Ke dalam hutan: Ahli statistik Amerika Leo Breiman dan ahli statistik New Zealand Adele Cutler menjadikan ciri ini sebagai kelebihan dan membangunkan hutan rawak (hutan rawak) pada tahun 2001 - Ini ialah koleksi pokok keputusan , yang setiap satunya memproses pemilihan contoh dan undian yang berbeza dan bertindih pada hasil akhir. Random Forest dan sepupunya XGBoost kurang terdedah kepada overfitting, yang membantu menjadikannya salah satu algoritma pembelajaran mesin yang paling popular. Ia seperti mempunyai Aristotle, Porphyry, Blumenbach, Darwin, Jane Goodall, Dian Fossey dan 1,000 ahli zoologi lain di dalam bilik bersama-sama untuk memastikan klasifikasi anda adalah yang terbaik.

6 K-Means Clustering: Groupthink

Jika anda berdiri rapat dengan orang lain di sebuah parti, kemungkinan besar anda mempunyai persamaan. Ini adalah idea menggunakan k-means clustering untuk mengumpulkan titik data. Sama ada kumpulan yang dibentuk melalui agensi manusia atau kuasa lain, algoritma ini akan menemui mereka. Daripada letupan kepada nada dail: Ahli fizik Amerika Stuart Lloyd, alumnus Kilang Inovasi ikonik Bell Labs dan Projek Manhattan yang mencipta bom atom, mula-mula mencadangkan k-means clustering pada tahun 1957 untuk menganalisis maklumat Peruntukan digital dalam isyarat, tetapi karya ini tidak diterbitkan sehingga 1982:

Andrew Ng: Enam algoritma teras pembelajaran mesin

Alamat kertas: https://cs.nyu.edu /~roweis /csc2515-2006/readings/lloyd57.pdfSementara itu, ahli statistik Amerika Edward Forgy menerangkan pendekatan serupa pada tahun 1965, yang membawa kepada nama alternatifnya "Lloyd-Forgy Algorithm". Mencari Hab: Pertimbangkan untuk membahagikan kelompok kepada kumpulan kerja yang berfikiran sama. Memandangkan lokasi peserta di dalam bilik dan bilangan kumpulan untuk dibentuk, k-means clustering boleh membahagikan peserta kepada kumpulan yang bersaiz lebih kurang sama, dengan setiap kumpulan berkumpul di sekeliling titik pusat atau centroid.

  • Semasa latihan, algoritma pada mulanya menentukan k centroid dengan memilih k orang secara rawak. (K mesti dipilih secara manual, dan mencari nilai optimum kadangkala sangat penting.) Ia kemudian menumbuhkan k gugusan dengan mengaitkan setiap orang dengan centroid terdekat.
  • Untuk setiap kelompok, ia mengira kedudukan purata semua orang yang diberikan kepada kumpulan itu dan menetapkan kedudukan purata itu sebagai centroid baharu. Setiap pusat jisim baru mungkin tidak diduduki oleh seseorang, tetapi bagaimana? Orang ramai cenderung untuk berkumpul di sekitar coklat dan fondue.
  • Selepas mengira centroid baharu, algoritma menugaskan semula individu kepada centroid terdekat mereka. Ia kemudian mengira centroid baharu, melaraskan kelompok, dan seterusnya sehingga centroid (dan kumpulan di sekelilingnya) tidak lagi bergerak. Selepas itu, menugaskan ahli baharu kepada kluster yang betul adalah mudah. Dapatkan mereka dalam kedudukan di dalam bilik dan cari pusat jisim yang terdekat.
  • Berhati-hati: memandangkan tugasan centroid rawak awal, anda mungkin tidak berada dalam kumpulan yang sama dengan pakar AI yang mengutamakan data yang anda harap dapat bergaul. Algoritma berfungsi dengan baik, tetapi ia tidak dijamin untuk mencari penyelesaian terbaik.

Jarak yang berbeza: Sudah tentu, jarak antara objek berkelompok tidak perlu besar. Sebarang metrik antara dua vektor akan berjaya. Sebagai contoh, bukannya mengelompokkan pengunjung parti berdasarkan jarak fizikal, k-means clustering boleh membahagikan mereka berdasarkan pakaian, pekerjaan atau atribut lain mereka. Kedai dalam talian menggunakannya untuk membahagikan pelanggan berdasarkan keutamaan atau tingkah laku mereka dan ahli astronomi boleh mengumpulkan bintang daripada jenis yang sama bersama-sama. Kuasa Mata Data: Idea ini menghasilkan beberapa perubahan yang luar biasa:

  • K-medoid menggunakan titik data sebenar sebagai centroid dan bukannya kedudukan purata dalam kelompok tertentu. Titik tengah ialah titik yang meminimumkan jarak ke semua titik dalam kelompok. Perubahan ini lebih mudah untuk ditafsirkan kerana centroid sentiasa menjadi titik data.
  • Fuzzy C-Means Clustering membolehkan titik data mengambil bahagian dalam berbilang kelompok pada tahap yang berbeza-beza. Ia menggantikan tugasan kelompok keras dengan darjah kelompok berdasarkan jarak dari centroid.

karnival n-dimensi : Namun begitu, algoritma dalam bentuk asalnya masih berguna secara meluas - terutamanya kerana sebagai algoritma tanpa pengawasan ia tidak memerlukan Pengumpulan data berlabel mahal. Ia juga digunakan dengan lebih pantas dan pantas. Contohnya, perpustakaan pembelajaran mesin termasuk scikit-learn mendapat manfaat daripada penambahan kd-trees pada tahun 2002, yang boleh membahagikan data berdimensi tinggi dengan cepat.

Atas ialah kandungan terperinci Andrew Ng: Enam algoritma teras pembelajaran mesin. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam