Rumah  >  Artikel  >  Peranti teknologi  >  Sepuluh algoritma biasa yang mesti difahami untuk pembelajaran AI Berapa banyak yang anda tahu?

Sepuluh algoritma biasa yang mesti difahami untuk pembelajaran AI Berapa banyak yang anda tahu?

PHPz
PHPzke hadapan
2023-05-17 23:51:362934semak imbas

Sepuluh algoritma biasa yang mesti difahami untuk pembelajaran AI Berapa banyak yang anda tahu?

Pertama sekali, orang ramai perlu memahami apakah itu algoritma AI? Ringkasnya, algoritma AI ialah model matematik yang membolehkan mesin belajar daripada data. Mereka datang dalam bentuk yang berbeza, termasuk pembelajaran diselia, pembelajaran tanpa penyeliaan dan pembelajaran pengukuhan.

Contoh data berlabel digunakan untuk melatih algoritma pembelajaran diselia, manakala data tidak berlabel digunakan untuk melatih algoritma pembelajaran tanpa pengawasan. Data yang ditandakan diberi anotasi dengan nilai sasaran yang dipratentukan, manakala data yang tidak bertanda tidak diberikan sebarang nilai sasaran. Percubaan dan kesilapan ialah kaedah pembelajaran algoritma pembelajaran pengukuhan dan digunakan secara meluas dalam permainan seperti catur dan Go, serta dalam industri robotik.

Sepuluh algoritma AI yang biasa digunakan:

(1) Rangkaian Neural Buatan (ANN)

Inspirasi untuk Neural buatan rangkaian berasal dari otak manusia dan ia digunakan dalam pengecaman imej dan pertuturan serta pemprosesan bahasa semula jadi. Data input dihantar ke lapisan neuron tiruan, yang merupakan idea teras di sebalik rangkaian saraf tiruan. Setiap neuron mengambil maklumat dari lapisan sebelumnya dan mengira output, yang kemudiannya dihantar ke lapisan seterusnya. Pada masa ini, hampir semua aplikasi kecerdasan buatan menggunakan pembelajaran mendalam sebagai seni bina pilihan, yang menggunakan rangkaian saraf tiruan berbilang lapisan. Rangkaian saraf tiruan mula digunakan pada tahun 1950-an.

(2) Mesin Vektor Sokongan (SVM)

Mesin Vektor Sokongan (SVM) digunakan untuk masalah klasifikasi dan regresi Prinsip kerjanya ialah mencari dan memisahkan kumpulan daripada titik data yang berbeza Garis lurus atau lengkung terbaik (dipanggil "platform super"). Platform super ini kemudiannya boleh digunakan untuk meramalkan kumpulan mana yang dimiliki oleh titik data baharu. Mesin vektor sokongan (SVM) boleh memberitahu orang yang e-mel adalah spam dan digunakan secara meluas dalam bidang seperti bioinformatik, kewangan dan penglihatan komputer.

(3) Pepohon keputusan

Pepohon keputusan ialah algoritma pembelajaran diselia yang digunakan untuk ramalan. Ia berfungsi dengan membahagikan data secara rekursif kepada subset berdasarkan nilai ciri yang dipilih.

(4) Hutan Rawak

Hutan rawak ialah lanjutan daripada pokok keputusan. Mereka meningkatkan ketepatan ramalan dengan menggabungkan hasil pelbagai pokok keputusan.

(5) K-means clustering

K-means clustering ialah algoritma pembelajaran mesin tanpa pengawasan yang mengukur persamaan antara titik data yang ditetapkan kepada K yang berbeza subset. Pengguna boleh mentakrifkan atau menggunakan algoritma untuk menentukan nilai K. K memainkan peranan penting dalam bidang seperti pembahagian imej dan pengelompokan dokumen.

(6) Peningkatan kecerunan

Model ramalan boleh dilaksanakan dengan menggabungkan hasil banyak model yang lemah untuk melakukan peningkatan kecerunan, teknik pembelajaran mesin. Ia digunakan dalam kedudukan carian web dan pengiklanan dalam talian.

(7) Rangkaian Neural Konvolusi (CNN)

Rangkaian saraf konvolusi dalam rangkaian saraf tiruan direka diilhamkan oleh korteks visual otak manusia Ia boleh secara automatik pelajari ciri seperti tepi dan bucu dalam imej. Rangkaian saraf konvolusi ialah rangkaian khusus untuk memproses data grid (seperti piksel), manakala rangkaian saraf tiruan adalah tujuan umum, jadi rangkaian saraf konvolusi sesuai untuk pemprosesan imej dan video.

(8) Rangkaian ingatan jangka pendek panjang (LSTM)

Rangkaian ingatan jangka pendek panjang ialah rangkaian neural yang digunakan untuk memproses data berurutan seperti pertuturan dan teks, jadi ia sesuai untuk Pengecaman pertuturan, terjemahan mesin dan pengecaman tulisan tangan sangat berguna.

(9) Analisis Komponen Utama (PCA)

PCA ialah teknik yang mengurangkan dimensi data dengan menayangkan data ke dalam ruang berdimensi rendah. Ia digunakan untuk pengecaman muka dan pemampatan imej.

(10) Algoritma Apriori

Apriori ialah algoritma pembelajaran peraturan persatuan, iaitu kaedah pembelajaran dengan mengenal pasti corak, perkaitan atau korelasi yang kerap antara Teknik untuk menemui hubungan antara pembolehubah dalam set data yang besar. Dalam analisis beli-belah pasaran, adalah popular untuk mengenal pasti item yang sering dibeli bersama.

Apabila orang berinteraksi dengan AI, mereka berinteraksi dengan algoritma ini. Orang ramai cenderung untuk membuat antropomorfosis sistem AI, tetapi ini tidak perlu untuk memahami AI. Kerana ini hanya masalah matematik, ia mempunyai batasan, salah satunya adalah pergantungan pada data. Algoritma AI memerlukan sejumlah besar data berkualiti tinggi untuk dilatih dengan berkesan. Dalam AI, lebih banyak data yang lebih baik diperlukan untuk latihan. Sebaliknya, orang lebih berkebolehan membuat kesimpulan daripada satu contoh, jadi mereka boleh belajar lebih banyak daripada hanya satu contoh.

Aplikasi popular sistem AI perlu memenuhi satu atau lebih syarat berikut:

(1) Hipotesis pengembangan adalah betul (hanya menambah lebih banyak data dan pengkomputeran akan menghasilkan Kecerdasan Am Buatan (AGI)).

(2) Berbanding dengan laluan biologi (seperti kapal terbang yang mencapai penerbangan tetapi tidak direka bentuk seperti burung), model bahasa besar (LLM) mewakili laluan alternatif yang boleh dilaksanakan kepada kecerdasan am.

(3) Algoritma dan seni bina baharu atau inovatif diperlukan untuk membolehkan sistem AI mempelajari sebarang pengetahuan daripada satu atau beberapa contoh (sistem sedemikian mungkin memerlukan model dunia yang padu dan penjelmaan maya/fizikal ).

Apakah yang telah kita pelajari daripada AI?

Walaupun AI berkuasa dan mengagumkan, ia hanyalah kaedah berdasarkan prinsip matematik, kebarangkalian dan statistik Alat untuk pembelajaran algoritma pengoptimuman . Tidak jelas pada tahap mana sistem pemprosesan maklumat yang menggabungkan AI akan menjadi makhluk digital yang sedar dan sedar sepenuhnya dengan keupayaan melebihi minda manusia. Apa yang jelas ialah kita sedang memasuki era baharu, dan apabila sumber data dan pengkomputeran terus berkembang, dunia akan berubah.

Atas ialah kandungan terperinci Sepuluh algoritma biasa yang mesti difahami untuk pembelajaran AI Berapa banyak yang anda tahu?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam