Rumah >Peranti teknologi >AI >Selagi model itu cukup besar dan sampelnya cukup besar, AI boleh menjadi lebih pintar!
Tiada perbezaan dalam mekanisme matematik antara model AI dan otak manusia.
Selagi modelnya cukup besar dan sampelnya cukup besar, AI boleh menjadi lebih pintar!
Kemunculan chatGPT sebenarnya telah membuktikan perkara ini.
operasi logik, yang merupakan operasi asas yang menjana kecerdasan.
Logik asas bahasa pengaturcaraan ialah if else, yang membahagikan kod kepada dua cabang berdasarkan ungkapan bersyarat.
Atas dasar ini, pengaturcara boleh menulis kod yang sangat kompleks dan melaksanakan pelbagai logik perniagaan.
Logik asas otak manusia juga ialah if else, dua perkataan if else berasal dari bahasa Inggeris, dan kosa kata bahasa Cina yang sepadan ialah if...else...
When the human. otak sedang memikirkan masalah Ia juga merupakan idea yang logik, dan ia tidak berbeza dengan komputer dalam hal ini.
pernyataan if else, teras logik
Pernyataan "if else" model AI ialah fungsi pengaktifan!
Nod pengkomputeran model AI, kita juga boleh memanggilnya sebagai "neuron".
Ia mempunyai vektor input X, matriks berat W, vektor pincang b dan fungsi pengaktifan.
Fungsi pengaktifan sebenarnya ialah pernyataan if else, dan operasi linear WX + b ialah ungkapan bersyarat.
Selepas pengaktifan, kod model AI adalah bersamaan dengan berjalan di cawangan if, dan apabila tidak diaktifkan, ia bersamaan dengan berjalan di cawangan lain.
Keadaan pengaktifan berbeza bagi rangkaian saraf berbilang lapisan sebenarnya adalah pengekodan binari maklumat sampel.
Pembelajaran mendalam juga mengekod maklumat sampel dalam binari
Model AI mengkodkan maklumat sampel secara dinamik dan selari, tidak sama dengan kod CPU Mereka adalah statik dan bersiri, tetapi asas asasnya adalah jika sebaliknya.
Ia tidak sukar untuk dilaksanakan jika di peringkat litar ia boleh dilaksanakan dengan triod.
Otak manusia memperoleh maklumat dari dunia luar setiap saat dan mengemas kini maklumatnya sendiri setiap saat. , tetapi kod program tidak boleh mengemas kini sendiri, itulah sebabnya ramai orang boleh melakukannya tetapi komputer tidak boleh.
Kod otak manusia masih hidup, tetapi kod komputer mati.
Sudah tentu "kod mati" tidak boleh lebih pintar daripada "kod langsung", kerana "kod langsung" boleh mencari pepijat "kod mati" secara aktif.
Mengikut kesinambungan nombor nyata, selagi maklumat yang dikodkan oleh "kod mati" boleh dikira, maka ia akan sentiasa mempunyai titik pepijat yang tidak boleh dikodkan.
Ini boleh disokong secara matematik oleh set ketiga Cantor.
Tidak kira berapa banyak digit perpuluhan ternari yang kami gunakan untuk mengekod nombor nyata dalam selang [0, 1], sentiasa terdapat sekurang-kurangnya satu titik yang tidak boleh dikodkan.
Jadi apabila dua orang bertengkar, mereka sentiasa boleh mencari perkara untuk dihujahkan
Tetapi apabila kod komputer ditulis, ia tidak boleh dikemas kini secara automatik, jadi pengaturcara boleh menghasilkan pelbagai idea. Satu cara untuk menipu CPU.
Sebagai contoh, CPU Intel pada asalnya memerlukan penukaran gerbang tugas apabila menukar proses, tetapi Linux menghasilkan cara untuk menukar direktori halaman dan daftar RSP sahaja.
Dalam pandangan Intel CPU , sistem Linux telah menjalankan proses yang sama, tetapi tidak. Ini dipanggil penukaran lembut proses.
Jadi, selagi litar CPU diperbaiki, maklumat yang dikodkan oleh CPU juga akan diperbaiki.
Maklumat yang dikodkan oleh CPU adalah tetap, maka maklumat yang tidak boleh dikodkan adalah tidak terhad dan boleh digunakan oleh pengaturcara.
Sebab pengaturcara boleh menggunakan maklumat ini adalah kerana otak pengaturcara hidup dan boleh mengemas kini sampel secara dinamik.
Rangkaian saraf benar-benar ciptaan yang hebat, ia merealisasikan kemas kini maklumat dinamik pada litar tetap.
Maklumat yang boleh diproses oleh semua program bertulis adalah tetap, termasuk litar CPU dan kod pelbagai sistem.
Tetapi ini tidak berlaku dengan rangkaian saraf Walaupun kodnya ditulis, ia hanya perlu mengemas kini data berat untuk menukar konteks logik model.
Malah, selagi sampel baharu dimasukkan secara berterusan, model AI boleh mengemas kini data berat secara berterusan menggunakan algoritma BP (algoritma keturunan kecerunan) untuk menyesuaikan diri dengan senario perniagaan baharu.
Mengemas kini model AI tidak memerlukan pengubahsuaian kod, tetapi hanya memerlukan pengubahsuaian data, jadi model CNN yang sama boleh mengecam objek yang berbeza jika ia dilatih dengan sampel yang berbeza.
Semasa proses ini, kedua-dua kod rangka kerja aliran tensor dan struktur rangkaian model AI kekal tidak berubah ialah data berat setiap nod.
Secara teorinya, selagi model AI boleh merangkak data melalui rangkaian, ia boleh menjadi lebih pintar.
Adakah ini pada asasnya berbeza daripada orang yang menonton sesuatu melalui penyemak imbas (dengan itu menjadi lebih pintar)? Nampaknya tidak.
Otak manusia mempunyai 15 bilion neuron, dan mata dan telinga manusia berubah sepanjang masa Sudah tentu, model AI juga boleh melakukan ini dengan menyediakannya dengan data baharu.
Mungkin berbanding AI, kelebihan manusia ialah "rantai industri" lebih pendek
Kelahiran bayi hanya memerlukan ibu bapanya, tetapi kelahiran model AI jelas tidak memerlukan satu atau dua program Ahli boleh melakukannya.
Terdapat lebih daripada puluhan ribu orang yang mengeluarkan GPU sahaja.
Program Cuda pada GPU tidak sukar untuk ditulis, tetapi rantaian industri pembuatan GPU terlalu panjang, jauh lebih rendah daripada kelahiran dan pertumbuhan manusia.
Ini mungkin kelemahan sebenar AI berbanding manusia.
Atas ialah kandungan terperinci Selagi model itu cukup besar dan sampelnya cukup besar, AI boleh menjadi lebih pintar!. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!