1. Kata Pengantar
Baru-baru ini, AIGC (Kandungan Dijana AI, kandungan terjana kecerdasan buatan) telah berkembang pesat Ia bukan sahaja dicari oleh pengguna, tetapi juga menarik perhatian daripada kalangan teknologi dan industri. Pada 23 September 2022, Sequoia America menerbitkan artikel "Generative AI: A Creative New World", percaya bahawa AIGC akan mewakili permulaan pusingan baharu anjakan paradigma. Pada Oktober 2022, Stability AI mengeluarkan model sumber terbuka Stable Diffusion, yang boleh menjana imej secara automatik berdasarkan perihalan teks (dipanggil gesaan) yang dimasukkan oleh pengguna, iaitu Text-to-Image Diffusion, DALL-E 2 , Midjourney, Wenxin Yige dan model AIGC lain yang boleh menghasilkan gambar telah meledakkan bidang lukisan AI telah menjadi popular, menandakan penembusan kecerdasan buatan ke dalam bidang seni. Gambar di bawah menunjukkan karya bertema "Future Mecha" yang dicipta oleh platform "Wenxin Yige" Baidu.
Rajah 1 AI yang dicipta oleh Lukisan platform “Wenxin Yige” Baidu
Perkembangan pesat bidang AIGC tidak dapat dipisahkan daripada kemajuan rangkaian neural dalam. Khususnya, kemunculan model Transform memberikan rangkaian neural keupayaan pengkomputeran global yang lebih berkuasa, mengurangkan masa yang dihabiskan untuk latihan rangkaian dan meningkatkan prestasi model rangkaian. Model domain AIGC semasa yang berprestasi agak baik termasuk teknologi Perhatian dan Transformasi dalam seni bina teknikal asasnya.
2. Sejarah Perkembangan
2.1 Rangkaian Neural Dalam
Perkembangan teknologi maklumat yang diwakili oleh rangkaian neural dalam telah menggalakkan kemajuan dan pengembangan bidang kecerdasan buatan. Pada tahun 2006, Hinton et al menggunakan pra-latihan pengekodan RBM satu lapisan untuk merealisasikan latihan rangkaian saraf yang mendalam pada tahun 2012, model rangkaian saraf AlexNet yang direka oleh Hinton dan Alex Krizhevsky mencapai pengiktirafan dan pengelasan imej dalam pertandingan ImageNet; pusingan Titik permulaan untuk pembangunan kecerdasan buatan. Rangkaian saraf dalam yang popular pada masa ini dimodelkan pada konsep yang dicadangkan oleh rangkaian saraf biologi. Dalam rangkaian saraf biologi, neuron biologi menghantar maklumat yang diterima lapisan demi lapisan, dan maklumat daripada berbilang neuron diagregatkan untuk mendapatkan hasil akhir. Model matematik yang dibina menggunakan unit saraf logik yang direka secara analog dengan unit saraf biologi dipanggil rangkaian saraf tiruan. Dalam rangkaian saraf tiruan, unit saraf logik digunakan untuk meneroka hubungan tersembunyi antara data input dan data keluaran Apabila jumlah data adalah kecil, rangkaian saraf cetek boleh memenuhi keperluan beberapa tugas meningkat, Rangkaian neural yang mendalam dan meluas mula menunjukkan kelebihan unik mereka.
2.2 Mekanisme Perhatian
Mekanisme Perhatian telah dicadangkan oleh pasukan Bengio pada tahun 2014 dan telah digunakan secara meluas secara mendalam dalam pelbagai bidang dalam pembelajaran, seperti dalam penglihatan komputer untuk menangkap medan penerimaan pada imej, atau dalam NLP untuk mencari token atau ciri utama. Sebilangan besar eksperimen telah membuktikan bahawa model dengan mekanisme perhatian telah mencapai peningkatan yang ketara dalam pengelasan imej, pembahagian, penjejakan, peningkatan dan pengecaman bahasa semula jadi, pemahaman, menjawab soalan dan terjemahan.
Mekanisme perhatian dimodelkan selepas mekanisme perhatian visual. Mekanisme perhatian visual adalah keupayaan semula jadi otak manusia. Apabila kita melihat gambar, kita mula-mula cepat mengimbas gambar dan kemudian fokus pada kawasan sasaran yang perlu difokuskan. Sebagai contoh, apabila kita melihat gambar-gambar berikut, perhatian kita mudah tertumpu pada wajah bayi, tajuk artikel, dan ayat pertama artikel. Cuba bayangkan, jika setiap maklumat tempatan tidak dilepaskan, pastinya ia akan memakan banyak tenaga, yang tidak kondusif untuk kelangsungan dan evolusi manusia. Begitu juga, memperkenalkan mekanisme serupa ke dalam rangkaian pembelajaran mendalam boleh memudahkan model dan mempercepatkan pengiraan. Secara asasnya difahami, Perhatian adalah untuk menapis sejumlah kecil maklumat penting daripada sejumlah besar maklumat, dan menumpukan pada maklumat penting ini, sambil mengabaikan kebanyakan maklumat yang tidak penting.
Rajah 2 Diagram skematik mekanisme perhatian manusia
3. Butiran teknikal
Model Transformer pintar meninggalkan unit CNN dan RNN tradisional, dan keseluruhan struktur rangkaian sepenuhnya terdiri daripada mekanisme perhatian. Dalam bab ini, kami mula-mula akan memperkenalkan proses keseluruhan model Transformer, dan kemudian memperkenalkan secara terperinci maklumat pengekodan kedudukan dan pengiraan Perhatian Kendiri yang terlibat.
3.1 Gambaran Keseluruhan Proses
Rajah 3 Carta alir mekanisme perhatian
Seperti yang ditunjukkan dalam rajah di atas, Transformer terdiri daripada dua bahagian: Modul Pengekod dan Modul Penyahkod dan Penyahkod mengandungi N blok. Mengambil tugas terjemahan sebagai contoh, aliran kerja Transformer adalah secara kasar seperti berikut:
Langkah 1: Dapatkan vektor perwakilan X bagi setiap perkataan ayat input X diperoleh dengan menambah Pembenaman perkataan itu sendiri dan Pembenaman kedudukan perkataan.
Langkah 2: Hantar matriks vektor perwakilan perkataan yang diperoleh ke dalam modul Pengekod Modul Pengekod menggunakan kaedah Perhatian untuk mengira data input. Selepas modul N Encoder, matriks maklumat pengekodan semua perkataan dalam ayat boleh diperolehi Dimensi matriks output oleh setiap modul Pengekod adalah betul-betul sama dengan input.
Langkah 3: Hantar output matriks maklumat pengekodan oleh modul Pengekod kepada modul Penyahkod, dan Penyahkod akan menterjemah perkataan i+1 seterusnya berdasarkan perkataan yang sedang diterjemahkan i. Seperti struktur Pengekod, struktur Penyahkod juga menggunakan kaedah Perhatian untuk pengiraan. Semasa penggunaan, apabila menterjemah kepada perkataan i+1, anda perlu menggunakan operasi Topeng untuk menutup perkataan selepas i+1.
3.2 Pengiraan Perhatian Kendiri
Inti model Transform ialah pengiraan perhatian, yang boleh dinyatakan dengan formula sebagai
Antaranya, Q, K, V masing-masing mewakili Query, Key, dan Value ini diambil daripada sistem pencarian maklumat contoh carian. Apabila anda mencari produk pada platform e-dagang, kandungan yang anda masukkan pada enjin carian ialah Pertanyaan, dan kemudian enjin carian sepadan dengan Kunci untuk anda berdasarkan Pertanyaan (seperti jenis, warna, penerangan, dsb. ) produk, dan kemudian berdasarkan Pertanyaan dan Persamaan Kunci mendapat kandungan yang sepadan (Nilai).
Q, K, V dalam perhatian kendiri juga memainkan peranan yang sama Dalam pengiraan matriks, hasil darab adalah salah satu kaedah untuk mengira kesamaan dua matriks, jadi matriks Q digunakan dalam. formula di atas Darab transpos matriks K untuk mengira persamaan. Untuk mengelakkan produk dalam daripada terlalu besar, ia perlu dibahagikan dengan punca kuasa dua d, dan akhirnya fungsi pengaktifan softmax digunakan pada hasilnya.
3.3 Pengekodan kedudukan
Selain Pembenaman perkataan itu sendiri, Transformer juga perlu menggunakan kedudukan Embedding untuk mewakili kedudukan di mana perkataan itu muncul dalam ayat. Oleh kerana Transformer tidak menggunakan struktur RNN, tetapi menggunakan maklumat global, ia tidak boleh menggunakan maklumat susunan perkataan, dan bahagian maklumat ini sangat penting untuk NLP atau CV. Oleh itu, position Embedding digunakan dalam Transformer untuk menyimpan kedudukan relatif atau mutlak perkataan dalam jujukan.
Pembenaman Kedudukan diwakili oleh PE, dan dimensi PE adalah sama dengan perkataan Pembenaman. PE boleh diperolehi melalui latihan atau dikira menggunakan formula tertentu. Yang terakhir digunakan dalam Transformer, dan formula pengiraannya adalah seperti berikut:
Antaranya, pos mewakili kedudukan perkataan dalam ayat, d mewakili dimensi PE, Saiznya sama dengan Pembenaman perkataan itu sendiri, 2i mewakili nombor genap dimensi, dan 2i+1 mewakili bilangan dimensi ganjil.
4. Ringkasan
Fokus Transformer ialah struktur Perhatian Kendiri Melalui struktur Perhatian berbilang dimensi, rangkaian boleh menangkap hubungan tersembunyi antara perkataan dalam pelbagai dimensi Walau bagaimanapun, Transformer sendiri tidak boleh menggunakan maklumat susunan perkataan, jadi ia perlu yang akan ditambahkan pada input Pembenaman Kedudukan digunakan untuk menyimpan maklumat kedudukan perkataan. Berbanding dengan rangkaian neural berulang, rangkaian Transformer boleh dilatih secara selari dengan lebih baik Berbanding dengan rangkaian neural convolutional, bilangan operasi yang diperlukan oleh rangkaian Transformer untuk mengira perkaitan antara dua kedudukan tidak meningkat dengan jarak, yang boleh pecah. melalui rangkaian neural convolutional Jarak yang dikira adalah terhad kepada saiz medan penerimaan. Pada masa yang sama, rangkaian Transformer boleh menghasilkan lebih banyak model yang boleh ditafsir. Kita boleh memeriksa pengagihan perhatian daripada model, dan setiap ketua perhatian boleh belajar untuk melaksanakan tugas yang berbeza.
Atas ialah kandungan terperinci Gambaran keseluruhan prinsip teknologi Transformer. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Laporan Indeks Perisikan Buatan 2025 yang dikeluarkan oleh Stanford University Institute for Manusia Berorientasikan Kecerdasan Buatan memberikan gambaran yang baik tentang revolusi kecerdasan buatan yang berterusan. Mari kita menafsirkannya dalam empat konsep mudah: kognisi (memahami apa yang sedang berlaku), penghargaan (melihat faedah), penerimaan (cabaran muka), dan tanggungjawab (cari tanggungjawab kita). Kognisi: Kecerdasan buatan di mana -mana dan berkembang pesat Kita perlu menyedari betapa cepatnya kecerdasan buatan sedang berkembang dan menyebarkan. Sistem kecerdasan buatan sentiasa bertambah baik, mencapai hasil yang sangat baik dalam ujian matematik dan pemikiran kompleks, dan hanya setahun yang lalu mereka gagal dalam ujian ini. Bayangkan AI menyelesaikan masalah pengekodan kompleks atau masalah saintifik peringkat siswazah-sejak tahun 2023

Meta's Llama 3.2: Lompat ke hadapan dalam Multimodal dan Mobile AI META baru -baru ini melancarkan Llama 3.2, kemajuan yang ketara dalam AI yang memaparkan keupayaan penglihatan yang kuat dan model teks ringan yang dioptimumkan untuk peranti mudah alih. Membina kejayaan o

Landskap AI minggu ini: Badai kemajuan, pertimbangan etika, dan perdebatan pengawalseliaan. Pemain utama seperti Openai, Google, Meta, dan Microsoft telah melepaskan kemas kini, dari model baru yang terobosan ke peralihan penting di LE

Ilusi yang menghiburkan sambungan: Adakah kita benar -benar berkembang dalam hubungan kita dengan AI? Soalan ini mencabar nada optimis Simposium MIT Media Lab "yang memajukan AI (AHA)". Manakala acara itu mempamerkan cutting-EDG

Pengenalan Bayangkan anda seorang saintis atau jurutera menangani masalah kompleks - persamaan pembezaan, cabaran pengoptimuman, atau analisis Fourier. Kemudahan penggunaan dan kemampuan grafik Python menarik, tetapi tugas -tugas ini menuntut alat yang berkuasa

Meta's Llama 3.2: Powerhouse AI Multimodal Model multimodal terbaru Meta, Llama 3.2, mewakili kemajuan yang ketara dalam AI, yang membanggakan pemahaman bahasa yang dipertingkatkan, ketepatan yang lebih baik, dan keupayaan penjanaan teks yang unggul. Keupayaannya t

Jaminan Kualiti Data: Pemeriksaan Automatik dengan Dagster dan Harapan Hebat Mengekalkan kualiti data yang tinggi adalah penting untuk perniagaan yang didorong data. Apabila jumlah data dan sumber meningkat, kawalan kualiti manual menjadi tidak cekap dan terdedah kepada kesilapan.

Main Frames: Wira Unsung Revolusi AI Walaupun pelayan cemerlang dalam aplikasi tujuan umum dan mengendalikan pelbagai pelanggan, kerangka utama dibina untuk tugas tinggi, misi kritikal. Sistem yang kuat ini sering dijumpai di Heavil


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

DVWA
Damn Vulnerable Web App (DVWA) ialah aplikasi web PHP/MySQL yang sangat terdedah. Matlamat utamanya adalah untuk menjadi bantuan bagi profesional keselamatan untuk menguji kemahiran dan alatan mereka dalam persekitaran undang-undang, untuk membantu pembangun web lebih memahami proses mengamankan aplikasi web, dan untuk membantu guru/pelajar mengajar/belajar dalam persekitaran bilik darjah Aplikasi web keselamatan. Matlamat DVWA adalah untuk mempraktikkan beberapa kelemahan web yang paling biasa melalui antara muka yang mudah dan mudah, dengan pelbagai tahap kesukaran. Sila ambil perhatian bahawa perisian ini

MinGW - GNU Minimalis untuk Windows
Projek ini dalam proses untuk dipindahkan ke osdn.net/projects/mingw, anda boleh terus mengikuti kami di sana. MinGW: Port Windows asli bagi GNU Compiler Collection (GCC), perpustakaan import yang boleh diedarkan secara bebas dan fail pengepala untuk membina aplikasi Windows asli termasuk sambungan kepada masa jalan MSVC untuk menyokong fungsi C99. Semua perisian MinGW boleh dijalankan pada platform Windows 64-bit.

Pelayar Peperiksaan Selamat
Pelayar Peperiksaan Selamat ialah persekitaran pelayar selamat untuk mengambil peperiksaan dalam talian dengan selamat. Perisian ini menukar mana-mana komputer menjadi stesen kerja yang selamat. Ia mengawal akses kepada mana-mana utiliti dan menghalang pelajar daripada menggunakan sumber yang tidak dibenarkan.

Muat turun versi mac editor Atom
Editor sumber terbuka yang paling popular

mPDF
mPDF ialah perpustakaan PHP yang boleh menjana fail PDF daripada HTML yang dikodkan UTF-8. Pengarang asal, Ian Back, menulis mPDF untuk mengeluarkan fail PDF "dengan cepat" dari tapak webnya dan mengendalikan bahasa yang berbeza. Ia lebih perlahan dan menghasilkan fail yang lebih besar apabila menggunakan fon Unicode daripada skrip asal seperti HTML2FPDF, tetapi menyokong gaya CSS dsb. dan mempunyai banyak peningkatan. Menyokong hampir semua bahasa, termasuk RTL (Arab dan Ibrani) dan CJK (Cina, Jepun dan Korea). Menyokong elemen peringkat blok bersarang (seperti P, DIV),