Rumah > Artikel > Peranti teknologi > NVIDIA menggunakan AI untuk mereka bentuk litar aritmetik GPU, yang mengurangkan kawasan sebanyak 25% berbanding EDA paling canggih, menjadikannya lebih pantas dan lebih cekap
Serangkaian besar litar aritmetik menguatkan GPU NVIDIA untuk membolehkan pecutan AI, pengkomputeran berprestasi tinggi dan grafik komputer yang belum pernah terjadi sebelumnya. Oleh itu, menambah baik reka bentuk litar aritmetik ini adalah penting untuk meningkatkan prestasi dan kecekapan GPU. Bagaimana jika AI belajar untuk mereka bentuk litar ini? Dalam kertas kerja NVIDIA baru-baru ini, "PrefixRL: Pengoptimuman Litar Awalan Selari menggunakan Pembelajaran Pengukuhan Dalam," penyelidik menunjukkan bahawa AI bukan sahaja boleh mereka bentuk litar ini dari awal, tetapi juga litar yang direka oleh AI adalah lebih baik daripada yang direka oleh negara-of- alat automasi reka bentuk elektronik (EDA) yang paling canggih adalah lebih kecil dan lebih pantas.
Alamat kertas: https://arxiv.org/pdf/2205.07000.pdf
Seni bina GPU NVIDIA Hopper terkini mempunyai hampir 13,000 contoh litar rekaan AI. Rajah 1 di bawah: Litar penambah 64b yang direka oleh PrefixRL AI di sebelah kiri adalah 25% lebih kecil daripada litar yang direka oleh alat EDA paling canggih di sebelah kanan Rajah 1.
Litar aritmetik dalam cip komputer terdiri daripada rangkaian get logik seperti sebagai NAND, NOR dan XOR) dan wayar. Litar yang ideal harus mempunyai sifat berikut:
Maka persoalannya ialah: Bolehkah ejen AI mereka bentuk peta awalan yang baik? Ruang keadaan semua graf awalan adalah sangat besar O(2^n^n) dan tidak boleh diterokai menggunakan kaedah kekerasan. Rajah 2 di bawah menunjukkan lelaran PrefixRL dengan contoh litar 4b.
Para penyelidik menggunakan Penjana Litar untuk menukar rajah awalan kepada litar dengan wayar dan get logik. Seterusnya, litar yang dijana ini dioptimumkan melalui alat sintesis fizikal yang menggunakan pengoptimuman sintesis fizikal seperti saiz get, penduaan dan sisipan penimbal.
Disebabkan pengoptimuman sintesis fizik ini, sifat litar akhir (kelewatan, luas dan kuasa) tidak ditukar terus daripada sifat graf awalan asal (seperti tahap dan kiraan nod). Inilah sebabnya mengapa ejen AI belajar untuk mereka bentuk graf awalan tetapi mengoptimumkan sifat litar akhir yang dihasilkan daripada graf awalan.
Penyelidik menganggap aritmetik
reka bentuk litar sebagai tugas pembelajaran tetulang (RL), di mana ejen dilatih untuk mengoptimumkan Kawasan litararitmetik dan sifat kelewatan. Untuk litar awalan, mereka mereka bentuk persekitaran di mana ejen RL boleh menambah atau mengalih keluar nod dalam graf awalan, dan kemudian melakukan langkah berikut: Graf awalan dinormalisasi untuk sentiasa mengekalkan pengiraan jumlah awalan yang betul;
Imej asal ialah versi interaktif.
Penyelidik menggunakan algoritma Q-learning (Q-learning) untuk melatih reka bentuk litar ejen. Seperti yang ditunjukkan dalam Rajah 3 di bawah, mereka menguraikan graf awalan menjadi perwakilan grid, di mana setiap elemen dalam grid dipetakan secara unik kepada nod awalan. Grid ini mewakili input dan output yang digunakan untuk rangkaian Q. Setiap elemen dalam grid input mewakili sama ada nod itu wujud atau tidak. Setiap elemen dalam grid output mewakili nilai Q bagi nod yang ditambah atau dialih keluar.
Para penyelidik menggunakan seni bina rangkaian neural konvolusi sepenuhnya kerana input dan output ejen pembelajaran-Q ialah perwakilan grid. Ejen meramalkan nilai Q untuk kawasan dan atribut kelewatan secara berasingan kerana ganjaran untuk kawasan dan kelewatan boleh diperhatikan secara berasingan semasa latihan.
Rajah 3: Perwakilan graf awalan 4b (kiri) dan seni bina ejen pembelajaran Q konvolusi sepenuhnya (kanan).
PrefixRL memerlukan banyak pengiraan, dalam simulasi fizik, 256 CPU setiap GPU diperlukan dan latihan 64b tugas Lebih 32,000 jam GPU. Kali ini, NVIDIA telah membangunkan platform pembelajaran tetulang teragih dalaman, Raptor, yang menggunakan sepenuhnya kelebihan perkakasan NVIDIA untuk melaksanakan pembelajaran pengukuhan peringkat industri seperti ini (Rajah 4 di bawah).
Raptor mempunyai ciri yang meningkatkan kebolehskalaan dan kelajuan model latihan, seperti penjadualan kerja, rangkaian tersuai dan struktur data sedar GPU. Dalam konteks PrefixRL, Raptor mendayakan peruntukan hibrid merentas CPU, GPU dan Instans Spot. Rangkaian dalam aplikasi pembelajaran pengukuhan ini adalah pelbagai dan mendapat manfaat daripada yang berikut:
Rajah 4: Penyelidik menggunakan Raptor untuk memisahkan latihan selari dan pengiraan ganjaran untuk mengatasi kelewatan sintesis litar.
Pengiraan Ganjaran
Para penyelidik menggunakan wajaran tukar ganti w (julat [0,1]) untuk menggabungkan kawasan dan sasaran kelewatan. Mereka melatih pelbagai ejen dengan pemberat yang berbeza untuk mendapatkan sempadan Pareto, dengan itu mengimbangi pertukaran antara kawasan dan kependaman. Pengoptimuman yang disintesis secara fizikal dalam persekitaran RL boleh menjana pelbagai penyelesaian yang menukar kawasan dan kependaman. Penyelidik memacu alat sintesis fizikal menggunakan pemberat tukar ganti yang sama yang digunakan untuk melatih ejen tertentu.Melaksanakan pengoptimuman sintesis fizik dalam gelung pengiraan ganjaran mempunyai kelebihan berikut:
Ejen RL belajar untuk terus mengoptimumkan sifat litar akhir nod teknologi sasaran dan perpustakaan ;
Apabila pekerja CPU mengembalikan ganjaran, peralihan boleh dibenamkan dalam penimbal main semula. Ganjaran komprehensif dicache untuk mengelakkan pengiraan berlebihan apabila keadaan ditemui semula. Rajah 5 di bawah menunjukkan kawasan dan kelewatan litar penambah 64b yang direka bentuk menggunakan PrefixRL dan litar penambah yang dikuasai Pareto daripada alatan EDA yang paling canggih. (kiri) seni bina litar; (kanan) sepadan rajah ciri litar penambah 64b Setakat ini seperti yang kita ketahui, ini adalah kaedah pertama untuk menggunakan agen pembelajaran tetulang dalam untuk mereka bentuk litar aritmetik. NVIDIA membayangkan pelan tindakan untuk menggunakan AI kepada masalah reka bentuk litar dunia sebenar, membina ruang tindakan, perwakilan negeri, model ejen RL, mengoptimumkan untuk berbilang matlamat bersaing dan mengatasi pengiraan ganjaran yang perlahan. Keputusan dan Pandangan
Penambah PrefixRL terbaik mencapai 25% kurang kawasan daripada penambah alat EDA pada kependaman yang sama. Graf awalan ini dipetakan kepada litar penambah optimum Pareto selepas pengoptimuman sintesis fizikal mempunyai struktur yang tidak teratur. Rajah 5: Litar aritmetik yang direka oleh PrefixRL adalah lebih kecil daripada litar yang direka oleh alat EDA yang canggih dan lebih pantas.
Atas ialah kandungan terperinci NVIDIA menggunakan AI untuk mereka bentuk litar aritmetik GPU, yang mengurangkan kawasan sebanyak 25% berbanding EDA paling canggih, menjadikannya lebih pantas dan lebih cekap. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!