Rumah  >  Artikel  >  Peranti teknologi  >  Google menggunakan model besar untuk melatih anjing robot memahami arahan yang tidak jelas dan teruja untuk pergi berkelah

Google menggunakan model besar untuk melatih anjing robot memahami arahan yang tidak jelas dan teruja untuk pergi berkelah

WBOY
WBOYke hadapan
2024-01-16 11:24:151149semak imbas
Interaksi yang mudah dan berkesan antara manusia dan robot berkaki empat ialah cara untuk mencipta robot pembantu pintar yang berkebolehan, menunjukkan masa depan di mana teknologi meningkatkan kehidupan kita dengan cara yang di luar imaginasi kita. Untuk sistem interaksi manusia-robot sedemikian, kuncinya adalah untuk memberikan robot berkaki empat keupayaan untuk bertindak balas kepada arahan bahasa semula jadi.

Model bahasa berskala besar (LLM) telah berkembang pesat baru-baru ini dan telah menunjukkan potensi untuk melaksanakan perancangan peringkat tinggi. Walau bagaimanapun, masih sukar untuk LLM memahami arahan peringkat rendah, seperti sasaran sudut bersama atau tork motor, terutamanya untuk robot berkaki yang sememangnya tidak stabil dan memerlukan isyarat kawalan frekuensi tinggi. Oleh itu, kebanyakan kerja sedia ada menganggap bahawa LLM telah disediakan dengan API peringkat tinggi yang menentukan tingkah laku robot, yang pada asasnya mengehadkan keupayaan ekspresif sistem.

Dalam kertas CoRL 2023 "SayTap: Language to Quadrupedal Locomotion", Google DeepMind dan Universiti Tokyo mencadangkan kaedah baharu yang menggunakan corak sentuhan kaki sebagai pautan antara arahan bahasa semula jadi manusia dan mengeluarkan arahan peringkat rendah. Jambatan pengawal gerakan.

Google menggunakan model besar untuk melatih anjing robot memahami arahan yang tidak jelas dan teruja untuk pergi berkelah

  • Alamat kertas: https://arxiv.org/abs/2306.07580
  • Tapak web projek: https://saytap.github.io/


corak sentuhan) merujuk kepada susunan dan cara agen berkaki empat meletakkan kakinya di atas tanah apabila bergerak. Berdasarkan ini, mereka membangunkan sistem robot berkaki empat interaktif yang membolehkan pengguna mengembangkan tingkah laku pergerakan yang berbeza secara fleksibel Contohnya, pengguna boleh menggunakan bahasa mudah untuk mengarahkan robot berjalan, berlari, melompat atau melakukan tindakan lain.

Sumbangan mereka termasuk reka bentuk gesaan LLM, fungsi ganjaran dan kaedah yang membolehkan pengawal SayTap menggunakan pengedaran corak hubungan yang boleh dilaksanakan.

Penyelidikan menunjukkan bahawa pengawal SayTap boleh mencapai berbilang mod gerakan, dan keupayaan ini juga boleh dipindahkan ke perkakasan robot sebenar.

Kaedah SayTap

Kaedah SayTap menggunakan templat mod kenalan, iaitu 4 Kaki mencecah tanah. Dari atas ke bawah, setiap baris matriks memberikan corak sentuhan kaki bagi kaki depan kiri (FL), kaki depan kanan (FR), kaki belakang kiri (RL) dan kaki belakang kanan (RR) masing-masing. Kekerapan kawalan SayTap ialah 50 Hz, yang bermaksud setiap 0 atau 1 berlangsung selama 0.02 saat. Kajian ini mentakrifkan corak sentuhan kaki yang dikehendaki sebagai tingkap gelongsor kitaran bersaiz L_w dan bentuk 4 X L_w. Tetingkap gelongsor ini mengekstrak bendera pembumian berempat daripada templat corak kenalan, yang menunjukkan sama ada kaki robot berada di atas tanah atau di udara antara masa t + 1 dan t + L_w. Rajah di bawah memberikan gambaran keseluruhan kaedah SayTap. Google menggunakan model besar untuk melatih anjing robot memahami arahan yang tidak jelas dan teruja untuk pergi berkelah


Gambaran Keseluruhan Kaedah SayTap

SayTap memperkenalkan corak sentuhan kaki yang diingini sebagai antara muka baharu antara arahan pengguna bahasa semula jadi dan pengawal gerakan. Pengawal gerakan digunakan untuk melaksanakan tugas utama (seperti mengikut kelajuan yang ditentukan) dan meletakkan kaki robot di atas tanah pada masa tertentu supaya corak sentuhan kaki yang dicapai sedekat mungkin dengan corak sentuhan yang diingini.

Google menggunakan model besar untuk melatih anjing robot memahami arahan yang tidak jelas dan teruja untuk pergi berkelah

🎜Untuk melakukan ini, pada setiap langkah masa, pengawal gerakan mengambil sebagai input corak sentuhan kaki yang diingini, ditambah data proprioseptif (seperti kedudukan dan halaju bersama) dan input berkaitan tugas (seperti arahan kelajuan khusus pengguna ). DeepMind menggunakan pembelajaran pengukuhan untuk melatih pengawal gerakan dan mewakilinya sebagai rangkaian saraf yang mendalam. Semasa latihan pengawal, penyelidik menggunakan penjana rawak untuk mencuba corak sentuhan kaki yang diingini dan kemudian mengoptimumkan dasar untuk mengeluarkan tindakan robot peringkat rendah yang mencapai corak sentuhan kaki yang diingini. Pada masa ujian, LLM digunakan untuk menterjemah arahan pengguna ke dalam corak sentuhan kaki. 🎜🎜🎜🎜
SayTap menggunakan corak sentuhan kaki sebagai jambatan antara arahan pengguna bahasa semula jadi dan arahan kawalan peringkat rendah. SayTap menyokong kedua-dua arahan mudah dan langsung (seperti "Laju perlahan ke hadapan") dan arahan pengguna yang samar-samar (seperti "Berita baik, kami akan berkelah pada hujung minggu ini!" Melalui pengawal gerakan berdasarkan pembelajaran pengukuhan, empat The robot kaki bertindak balas mengikut arahan

Penyelidikan menunjukkan bahawa menggunakan gesaan yang direka dengan betul, LLM mempunyai keupayaan untuk memetakan arahan pengguna dengan tepat ke dalam format khusus templat corak sentuhan kaki, walaupun arahan pengguna tidak berstruktur atau kabur Dalam latihan, penyelidik menggunakan penjana corak rawak untuk menjana templat corak hubungan berbilang, yang mempunyai panjang corak berbeza T dan berdasarkan nisbah sentuhan kaki ke tanah bagi jenis gait yang diberikan dalam kitaran, supaya The motion pengawal dapat mempelajari pelbagai pengedaran corak gerakan dan mencapai keupayaan generalisasi yang lebih baik Lihat kertas untuk mendapatkan butiran lanjut

Dengan gesaan mudah sampel konteks mod kenalan separa, LLM boleh menterjemah pelbagai arahan manusia dengan tepat. ke dalam mod kenalan, malah membuat generalisasi kepada situasi di mana tiada spesifikasi yang jelas tentang cara robot harus berkelakuan

Gesaan SayTap adalah mudah dan padat:

(1) Penerangan umum untuk diterangkan. tugasan yang perlu diselesaikan oleh LLM; Contoh demonstrasi untuk membolehkan LLM mempelajari situasi dalam konteks

Para penyelidik juga menetapkan lima kelajuan supaya robot boleh maju atau mundur, pantas atau perlahan, atau kekal diam
Ikuti arahan mudah dan terus.

Animasi di bawah menunjukkan contoh SayTap berjaya melaksanakan arahan langsung dan jelas Perintah itu tidak disertakan dalam tiga contoh konteks, tetapi ia masih boleh membimbing LLM untuk menyatakan pengetahuan dalaman yang dipelajari dalam pra-. peringkat latihan ini akan menggunakan "modul definisi gait" dalam gesaan, yang merupakan gesaan kedua dalam modul di atas.

Ikut arahan tidak berstruktur atau samar-samar

Google menggunakan model besar untuk melatih anjing robot memahami arahan yang tidak jelas dan teruja untuk pergi berkelah Tetapi yang lebih menarik ialah keupayaan SayTap untuk mengendalikan arahan tidak berstruktur dan samar-samar. Ia hanya memerlukan beberapa petunjuk untuk memautkan gaya berjalan tertentu kepada tanggapan emosi umum, seperti robot melompat ke atas dan ke bawah selepas mendengar sesuatu yang menggembirakannya (seperti "Jom pergi berkelah!"). Di samping itu, ia boleh mewakili adegan dengan tepat Sebagai contoh, apabila diberitahu bahawa tanah sangat panas, robot akan bergerak dengan cepat untuk mengelakkan kakinya daripada menyentuh tanah sesedikit mungkin.

Google menggunakan model besar untuk melatih anjing robot memahami arahan yang tidak jelas dan teruja untuk pergi berkelah



Ringkasan dan kerja masa hadapan

SayTap ialah sistem interaktif untuk robot berkaki empat yang membolehkan pengguna merumuskan tingkah laku pergerakan yang berbeza secara fleksibel. SayTap memperkenalkan corak sentuhan kaki yang diingini sebagai antara muka antara bahasa semula jadi dan pengawal peringkat rendah. Antara muka baharu adalah mudah dan fleksibel, dan ia membolehkan robot mengikut kedua-dua arahan dan arahan langsung yang tidak menyatakan secara eksplisit cara robot harus berkelakuan.

Penyelidik DeepMind berkata bahawa hala tuju utama penyelidikan masa depan adalah untuk menguji sama ada arahan yang membayangkan perasaan tertentu boleh membolehkan LLM mengeluarkan gaya berjalan yang diingini. Dalam modul definisi gait keputusan di atas, penyelidik menyediakan ayat yang mengaitkan emosi gembira dengan gaya melompat. Menyediakan lebih banyak maklumat mungkin meningkatkan keupayaan LLM untuk mentafsir arahan, seperti menyahkod perasaan tersirat. Dalam penilaian eksperimen, kaitan antara emosi gembira dan gaya berjalan yang melantun membolehkan robot berkelakuan bertenaga sambil mengikut arahan manusia yang samar-samar. Satu lagi hala tuju penyelidikan masa depan yang menarik ialah pengenalan input multimodal, seperti video dan audio. Secara teorinya, corak sentuhan kaki yang diterjemahkan daripada isyarat ini juga sesuai untuk aliran kerja yang baru dicadangkan di sini dan dijangka membuka lebih banyak kes penggunaan yang menarik.

Pautan asal: https://blog.research.google/2023/08/saytap-language-to-quadrupedal.html

Atas ialah kandungan terperinci Google menggunakan model besar untuk melatih anjing robot memahami arahan yang tidak jelas dan teruja untuk pergi berkelah. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:jiqizhixin.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam

Artikel berkaitan

Lihat lagi