Rumah >pembangunan bahagian belakang >Tutorial Python >Membina Agen Catur menggunakan DQN

Membina Agen Catur menggunakan DQN

Susan Sarandon
Susan Sarandonasal
2024-12-30 01:55:07548semak imbas

Saya baru-baru ini cuba melaksanakan Agen Catur berasaskan DQN.

Sekarang, sesiapa yang mengetahui cara DQN dan Catur berfungsi akan memberitahu anda bahawa idea yang bodoh.

Dan...itu, tetapi sebagai seorang pemula saya menikmatinya. Dalam artikel ini saya akan berkongsi pandangan yang saya pelajari semasa mengerjakan perkara ini.


Memahami Alam Sekitar.

Sebelum saya mula melaksanakan Ejen itu sendiri, saya perlu membiasakan diri dengan persekitaran yang akan saya gunakan dan membuat pembungkus tersuai di atasnya supaya ia boleh berinteraksi dengan Ejen semasa latihan.

  • Saya menggunakan persekitaran catur daripada perpustakaan kaggle_environments.

     from kaggle_environments import make
     env = make("chess", debug=True)
    
  • Saya juga menggunakan Chessnut, iaitu perpustakaan ular sawa ringan yang membantu menghurai dan mengesahkan permainan catur.

     from Chessnut import Game
     initial_fen = env.state[0]['observation']['board']
     game=Game(env.state[0]['observation']['board'])
    

Dalam persekitaran ini, keadaan papan disimpan dalam format FEN.

Building a Chess Agent using DQN

Ia menyediakan cara yang padat untuk mewakili semua bahagian pada papan dan pemain yang sedang aktif. Walau bagaimanapun, memandangkan saya merancang untuk menyalurkan input kepada rangkaian saraf, saya terpaksa mengubah suai perwakilan keadaan.


Menukar format FEN kepada Matriks

Building a Chess Agent using DQN

Memandangkan terdapat 12 jenis kepingan yang berbeza pada papan, saya mencipta 12 saluran grid 8x8 untuk mewakili keadaan setiap jenis tersebut pada papan.


Mencipta Pembungkus untuk Alam Sekitar

class EnvCust:
    def __init__(self):
        self.env = make("chess", debug=True)
        self.game=Game(env.state[0]['observation']['board'])
        print(self.env.state[0]['observation']['board'])
        self.action_space=game.get_moves();
        self.obs_space=(self.env.state[0]['observation']['board'])

    def get_action(self):
        return Game(self.env.state[0]['observation']['board']).get_moves();


    def get_obs_space(self):
        return fen_to_board(self.env.state[0]['observation']['board'])

    def step(self,action):
        reward=0
        g=Game(self.env.state[0]['observation']['board']);
        if(g.board.get_piece(Game.xy2i(action[2:4]))=='q'):
            reward=7
        elif g.board.get_piece(Game.xy2i(action[2:4]))=='n' or g.board.get_piece(Game.xy2i(action[2:4]))=='b' or g.board.get_piece(Game.xy2i(action[2:4]))=='r':
            reward=4
        elif g.board.get_piece(Game.xy2i(action[2:4]))=='P':
            reward=2
        g=Game(self.env.state[0]['observation']['board']);
        g.apply_move(action)
        done=False
        if(g.status==2):
            done=True
            reward=10
        elif g.status == 1:  
            done = True
            reward = -5 
        self.env.step([action,'None'])
        self.action_space=list(self.get_action())
        if(self.action_space==[]):
            done=True
        else:
            self.env.step(['None',random.choice(self.action_space)])
            g=Game(self.env.state[0]['observation']['board']);
            if g.status==2:
                reward=-10
                done=True

        self.action_space=list(self.get_action())
        return self.env.state[0]['observation']['board'],reward,done

Tujuan pembungkus ini adalah untuk menyediakan polisi ganjaran untuk ejen dan fungsi langkah yang digunakan untuk berinteraksi dengan persekitaran semasa latihan.

Chessnut berguna dalam mendapatkan maklumat seperti langkah undang-undang yang mungkin berlaku pada keadaan semasa lembaga dan juga untuk mengenali Checkmate semasa permainan.

Saya cuba mencipta dasar ganjaran untuk memberikan mata positif kepada rakan semakan dan mengeluarkan kepingan musuh manakala mata negatif kerana kalah dalam permainan.


Mencipta Penampan Replay

Building a Chess Agent using DQN

Penimbal Replay digunakan semasa tempoh latihan untuk menyimpan output (keadaan, tindakan, ganjaran, keadaan seterusnya) oleh Rangkaian Q dan kemudiannya digunakan secara rawak untuk penyebaran balik Rangkaian Sasaran


Fungsi Bantu

Building a Chess Agent using DQN

Building a Chess Agent using DQN

Chessnut mengembalikan tindakan undang-undang dalam format UCI yang kelihatan seperti 'a2a3', namun untuk berinteraksi dengan Rangkaian Neural saya menukar setiap tindakan kepada indeks yang berbeza menggunakan corak asas. Terdapat sejumlah 64 Petak, jadi saya memutuskan untuk mempunyai 64*64 indeks unik untuk setiap pergerakan.
Saya tahu bahawa tidak semua langkah 64*64 adalah sah, tetapi saya boleh mengendalikan kesahihan menggunakan Chessnut dan coraknya cukup mudah.


Struktur Rangkaian Neural

 from kaggle_environments import make
 env = make("chess", debug=True)

Rangkaian Neural ini menggunakan Lapisan Konvolusi untuk mengambil masukan 12 saluran dan juga menggunakan indeks tindakan yang sah untuk menapis ramalan output ganjaran.


Melaksanakan Ejen

 from Chessnut import Game
 initial_fen = env.state[0]['observation']['board']
 game=Game(env.state[0]['observation']['board'])

Ini jelas merupakan model yang sangat asas yang tidak mempunyai peluang untuk benar-benar berprestasi baik (Dan ia tidak), tetapi ia membantu saya memahami cara DQN berfungsi dengan lebih baik sedikit.

Building a Chess Agent using DQN

Atas ialah kandungan terperinci Membina Agen Catur menggunakan DQN. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn