Rumah  >  Soal Jawab  >  teks badan

mongodb还有分表的必要吗?

mongodb自带了autosharding,那么还有必要分表吗,加入一张表过亿级别?

天蓬老师天蓬老师2749 hari yang lalu1742

membalas semua(4)saya akan balas

  • 给我你的怀抱

    给我你的怀抱2017-05-02 09:28:37

    Ya, saya menolaknya kerana jawapan ini mengelirukan pembaca.
    Tidak kira apa jenis pangkalan data, kos untuk mencipta indeks adalah besar, kerana ia bermakna melintasi data dalam keseluruhan jadual, bagaimana ia boleh dilakukan tanpa banyak tekanan? Itulah sebabnya terdapat pilihan {background: true} untuk mengurangkan keadaan ini dengan sewajarnya. Apabila mencipta indeks dalam kluster yang berada di bawah tekanan yang terlalu tinggi, kami mengesyorkan menggunakan kaedah penciptaan indeks "bergolek", yang mengalih keluar nod satu demi satu untuk mencipta indeks dan kemudian meletakkannya dalam talian untuk mengelakkan menjejaskan operasi sistem dalam talian .
    Bagi isu kunci, bermula dari 3.0, enjin WT menyokong kunci dokumen (kunci baris).
    Kos untuk menanyakan indeks adalah besar. Ini mungkin kerana indeks anda tidak ditetapkan dengan betul. Anda boleh memberikan contoh khusus untuk dibincangkan.
    Apabila data melebihi 100 juta, terdapat banyak perangkap Sila berikan contoh khusus untuk dibincangkan.

    balas
    0
  • 天蓬老师

    天蓬老师2017-05-02 09:28:37

    Mongodb menyokong seni bina pemisahan dan pemisahan automatik, yang boleh digunakan untuk membina sistem kluster pangkalan data boleh skala mendatar dan menyimpan jadual pangkalan data pada setiap nod pemisahan.

    Sila lihat mongodb sharding dan bukannya database sharding [1]: https://yq.aliyun.com/article...

    balas
    0
  • 给我你的怀抱

    给我你的怀抱2017-05-02 09:28:37

    Anda boleh membahagikan jadual mengikut bulan Name_03 Name_04 Nama tetap tidak berubah Nama jadual yang akan ditanya ditukar secara dinamik mengikut cap waktu dalam program

    balas
    0
  • PHPz

    PHPz2017-05-02 09:28:37

    Saya secara peribadi berpendapat ia masih perlu MongoDB mempunyai masalah mengunci pangkalan data (versi rendah) dan mengunci jadual (versi sederhana Walaupun terdapat serpihan untuk menyimpan fail, overhead penciptaan indeks dan carian indeks adalah). masih besar! ! ! ! Apabila data melebihi 100 juta, masih terdapat banyak perangkap!

    balas
    0
  • Batalbalas