recherche

Maison  >  Questions et réponses  >  le corps du texte

Meilleur moyen : récupérer, chiffrer et mettre à jour des millions d'enregistrements dans MySQL à l'aide de Java 8

<p>Nous devons lire environ 10 millions d'enregistrements d'une base de données MySQL, chiffrer ces enregistrements et mettre à jour les valeurs chiffrées dans les champs. Comment répondre à cette exigence de la manière la plus efficace possible. </p>

Cette option est donc exclue. </p> <p><strong>2</strong> : la fonction Executor en Java a déjà été utilisée dans l'une de nos applications pour implémenter l'insertion par lots. Mais le nombre de dossiers ne dépasse pas 50 000. On nous demande d’utiliser une approche similaire. Par conséquent, l’utilisation de Spring Batch est exclue. </p> <p>Je recherche des fonctionnalités possibles à prendre en compte dans les bases de données Java 8/MySQL. </p> <p>Java 8 : utilisez Executor pour le multithreading, CompletableFuture pour le traitement asynchrone et le streaming. </p> <p>MySQL : Créer un index...</p>

P粉211600174P粉211600174462 Il y a quelques jours631

répondre à tous(1)je répondrai

  • P粉903052556

    P粉9030525562023-08-27 22:48:34

    • Toute opération sur 10 millions de lignes de données prendra beaucoup de temps et peut entraîner des délais d'attente.
    • Vous ne pouvez utiliser VARBINARYBLOB que si vous stockez dans MySQL.
    • Assurez-vous que le type de données déclaré est au moins légèrement plus grand que les données sources. (SELECT MAX(LENGTH(col)) FROM tbl) peut donner la longueur maximale.
    • Envisagez de créer un nouveau tableau et, lors de la copie des données, convertissez-les dans d'autres colonnes du nouveau tableau. Alors testez-le.
    • Envisagez de traiter 1000 lignes de données par itération, utilisez PRIMARY KEY来跟踪“上次停下来的位置”,如果可行的话。(不要使用OFFSET). Plus d'informations sur le chunking : http://mysql.rjweb.org/doc.php/deletebig#deleting_in_chunks
    • Oui, utilisez une sorte d’insert en vrac. Mais limitez la taille totale du lot à environ 1 Mo. (16 Mo sont difficiles à dépasser). Cela peut ramener la taille de vos données en dessous de 1 Ko mentionné ci-dessus.
    • Le temps nécessaire pour opérer sur l'ensemble de la table ne fera pas une énorme différence par rapport à une opération ponctuelle, traitant 1 000 lignes à la fois.
    • Lors du cryptage de vos données, cela vaut peut-être également la peine d'essayer de les compresser. Cela peut entraîner une empreinte disque 3 fois plus petite.

    répondre
    0
  • Annulerrépondre