Maison >développement back-end >tutoriel php >Méthode de nettoyage et d'archivage des données en temps réel à l'aide d'Elasticsearch en PHP
Méthode de nettoyage et d'archivage des données en temps réel à l'aide d'Elasticsearch en PHP
Le nettoyage et l'archivage des données sont des aspects très importants dans le traitement des données, qui peuvent garantir l'exactitude et l'exhaustivité des données. Dans le traitement des données en temps réel, nous sommes souvent confrontés à une grande quantité de données en temps réel qui doivent être nettoyées et archivées. Cet article explique comment utiliser PHP et Elasticsearch pour réaliser ce processus.
Elasticsearch est un moteur de recherche open source basé sur Lucene, qui fournit un moteur de recherche et d'analyse de texte intégral distribué. Il se caractérise par sa rapidité, sa stabilité et sa capacité à gérer des données à grande échelle.
Tout d'abord, nous devons installer et configurer Elasticsearch. Vous pouvez télécharger la version adaptée à votre système sur le site officiel (https://www.elastic.co/), l'installer et la configurer conformément à la documentation officielle.
Utiliser Composer pour gérer les dépendances PHP est un bon moyen, nous pouvons installer le client PHP Elasticsearch via Composer.
Créez un fichier composer.json dans le répertoire racine du projet et ajoutez le contenu suivant :
{ "require": { "elasticsearch/elasticsearch": "^7.0" } }
Ensuite, utilisez Composer pour installer les dépendances :
composer install
Dans le code, il faut d'abord connectez-vous au serveur Elasticsearch. Cela peut être facilement réalisé en utilisant la classe ElasticsearchClient fournie par le client PHP Elasticsearch.
require 'vendor/autoload.php'; $hosts = [ [ 'host' => 'localhost', 'port' => 9200, 'scheme' => 'http', ], ]; $client = ElasticsearchClientBuilder::create() ->setHosts($hosts) ->build();
Dans le code ci-dessus, nous avons spécifié le nom d'hôte, le numéro de port et le protocole du serveur Elasticsearch. Il peut être modifié selon les besoins en fonction de la situation réelle.
Dans Elasticsearch, les données sont stockées sous forme d'index. Nous devons d'abord créer l'index et spécifier le type de données et la relation de mappage de chaque champ.
$params = [ 'index' => 'data', 'body' => [ 'mappings' => [ 'properties' => [ 'timestamp' => [ 'type' => 'date', ], 'message' => [ 'type' => 'text', ], 'status' => [ 'type' => 'keyword', ], ], ], ], ]; $response = $client->indices()->create($params);
Dans le code ci-dessus, nous avons créé un index nommé "data" et spécifié le champ "horodatage" comme type de date, le champ "message" comme type de texte et le champ "statut" comme type de mot-clé.
Dans le processus de nettoyage et d'archivage des données, nous pouvons utiliser l'API de requête et d'indexation fournie par Elasticsearch pour y parvenir.
Par exemple, nous pouvons utiliser l'instruction de requête query_string pour filtrer les données qui doivent être nettoyées et archivées :
$params = [ 'index' => 'raw_data', 'body' => [ 'query' => [ 'query_string' => [ 'query' => 'status:success AND timestamp:[now-1h TO now]', ], ], ], ]; $response = $client->search($params);
Dans le code ci-dessus, nous utilisons l'instruction de requête query_string pour filtrer les données avec un statut de "succès" et un horodatage au cours de la dernière heure. Selon les besoins réels, les conditions de requête peuvent être modifiées selon les besoins.
Ensuite, nous pouvons utiliser l'API d'index groupé pour archiver les données nettoyées dans l'index spécifié :
$params = [ 'index' => 'data', 'body' => [], ]; foreach ($response['hits']['hits'] as $hit) { $params['body'][] = [ 'index' => [ '_index' => 'data', '_id' => $hit['_id'], ], ]; $params['body'][] = $hit['_source']; } $client->bulk($params);
Dans le code ci-dessus, nous utilisons l'API d'index groupé pour effectuer des opérations d'indexation par lots sur les données à archiver.
Afin de réaliser un nettoyage et un archivage des données en temps réel, nous pouvons utiliser des tâches planifiées pour effectuer régulièrement le processus de traitement des données. Dans les systèmes Linux, nous pouvons utiliser cron pour configurer des tâches planifiées.
Par exemple, nous pouvons créer un script PHP nommé "clean.php" qui contient le code pour le nettoyage et l'archivage des données, et utiliser cron pour le configurer pour qu'il s'exécute toutes les heures :
0 * * * * php /path/to/clean.php
Dans le code ci-dessus, "0 " signifie qu'il sera exécuté à 0 minute toutes les heures.
Pour résumer, nous pouvons utiliser PHP et Elasticsearch pour mettre en œuvre des méthodes de nettoyage et d'archivage des données en temps réel. De grandes quantités de données en temps réel peuvent être nettoyées et archivées efficacement en se connectant au serveur Elasticsearch, en créant des index et des mappages, en utilisant des API de requête et d'index pour le traitement des données et en utilisant des tâches planifiées pour effectuer le processus de traitement des données de manière régulière.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!