Maison > Article > interface Web > Streams dans Node.js - Tutoriel - Partie 7
Les flux dans Node.js sont un moyen puissant de gérer efficacement les opérations d'E/S, en particulier lorsque vous travaillez avec de grandes quantités de données. Au lieu de lire et d'écrire des données en même temps, les flux nous permettent de les traiter par morceaux, ce qui améliore les performances et réduit la consommation de mémoire.
Node.js propose quatre types de flux :
Stream Type | Description | Example |
---|---|---|
Readable Streams | Used for reading data | Reading from a file |
Writable Streams | Used for writing data | Writing to a file |
Duplex Streams | Both readable and writable | Sockets |
Transform Streams | A type of duplex stream where data can be modified as it is read or written | Compression |
Flux lisibles
fin
const fs = require('fs'); const readableStream = fs.createReadStream('example.txt', { encoding: 'utf8' }); readableStream.on('data', (chunk) => { console.log('Received chunk:', chunk); }); readableStream.on('end', () => { console.log('No more data.'); }); readableStream.on('error', (err) => { console.error('Error:', err); });
const fs = require('fs'); const writableStream = fs.createWriteStream('output.txt'); writableStream.write('Hello, Node.js streams!\n'); writableStream.end(); // Close the stream writableStream.on('finish', () => { console.log('Finished writing.'); }); writableStream.on('error', (err) => { console.error('Error:', err); });
readableStream.pipe(writableStream);
Les flux aident à traiter efficacement de grandes quantités de données. Par exemple, lorsque vous travaillez avec des fichiers, les flux vous permettent d'éviter de charger l'intégralité du fichier en mémoire. Ceci est particulièrement utile lors de la gestion de fichiers multimédias, de grands ensembles de données ou de données provenant de requêtes HTTP.
Conseils finaux
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!