作为开发人员,我们在处理大规模数据处理和交付时经常面临挑战。在 Kamero,我们最近解决了文件传输管道中的一个重大瓶颈。我们的应用程序允许用户将与特定事件相关的数千个文件下载为单个 zip 文件。此功能由基于 Node.js 的 Lambda 函数提供支持,负责从 S3 存储桶中获取和压缩文件,但随着我们用户群的增长,该功能一直在努力解决内存限制和执行时间过长的问题。
这篇文章详细介绍了我们从资源匮乏的 Node.js 实现到高效处理大量 S3 下载的精益且快速的 Go 解决方案的历程。我们将探索如何优化我们的系统,以便在从特定事件请求大量文件时为用户提供无缝体验,所有文件都打包到一个方便的单个 zip 下载中。
我们最初的 Lambda 函数在处理基于事件的大型文件集时面临几个关键问题:
我们最初的实现使用 s3-zip 库从 S3 对象创建 zip 文件。这是我们如何处理文件的简化片段:
const s3Zip = require("s3-zip"); // ... other code ... const body = s3Zip.archive( { bucket: bucketName }, eventId, files, entryData ); await uploadZipFile(Upload_Bucket, zipfileKey, body);
虽然这种方法有效,但它会在创建 zip 之前将所有文件加载到内存中,从而导致内存使用率较高,并且大型文件集可能会出现内存不足错误。
我们决定用 Go 重写 Lambda 函数,利用其效率和内置并发功能。结果令人震惊:
我们使用了 AWS SDK for Go v2,与 v1 相比,它提供了更好的性能和更低的内存使用量:
cfg, err := config.LoadDefaultConfig(context.TODO()) s3Client = s3.NewFromConfig(cfg)
Go 的 goroutine 允许我们同时处理多个文件:
var wg sync.WaitGroup sem := make(chan struct{}, 10) // Limit concurrent operations for _, photo := range photos { wg.Add(1) go func(photo Photo) { defer wg.Done() sem <- struct{}{} // Acquire semaphore defer func() { <-sem }() // Release semaphore // Process photo }(photo) } wg.Wait()
这种方法允许我们同时处理多个文件,同时控制并发级别以防止系统不堪重负。
我们不是将所有文件加载到内存中,而是将 zip 内容直接流式传输到 S3:
pipeReader, pipeWriter := io.Pipe() go func() { zipWriter := zip.NewWriter(pipeWriter) // Add files to zip zipWriter.Close() pipeWriter.Close() }() // Upload streaming content to S3 uploader.Upload(ctx, &s3.PutObjectInput{ Bucket: &destBucket, Key: &zipFileKey, Body: pipeReader, })
这种流式传输方法显着减少了内存使用量,并使我们能够处理更大的文件集。
Go 的重写带来了令人印象深刻的改进:
用 Go 重写 Lambda 函数不仅解决了我们眼前的扩展问题,还为我们的文件处理需求提供了更强大、更高效的解决方案。虽然 Node.js 最初为我们提供了良好的服务,但这次经历凸显了为工作选择正确工具的重要性,尤其是在处理大规模资源密集型任务时。
请记住,最好的语言或框架取决于您的具体用例。在我们的场景中,Go 的性能特征与我们的需求完美契合,从而显着改善了用户体验并降低了运营成本。
您在无服务器功能方面是否遇到过类似的挑战?你是如何克服它们的?我们很乐意在下面的评论中听到您的经历!
以上是从 Node.js 到 Go:以单个 Zip 方式增强数千个文件的下载量的详细内容。更多信息请关注PHP中文网其他相关文章!