대규모 데이터세트를 처리하는 API로 작업할 때는 데이터 흐름을 효율적으로 관리하고 페이지 매김, 속도 제한, 메모리 사용량과 같은 문제를 해결하는 것이 중요합니다. 이 기사에서는 JavaScript의 기본 가져오기 기능을 사용하여 API를 사용하는 방법을 살펴보겠습니다. 다음과 같은 중요한 주제를 살펴보겠습니다.
- 대량의 데이터 처리: 시스템에 부담을 주지 않도록 대규모 데이터세트를 점진적으로 검색합니다.
- 페이지 매기기: Storyblok Content Delivery API를 포함한 대부분의 API는 페이지 단위로 데이터를 반환합니다. 효율적인 데이터 검색을 위해 페이지 매김을 관리하는 방법을 살펴보겠습니다.
- 비율 제한: API는 남용을 방지하기 위해 비율 제한을 적용하는 경우가 많습니다. 이러한 제한을 감지하고 처리하는 방법을 살펴보겠습니다.
- 재시도 메커니즘: API가 429 상태 코드(요청이 너무 많음)로 응답하는 경우 원활한 데이터를 보장하기 위해 재시도 전 대기 시간을 나타내는 "재시도 후" 메커니즘을 구현합니다. 가져오는 중입니다.
- 동시 요청: 여러 페이지를 병렬로 가져오면 프로세스 속도가 빨라질 수 있습니다. JavaScript의 Promise.all()을 사용하여 동시 요청을 보내고 성능을 향상하겠습니다.
- 메모리 누수 방지: 대규모 데이터 세트를 처리하려면 신중한 메모리 관리가 필요합니다. 생성기 덕분에 데이터를 청크로 처리하고 메모리 효율적인 작업을 보장합니다.
Storyblok Content Delivery API를 사용하여 이러한 기술을 살펴보고 가져오기를 사용하여 JavaScript에서 이러한 모든 요소를 처리하는 방법을 설명합니다. 코드를 자세히 살펴보겠습니다.
Storyblok Content Delivery API 사용 시 유의사항
코드를 살펴보기 전에 고려해야 할 Storyblok API의 몇 가지 주요 기능은 다음과 같습니다.
- CV 매개변수: cv(콘텐츠 버전) 매개변수는 캐시된 콘텐츠를 검색합니다. cv 값은 첫 번째 요청에서 반환되며 동일한 캐시된 버전의 콘텐츠를 가져오도록 후속 요청에서 전달되어야 합니다.
- 페이지 및 페이지별 페이지 매김: page 및 per_page 매개변수를 사용하여 각 요청에서 반환되는 항목 수를 제어하고 결과 페이지를 반복합니다.
- 총 헤더: 첫 번째 응답의 총 헤더는 사용 가능한 총 항목 수를 나타냅니다. 이는 가져와야 하는 데이터 페이지 수를 계산하는 데 필수적입니다.
- 429(속도 제한) 처리: Storyblok은 속도 제한을 시행합니다. 이를 누르면 API는 429 상태를 반환합니다. Retry-After 헤더(또는 기본값)를 사용하여 요청을 재시도하기 전에 기다려야 하는 시간을 알 수 있습니다.
대규모 데이터 세트를 처리하기 위해 fetch()를 사용하는 JavaScript 예제 코드
JavaScript의 기본 가져오기 기능을 사용하여 이러한 개념을 구현한 방법은 다음과 같습니다.
다음 사항을 고려하세요.
- 이 스니펫은 예로 story.json이라는 새 파일을 생성합니다. 파일이 이미 존재하는 경우 덮어쓰게 됩니다. 따라서 작업 디렉터리에 해당 이름의 파일이 이미 있는 경우 코드 조각에서 이름을 변경하세요.
- 요청이 병렬로 실행되기 때문에 스토리의 순서는 보장되지 않습니다. 예를 들어 세 번째 페이지에 대한 응답이 두 번째 요청의 응답보다 빠르면 생성기는 두 번째 페이지의 스토리보다 세 번째 페이지의 스토리를 먼저 전달합니다.
- Bun으로 스니펫을 테스트했습니다 :)
import { writeFile, appendFile } from "fs/promises"; // Read access token from Environment const STORYBLOK_ACCESS_TOKEN = process.env.STORYBLOK_ACCESS_TOKEN; // Read access token from Environment const STORYBLOK_VERSION = process.env.STORYBLOK_VERSION; /** * Fetch a single page of data from the API, * with retry logic for rate limits (HTTP 429). */ async function fetchPage(url, page, perPage, cv) { let retryCount = 0; // Max retry attempts const maxRetries = 5; while (retryCount setTimeout(resolve, retryAfter * 1000 * retryCount)); continue; } if (!response.ok) { throw new Error( `Failed to fetch page ${page}: HTTP ${response.status}`, ); } const data = await response.json(); // Return the stories data of the current page return data.stories || []; } catch (error) { console.error(`Error fetching page ${page}: ${error.message}`); return []; // Return an empty array if the request fails to not break the flow } } console.error(`Failed to fetch page ${page} after ${maxRetries} attempts`); return []; // If we hit the max retry limit, return an empty array } /** * Fetch all data in parallel, processing pages in batches * as a generators (the reason why we use the `*`) */ async function* fetchAllDataInParallel( url, perPage = 25, numOfParallelRequests = 5, ) { let currentPage = 1; let totalPages = null; // Fetch the first page to get: // - the total entries (the `total` HTTP header) // - the CV for caching (the `cv` atribute in the JSON response payload) const firstResponse = await fetch( `${url}&page=${currentPage}&per_page=${perPage}`, ); if (!firstResponse.ok) { console.log(`${url}&page=${currentPage}&per_page=${perPage}`); console.log(firstResponse); throw new Error(`Failed to fetch data: HTTP ${firstResponse.status}`); } console.timeLog("API", "After first response"); const firstData = await firstResponse.json(); const total = parseInt(firstResponse.headers.get("total"), 10) || 0; totalPages = Math.ceil(total / perPage); // Yield the stories from the first page for (const story of firstData.stories) { yield story; } const cv = firstData.cv; console.log(`Total pages: ${totalPages}`); console.log(`CV parameter for caching: ${cv}`); currentPage++; // Start from the second page now while (currentPage fetchPage(url, page, perPage, firstData, cv), ); // Wait for all requests in the batch to complete const batchResults = await Promise.all(batchRequests); console.timeLog("API", `Got ${batchResults.length} response`); // Yield the stories from each batch of requests for (let result of batchResults) { for (const story of result) { yield story; } } console.log(`Fetched pages: ${pagesToFetch.join(", ")}`); } } console.time("API"); const apiUrl = `https://api.storyblok.com/v2/cdn/stories?token=${STORYBLOK_ACCESS_TOKEN}&version=${STORYBLOK_VERSION}`; //const apiUrl = `http://localhost:3000?token=${STORYBLOK_ACCESS_TOKEN}&version=${STORYBLOK_VERSION}`; const stories = fetchAllDataInParallel(apiUrl, 25,7); // Create an empty file (or overwrite if it exists) before appending await writeFile('stories.json', '[', 'utf8'); // Start the JSON array let i = 0; for await (const story of stories) { i++; console.log(story.name); // If it's not the first story, add a comma to separate JSON objects if (i > 1) { await appendFile('stories.json', ',', 'utf8'); } // Append the current story to the file await appendFile('stories.json', JSON.stringify(story, null, 2), 'utf8'); } // Close the JSON array in the file await appendFile('stories.json', ']', 'utf8'); // End the JSON array console.log(`Total Stories: ${i}`);
주요 단계 설명
다음은 Storyblok Content Delivery API를 사용하여 효율적이고 안정적인 API 사용을 보장하는 코드의 중요한 단계에 대한 분석입니다.
1) 재시도 메커니즘을 사용하여 페이지 가져오기(fetchPage)
이 함수는 API에서 단일 데이터 페이지 가져오기를 처리합니다. 여기에는 API가 비율 제한이 초과되었음을 알리는 429(요청이 너무 많음) 상태로 응답할 때 재시도하는 로직이 포함되어 있습니다.
retryAfter 값은 재시도 전 대기 시간을 지정합니다. 후속 요청을 하기 전에 setTimeout을 사용하여 일시 중지하고 재시도 횟수는 최대 5회로 제한됩니다.
2) 초기 페이지 요청 및 CV 매개변수
첫 번째 API 요청은 전체 헤더(전체 스토리 수를 나타냄)와 cv 매개변수(캐싱에 사용됨)를 검색하기 때문에 중요합니다.
총 헤더를 사용하여 필요한 총 페이지 수를 계산할 수 있으며, cv 매개변수는 캐시된 콘텐츠가 사용되도록 보장합니다.
3) 페이지 매김 처리
페이지 매김은 페이지 및 페이지별 쿼리 문자열 매개변수를 사용하여 관리됩니다. 코드는 페이지당 25개의 스토리를 요청하며(조정 가능) 총 헤더는 가져와야 하는 페이지 수를 계산하는 데 도움이 됩니다.
코드는 API를 압도하지 않고 성능을 향상시키기 위해 한 번에 최대 7개(조정 가능) 병렬 요청 배치로 스토리를 가져옵니다.
4) Promise.all()을 사용한 동시 요청:
프로세스 속도를 높이기 위해 JavaScript의 Promise.all()을 사용하여 여러 페이지를 병렬로 가져옵니다. 이 메서드는 여러 요청을 동시에 보내고 모든 요청이 완료될 때까지 기다립니다.
병렬 요청의 각 배치가 완료된 후 결과가 처리되어 스토리가 생성됩니다. 이렇게 하면 모든 데이터를 한 번에 메모리에 로드하는 것을 방지하여 메모리 소비를 줄일 수 있습니다.
5) 비동기 반복을 통한 메모리 관리(await...of):
모든 데이터를 배열로 수집하는 대신 JavaScript 생성기(함수* 및 wait...of)를 사용하여 각 스토리를 가져오는 대로 처리합니다. 이는 대규모 데이터 세트를 처리할 때 메모리 과부하를 방지합니다.
스토리를 하나씩 생성함으로써 코드 효율성을 유지하고 메모리 누수를 방지합니다.
6) 비율 제한 처리:
API가 429 상태 코드(속도 제한)로 응답하는 경우 스크립트는 retryAfter 값을 사용합니다. 그런 다음 요청을 재시도하기 전에 지정된 시간 동안 일시 중지됩니다. 이렇게 하면 API 속도 제한을 준수하고 너무 많은 요청을 너무 빨리 보내는 것을 방지할 수 있습니다.
결론
이 기사에서는 네이티브 가져오기 기능을 사용하여 JavaScript에서 API를 사용할 때 주요 고려 사항을 다루었습니다. 나는 다음을 처리하려고 노력합니다:
- 대규모 데이터세트: 페이지 매김을 사용하여 대규모 데이터세트를 가져옵니다.
- 페이지 매기기: 페이지 및 페이지당 매개변수를 사용하여 페이지 매기기를 관리합니다.
- 비율 제한 및 재시도 메커니즘: 비율 제한을 처리하고 적절한 지연 후 요청을 재시도합니다.
- 동시 요청: 데이터 검색 속도를 높이기 위해 JavaScript의 Promise.all()을 사용하여 병렬로 페이지를 가져옵니다.
- 메모리 관리: JavaScript 생성기(함수* 및 wait...of)를 사용하여 과도한 메모리 소비 없이 데이터를 처리합니다.
이러한 기술을 적용하면 확장 가능하고 효율적이며 메모리에 안전한 방식으로 API 사용을 처리할 수 있습니다.
댓글/피드백을 남겨주세요.
참고자료
- 자바스크립트 생성기
- JavaScript 런타임을 사용하세요
- Storyblok 콘텐츠 전달 API
위 내용은 JavaScript의 대용량 데이터에 대한 효율적인 API 소비의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

JavaScript는 웹 페이지의 상호 작용과 역학을 향상시키기 때문에 현대 웹 사이트의 핵심입니다. 1) 페이지를 새로 고치지 않고 콘텐츠를 변경할 수 있습니다. 2) Domapi를 통해 웹 페이지 조작, 3) 애니메이션 및 드래그 앤 드롭과 같은 복잡한 대화식 효과를 지원합니다. 4) 성능 및 모범 사례를 최적화하여 사용자 경험을 향상시킵니다.

C 및 JavaScript는 WebAssembly를 통한 상호 운용성을 달성합니다. 1) C 코드는 WebAssembly 모듈로 컴파일되어 컴퓨팅 전력을 향상시키기 위해 JavaScript 환경에 도입됩니다. 2) 게임 개발에서 C는 물리 엔진 및 그래픽 렌더링을 처리하며 JavaScript는 게임 로직 및 사용자 인터페이스를 담당합니다.

JavaScript는 웹 사이트, 모바일 응용 프로그램, 데스크탑 응용 프로그램 및 서버 측 프로그래밍에서 널리 사용됩니다. 1) 웹 사이트 개발에서 JavaScript는 HTML 및 CSS와 함께 DOM을 운영하여 동적 효과를 달성하고 jQuery 및 React와 같은 프레임 워크를 지원합니다. 2) 반응 및 이온 성을 통해 JavaScript는 크로스 플랫폼 모바일 애플리케이션을 개발하는 데 사용됩니다. 3) 전자 프레임 워크를 사용하면 JavaScript가 데스크탑 애플리케이션을 구축 할 수 있습니다. 4) node.js는 JavaScript가 서버 측에서 실행되도록하고 동시 요청이 높은 높은 요청을 지원합니다.

Python은 데이터 과학 및 자동화에 더 적합한 반면 JavaScript는 프론트 엔드 및 풀 스택 개발에 더 적합합니다. 1. Python은 데이터 처리 및 모델링을 위해 Numpy 및 Pandas와 같은 라이브러리를 사용하여 데이터 과학 및 기계 학습에서 잘 수행됩니다. 2. 파이썬은 간결하고 자동화 및 스크립팅이 효율적입니다. 3. JavaScript는 프론트 엔드 개발에 없어서는 안될 것이며 동적 웹 페이지 및 단일 페이지 응용 프로그램을 구축하는 데 사용됩니다. 4. JavaScript는 Node.js를 통해 백엔드 개발에 역할을하며 전체 스택 개발을 지원합니다.

C와 C는 주로 통역사와 JIT 컴파일러를 구현하는 데 사용되는 JavaScript 엔진에서 중요한 역할을합니다. 1) C는 JavaScript 소스 코드를 구문 분석하고 추상 구문 트리를 생성하는 데 사용됩니다. 2) C는 바이트 코드 생성 및 실행을 담당합니다. 3) C는 JIT 컴파일러를 구현하고 런타임에 핫스팟 코드를 최적화하고 컴파일하며 JavaScript의 실행 효율을 크게 향상시킵니다.

실제 세계에서 JavaScript의 응용 프로그램에는 프론트 엔드 및 백엔드 개발이 포함됩니다. 1) DOM 운영 및 이벤트 처리와 관련된 TODO 목록 응용 프로그램을 구축하여 프론트 엔드 애플리케이션을 표시합니다. 2) Node.js를 통해 RESTFULAPI를 구축하고 Express를 통해 백엔드 응용 프로그램을 시연하십시오.

웹 개발에서 JavaScript의 주요 용도에는 클라이언트 상호 작용, 양식 검증 및 비동기 통신이 포함됩니다. 1) DOM 운영을 통한 동적 컨텐츠 업데이트 및 사용자 상호 작용; 2) 사용자가 사용자 경험을 향상시키기 위해 데이터를 제출하기 전에 클라이언트 확인이 수행됩니다. 3) 서버와의 진실한 통신은 Ajax 기술을 통해 달성됩니다.

보다 효율적인 코드를 작성하고 성능 병목 현상 및 최적화 전략을 이해하는 데 도움이되기 때문에 JavaScript 엔진이 내부적으로 작동하는 방식을 이해하는 것은 개발자에게 중요합니다. 1) 엔진의 워크 플로에는 구문 분석, 컴파일 및 실행; 2) 실행 프로세스 중에 엔진은 인라인 캐시 및 숨겨진 클래스와 같은 동적 최적화를 수행합니다. 3) 모범 사례에는 글로벌 변수를 피하고 루프 최적화, Const 및 Lets 사용 및 과도한 폐쇄 사용을 피하는 것이 포함됩니다.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

에디트플러스 중국어 크랙 버전
작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음

SublimeText3 영어 버전
권장 사항: Win 버전, 코드 프롬프트 지원!

MinGW - Windows용 미니멀리스트 GNU
이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.
