>  기사  >  백엔드 개발  >  pyodbc의 Cursor#fast_executemany는 어떻게 MS SQL Server에 대한 대량 삽입 속도를 높일 수 있습니까?

pyodbc의 Cursor#fast_executemany는 어떻게 MS SQL Server에 대한 대량 삽입 속도를 높일 수 있습니까?

Susan Sarandon
Susan Sarandon원래의
2024-11-03 04:42:02817검색

How Can Cursor#fast_executemany in pyodbc Speed Up Bulk Inserts to MS SQL Server?

pyodbc를 사용하여 MS SQL Server에 대한 대량 삽입 속도 향상: Insights and Solutions

MS SQL Server에 대한 대량 삽입 효율성 향상 pyodbc를 사용하여 테이블을 생성하려면 Cursor#fast_executemany 기능의 장점을 활용해 보세요. 버전 4.0.19에 도입된 이 기능은 삽입 프로세스를 최적화하여 실행 시간을 크게 단축합니다.

삽입할 데이터가 포함된 CSV 파일이 SQL Server 인스턴스를 호스팅하는 로컬 시스템이 아닌 원격 클라이언트에 있는 경우( 또는 액세스 가능한 SMB/CIFS 네트워크 위치), T-SQL BULK INSERT 명령이 실행 가능하지 않을 수 있습니다. 이러한 경우 Cursor#fast_executemany는 강력한 대안을 제공합니다.

데모:

"fast_executemany_test" 테이블에 1000행의 데이터를 삽입하는 시나리오를 생각해 보세요. 기본 설정을 사용하면 작업에 약 22초가 걸립니다.

<code class="python">crsr.executemany(sql, params)</code>

다음을 통해 간단히 Cursor#fast_executemany를 활성화하면

<code class="python">crsr.fast_executemany = True</code>

입력을 단 1초로 가속화할 수 있습니다. 실행 시간이 중요한 요소입니다. 이 기능을 활용하면 대량 삽입을 간소화하고 데이터 가져오기 작업의 전반적인 성능을 향상시킬 수 있습니다.

위 내용은 pyodbc의 Cursor#fast_executemany는 어떻게 MS SQL Server에 대한 대량 삽입 속도를 높일 수 있습니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.