찾다
기술 주변기기일체 포함OpenAI의 Whisper 모델을 이용한 음성인식

OpenAI의 Whisper 모델을 이용한 음성인식

Apr 12, 2023 pm 05:28 PM
일체 포함음성 인식

음성 인식은 컴퓨터가 인간의 말을 이해하고 이를 텍스트로 변환할 수 있도록 하는 인공 지능 분야입니다. 이 기술은 Alexa 및 다양한 챗봇 애플리케이션과 같은 장치에 사용됩니다. 우리가 하는 가장 일반적인 일은 음성 전사인데, 이를 전사나 자막으로 변환할 수 있습니다.

OpenAI의 Whisper 모델을 이용한 음성인식

wav2vec2, Conformer 및 Hubert와 같은 최첨단 모델의 최근 개발로 음성 인식 분야가 크게 발전했습니다. 이러한 모델은 사람이 레이블을 지정한 데이터 없이 원시 오디오에서 학습하는 기술을 사용하므로 레이블이 지정되지 않은 음성의 대규모 데이터 세트를 효율적으로 사용할 수 있습니다. 또한 학술 지도 데이터 세트에서 사용되는 기존의 1,000시간을 훨씬 넘어 최대 1,000,000시간의 교육 데이터를 사용하도록 확장되었지만, 여러 데이터 세트 및 도메인에 걸쳐 지도 방식으로 사전 교육된 모델이 더 나은 견고성과 일반화를 수행하는 것으로 나타났습니다. 따라서 음성 인식과 같은 작업을 수행하려면 여전히 미세 조정이 필요하므로 잠재력을 최대한 발휘할 수 없습니다. 이 문제를 해결하기 위해 OpenAI는 약한 감독 방법을 활용하는 모델인 Whisper를 개발했습니다.

이 기사에서는 훈련에 사용되는 데이터 세트의 유형과 모델의 훈련 방법 및 Whisper 사용 방법에 대해 설명합니다.

Whisper 모델 소개

데이터 세트 사용:

Whisper 모델은 다음 데이터 세트에 있습니다. 96개 언어로 된 117,000시간의 음성과 "모든 언어"에서 영어로의 125,000시간의 번역 데이터를 포함하는 680,000시간의 라벨링된 오디오 데이터 교육. 이 모델은 인간이 생성한 텍스트가 아닌 다른 자동 음성 인식 시스템(ASR)을 통해 생성된 인터넷 생성 텍스트를 활용합니다. 또한 데이터세트에는 YouTube 동영상에서 추출하고 동영상 제목 및 설명의 언어를 기반으로 태그가 지정된 짧은 음성 클립 모음인 VoxLingua107에서 훈련된 언어 감지기가 포함되어 있으며 오탐지를 제거하기 위한 추가 단계도 포함되어 있습니다.

모델:

사용된 주요 구조는 인코더-디코더 구조입니다.

리샘플링: 16000Hz

특징 추출 방법: 25ms 창과 10ms 스트라이드를 사용하여 80채널 로그 Mel 스펙트로그램 표현을 계산합니다.

특성 정규화: 입력은 전역적으로 -1과 1 사이로 조정되며 사전 훈련된 데이터세트의 평균은 대략 0입니다.

인코더/디코더: 이 모델의 인코더와 디코더는 트랜스포머를 채택합니다.

인코더 프로세스:

인코더는 먼저 GELU 활성화 함수를 사용하여 두 개의 컨벌루션 레이어(필터 너비 3)가 포함된 스템을 사용하여 입력 표현을 처리합니다.

두 번째 컨벌루션 레이어의 스트라이드는 2입니다.

그런 다음 스템 출력에 정현파 위치 임베딩을 추가한 다음 인코더 변압기 블록을 적용합니다.

Transformers는 사전 활성화된 잔여 블록을 사용하고 인코더의 출력은 정규화 레이어를 사용하여 정규화됩니다.

모델 블록 다이어그램:

OpenAI의 Whisper 모델을 이용한 음성인식

디코딩 프로세스:

디코더에서는 학습 위치 임베딩 및 바인딩 입력 및 출력 마크 표현이 사용됩니다.

인코더와 디코더의 너비와 트랜스포머 블록 수는 동일합니다.

Training

모델의 크기 조정 속성을 개선하기 위해 다양한 입력 크기에 대해 학습합니다.

FP16, 동적 손실 확장 및 데이터 병렬 처리로 모델을 교육합니다.

AdamW 및 그래디언트 노름 클리핑을 사용하면 첫 번째 2048 업데이트를 준비한 후 선형 학습률이 0으로 감소합니다.

배치 크기 256을 사용하고 220개의 업데이트에 대해 모델을 훈련합니다. 이는 데이터 세트에 대한 2~3개의 정방향 전달에 해당합니다.

모델은 몇 epoch 동안만 훈련되었기 때문에 과적합은 중요한 문제가 아니었고 데이터 증대나 정규화 기술은 사용되지 않았습니다. 대신 일반화와 견고성을 촉진하기 위해 대규모 데이터 세트 내의 다양성에 의존합니다.

Whisper는 이전에 사용된 데이터 세트에서 우수한 정확성을 입증했으며 다른 최첨단 모델에 대해 테스트되었습니다.

장점:

  • Whisper는 실제 데이터뿐만 아니라 다른 모델에서 사용되는 데이터와 약한 감독 하에 훈련을 받았습니다.
  • 모델의 정확성은 인간 청취자를 대상으로 테스트되고 성능이 평가됩니다.
  • 무성음 영역을 감지하고 NLP 기술을 적용하여 대본에 구두점을 올바르게 입력합니다.
  • 이 모델은 확장 가능하며 비디오를 청크나 배치로 분할하지 않고 오디오 신호에서 스크립트를 추출할 수 있으므로 사운드가 누락될 위험이 줄어듭니다.
  • 이 모델은 다양한 데이터 세트에서 더 높은 정확도를 달성합니다.

Whisper를 다양한 데이터 세트에서 비교한 결과, wav2vec과 비교하여 지금까지 가장 낮은 단어 오류율을 달성했습니다

OpenAI의 Whisper 모델을 이용한 음성인식

모델은 timit 데이터세트에서 테스트되지 않았으므로 단어 오류율을 확인하기 위해 여기에서 Whisper를 사용하여 timit 데이터세트를 자체 검증하는 방법, 즉 Whisper를 사용하여 자체 음성 인식 애플리케이션을 구축하는 방법을 보여드리겠습니다.

음성 인식을 위한 속삭임 모델 사용

TIMIT Reading Speech Corpus는 음향 음성 연구와 자동 음성 인식 시스템의 개발 및 평가에 특별히 사용되는 음성 데이터 모음입니다. 여기에는 미국 영어의 8개 주요 방언에서 온 630명의 화자가 녹음된 내용이 포함되어 있으며, 각 화자는 음성적으로 풍부한 10개의 문장을 읽습니다. 코퍼스에는 각 음성에 대한 16비트, 16kHz 음성 파형 파일뿐만 아니라 시간 정렬된 철자법, 발음 기호 및 단어 표기가 포함되어 있습니다. 이 코퍼스는 MIT(매사추세츠 공과대학), SRI International(SRI) 및 Texas Instruments(TI)가 개발했습니다. TIMIT 코퍼스 전사본은 음성 및 방언 범위의 균형을 맞추기 위해 지정된 테스트 및 교육 하위 집합을 사용하여 수동으로 확인되었습니다.

설치:

!pip install git+https://github.com/openai/whisper.git
 !pip install jiwer
 !pip install datasets==1.18.3

첫 번째 명령은 속삭임 모델에 필요한 모든 종속성을 설치합니다. jiwer는 텍스트 오류율 패키지를 다운로드하는 데 사용됩니다. 데이터 세트는 Hugface에서 제공됩니다.

라이브러리 가져오기

import whisper
 from pytube import YouTube
 from glob import glob
 import os
 import pandas as pd
 from tqdm.notebook import tqdm

timit 데이터 세트 로드

from datasets import load_dataset, load_metric
 
 timit = load_dataset("timit_asr")

다양한 모델 크기에서 단어 오류율 계산

영어 데이터와 영어가 아닌 데이터를 필터링해야 하는 필요성을 고려하여 여기에서는 대신 다중 언어 모델을 사용하기로 선택합니다. 영어 디자인 모델을 위해 특별히 제작되었습니다.

하지만 TIMIT 데이터 세트는 순수 영어이기 때문에 동일한 언어 감지 및 인식 프로세스를 적용해야 합니다. 또한 TIMIT 데이터 세트는 훈련 세트와 검증 세트로 나누어져 있어 직접 사용할 수 있습니다.

Whisper를 사용하려면 먼저 다양한 모델의 매개변수, 크기 및 속도를 이해해야 합니다.

OpenAI의 Whisper 모델을 이용한 음성인식

Loading model

model = whisper.load_model('tiny')

tiny는 위에서 언급한 모델명으로 대체 가능합니다.

언어 감지기를 정의하는 함수

def lan_detector(audio_file):
 print('reading the audio file')
 audio = whisper.load_audio(audio_file)
 audio = whisper.pad_or_trim(audio)
 mel = whisper.log_mel_spectrogram(audio).to(model.device)
 _, probs = model.detect_language(mel)
 if max(probs, key=probs.get) == 'en':
 return True
 return False

음성을 텍스트로 변환하는 함수

def speech2text(audio_file):
 text = model.transcribe(audio_file)
 return text["text"]

위 함수를 다양한 모델 크기에서 실행했을 때, timit training과 test를 통해 얻은 단어 오류율은 다음과 같습니다.

OpenAI의 Whisper 모델을 이용한 음성인식

u2b Speech

에서 번역됨 다른 음성 인식 모델과 비교하여 Whisper는 음성을 인식할 수 있을 뿐만 아니라 사람의 음성에 있는 구두점과 억양을 해석하고 적절한 구두점을 삽입할 수 있습니다. 아래 테스트에 u2b의 영상을 사용하겠습니다.

여기에는 오디오를 쉽게 다운로드하고 추출하는 데 도움이 되는 pytube 패키지가 필요합니다.

def youtube_audio(link):
 youtube_1 = YouTube(link)
 videos = youtube_1.streams.filter(only_audio=True)
 
 name = str(link.split('=')[-1])
 out_file = videos[0].download(name)

 link = name.split('=')[-1]
 new_filename = link+".wav"
 print(new_filename)
 os.rename(out_file, new_filename)
 print(name)
 return new_filename,link

wav 파일을 얻은 후 위 기능을 적용하여 텍스트를 추출할 수 있습니다.

요약

이 글의 코드는 여기에 있습니다

https://drive.google.com/file/d/1FejhGseX_S1Ig_Y5nIPn1OcHN8DLFGIO/view

Whisper로 완료할 수 있는 작업은 많습니다. 직접 시도해 볼 수 있습니다. 이 기사의 코드에.

위 내용은 OpenAI의 Whisper 모델을 이용한 음성인식의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
이 기사는 51CTO.COM에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제
생성 엔진 최적화에 대한 비즈니스 리더 안내서 (GEO)생성 엔진 최적화에 대한 비즈니스 리더 안내서 (GEO)May 03, 2025 am 11:14 AM

Google은 이러한 변화를 이끌고 있습니다. "AI 개요"기능은 이미 10 억 명 이상의 사용자에게 제공되며, 누군가가 링크를 클릭하기 전에 완전한 답변을 제공합니다. [^2] 다른 플레이어들도 빨리지면을 얻고 있습니다. Chatgpt, Microsoft Copilot 및 PE

이 스타트 업은 AI 에이전트를 사용하여 악의적 인 광고와 가장하는 계정과 싸우고 있습니다.이 스타트 업은 AI 에이전트를 사용하여 악의적 인 광고와 가장하는 계정과 싸우고 있습니다.May 03, 2025 am 11:13 AM

2022 년에 그는 사회 공학 방어 스타트 업 도플을 설립하여 바로 그렇게했습니다. 그리고 사이버 범죄자들이 공격을 터보 차지하기 위해 더욱 진보 된 AI 모델을 활용함에 따라 Doppel의 AI 시스템은 비즈니스가 더 빠르게 빠르게 그리고 더 빠르게 그리고 규모로 싸우는 데 도움이되었습니다.

세계 모델이 생성 AI 및 LLM의 미래를 근본적으로 재구성하는 방법세계 모델이 생성 AI 및 LLM의 미래를 근본적으로 재구성하는 방법May 03, 2025 am 11:12 AM

Voila는 적합한 세계 모델과 상호 작용하여 생성 AI 및 LLM을 실질적으로 향상시킬 수 있습니다. 그것에 대해 이야기합시다. 혁신적인 AI 혁신에 대한이 분석은

2050 년 5 월 : 우리는 무엇을 축하하기 위해 떠났습니까?2050 년 5 월 : 우리는 무엇을 축하하기 위해 떠났습니까?May 03, 2025 am 11:11 AM

노동당 2050 년. 전국의 공원은 전통적인 바베큐를 즐기는 가족들로 가득 차고 향수를 불러 일으키는 퍼레이드는 도시 거리를 통해 바람을 피 웁니다. 그러나 축하 행사는 이제 박물관과 같은 품질을 가지고 있습니다.

98% 정확한 것을 들어 본 적이없는 Deepfake 탐지기98% 정확한 것을 들어 본 적이없는 Deepfake 탐지기May 03, 2025 am 11:10 AM

이 긴급하고 불안정한 트렌드를 해결하기 위해 2025 년 2 월 Tem Journal의 동료 검토 기사는 기술 심해가 현재 어디에 있는지에 대한 가장 명확하고 데이터 중심 평가 중 하나를 제공합니다. 연구원

양자 재능 전쟁 : 숨겨진 위기 위협 기술 기술양자 재능 전쟁 : 숨겨진 위기 위협 기술 기술May 03, 2025 am 11:09 AM

신약을 공식화하는 데 걸리는 시간을 크게 줄이는 것부터 녹색 에너지 생성에 이르기까지 기업이 새로운 지평을 열 수있는 큰 기회가있을 것입니다. 그래도 큰 문제가 있습니다. 기술을 가진 사람들이 심각하게 부족합니다.

프로토 타입 :이 박테리아는 전기를 생성 할 수 있습니다프로토 타입 :이 박테리아는 전기를 생성 할 수 있습니다May 03, 2025 am 11:08 AM

몇 년 전, 과학자들은 특정 종류의 박테리아가 산소를 섭취하기보다는 전기를 생성하여 호흡하는 것처럼 보이지만, 그렇게 한 방법은 미스터리였습니다. 저널 Cell에 발표 된 새로운 연구는 이런 일이 어떻게 발생하는지 식별합니다 : Microb

AI 및 사이버 보안 : 새로운 행정부의 100 일 계산AI 및 사이버 보안 : 새로운 행정부의 100 일 계산May 03, 2025 am 11:07 AM

이번 주 RSAC 2025 컨퍼런스에서 Snyk은 All-Star 라인업을 특징으로하는 AI, AI, Policy & Cybersecurity Collide "라는 제목의 적시 패널을 주최했습니다. Jen Easterly, 전 CISA 디렉터; Nicole Perlroth, 전 기자이자 Partne

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

ZendStudio 13.5.1 맥

ZendStudio 13.5.1 맥

강력한 PHP 통합 개발 환경

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

Eclipse용 SAP NetWeaver 서버 어댑터

Eclipse용 SAP NetWeaver 서버 어댑터

Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.