IT하우스 뉴스 6월 12일 메타는 최근 구글이 2017년 출시한 Transformer 모델을 기반으로 한 AI 언어 모델 MusicGen을 Github에 오픈소스화했습니다. 모델 이름에서 알 수 있듯이 MusicGen은 주로 음악 생성에 사용되며 텍스트와 기존 멜로디를 완전한 음악 작품으로 변환할 수 있습니다.
R&D 팀은 다음과 같이 말했습니다. “우리는 모델을 훈련하기 위해 20,000시간의 승인된 음악을 사용했고, 병렬 처리를 위해 오디오 데이터를 더 작은 단위로 분해하기 위해 Meta의 EnCodec 인코더를 사용하여 MusicGen의 컴퓨팅 효율성과 생성 속도가 모두 유사 제품보다 향상되었습니다. AI 모델.”
또한 MusicGen은 텍스트와 멜로디의 결합 입력도 지원합니다. 예를 들어 "가벼운 트랙"을 생성하도록 제안하는 동시에 "베토벤의 "환희의 송가"와 결합"을 요청할 수 있습니다.
R&D팀에서는 뮤직젠의 실제 성능도 테스트했습니다. 결과에 따르면 Google의 MusicLM 및 Riffusion, Mousai, Noise2Music과 같은 다른 음악 모델과 비교할 때 MusicGen은 음악과 텍스트 프롬프트의 일치, 구성의 신뢰성과 같은 테스트 지표에서 더 나은 성능을 발휘하며 전체적으로 Google보다 약간 더 높습니다. 뮤직LM 수준.
Meta는 이 모델의 상업적 사용을 허용했으며 Huggingface에 데모 웹 애플리케이션을 출시했습니다.
IT Home에 모델 주소 첨부: 이동하려면 여기를 클릭하세요
데모 신청 주소: 여기를 클릭하여 이동하세요
위 내용은 Meta의 오픈 소스 AI 언어 모델 MusicGen은 텍스트와 멜로디를 완전한 음악 작품으로 변환할 수 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!