>백엔드 개발 >파이썬 튜토리얼 >Python은 음악 검색기의 기능을 구현합니다.

Python은 음악 검색기의 기능을 구현합니다.

高洛峰
高洛峰원래의
2017-03-03 11:44:231803검색

노래를 듣고 노래를 식별합니다. 이름에서 알 수 있듯이 장치를 사용하여 노래를 "듣고" 나면 어떤 노래인지 알려줍니다. 그리고 10번 중 9번은 노래를 재생해 주어야 합니다. 이러한 기능은 QQ Music과 같은 애플리케이션에서 오랫동안 등장했습니다. 오늘은

노래를 들으면서 우리만의 노래 인식을 만들어 보겠습니다.
Python은 음악 검색기의 기능을 구현합니다.

저희가 디자인한 전체 흐름도는 매우 간단합니다. -- -
녹음부
------

'듣기'를 하려면 먼저 녹음 과정이 있어야 합니다. 실험에서 음악 라이브러리는 녹음 코드를 사용하여 녹음한 다음 기능을 추출하여 데이터베이스에 저장합니다. Python은 음악 검색기의 기능을 구현합니다.

# coding=utf8
import wave

import pyaudio


class recode():
 def recode(self, CHUNK=44100, FORMAT=pyaudio.paInt16, CHANNELS=2, RATE=44100, RECORD_SECONDS=200,
    WAVE_OUTPUT_FILENAME="record.wav"):
  '''

  :param CHUNK: 缓冲区大小
  :param FORMAT: 采样大小
  :param CHANNELS:通道数
  :param RATE:采样率
  :param RECORD_SECONDS:录的时间
  :param WAVE_OUTPUT_FILENAME:输出文件路径
  :return:
  '''
  p = pyaudio.PyAudio()
  stream = p.open(format=FORMAT,
      channels=CHANNELS,
      rate=RATE,
      input=True,
      frames_per_buffer=CHUNK)
  frames = []
  for i in range(0, int(RATE / CHUNK * RECORD_SECONDS)):
   data = stream.read(CHUNK)
   frames.append(data)
  stream.stop_stream()
  stream.close()
  p.terminate()
  wf = wave.open(WAVE_OUTPUT_FILENAME, 'wb')
  wf.setnchannels(CHANNELS)
  wf.setsampwidth(p.get_sample_size(FORMAT))
  wf.setframerate(RATE)
  wf.writeframes(''.join(frames))
  wf.close()


if __name__ == '__main__':
 a = recode()
 a.recode(RECORD_SECONDS=30, WAVE_OUTPUT_FILENAME='record_pianai.wav')

저희가 녹음한 곡은 어떤 형태로 녹음되나요?

한 채널만 보면 1차원 배열이 되는데, 이런 모습입니다.
Python은 음악 검색기의 기능을 구현합니다.

다음과 같이 할당합니다. index 값 가로축으로 그려보면 우리가 흔히 볼 수 있는 오디오의 형태입니다. Python은 음악 검색기의 기능을 구현합니다.

오디오 처리 부분

여기서 핵심 코드를 작성하겠습니다. 중요한 것은 "노래를 식별하는 방법"입니다. 우리 인간이 노래를 어떻게 구별하는지 생각해 보세요. 위와 같은 1차원 배열을 생각해서 그런걸까요? 노래의 크기를 기준으로 한 것인가요? 없음.

우리는 귀에 들리는 고유한 주파수의 순서를 통해 노래를 기억하므로, 노래를 듣고 인식하는 방법에 대해 글을 쓰려면 오디오의 주파수 순서에 집중해야 합니다.

푸리에 변환이 무엇인지 복습해보세요. 블로거의 "신호 및 시스템" 수업은 매우 인기가 있었지만 수업에서 구체적인 변형 형태를 적지는 않았지만 여전히 지각적인 이해가 있었습니다.

푸리에 변환의 핵심은 시간 영역 신호를 주파수 영역 신호로 변환하는 것입니다. 즉, 원래 X축과 Y축은 각각 배열 첨자와 배열 요소였지만 이제는 이 주파수에서의 주파수(정확하지는 않지만 여기서는 올바르게 이해됨)와 구성 요소 크기가 됩니다. Python은 음악 검색기의 기능을 구현합니다.

주파수 영역을 어떻게 이해하나요? 신호 처리에 대해 잘 모르는 우리에게 가장 중요한 것은 오디오 구성에 대한 이해를 바꾸는 것입니다. 우리는 처음에 오디오가 처음에 제공한 파형과 같아서 매번 진폭을 가지며 서로 다른 진폭 시퀀스가 ​​특정 사운드를 구성한다고 생각했습니다. 이제 우리는 소리가 서로 다른 주파수 신호의 혼합이고 각각의 신호가 처음부터 끝까지 존재한다고 생각합니다. 그리고 그들은 예상된 구성 요소에 따라 기여합니다.

노래를 주파수 영역으로 변환하면 어떤지 살펴볼까요? Python은 음악 검색기의 기능을 구현합니다.

이러한 주파수의 구성 요소는 평균이 아니며 그 차이가 매우 크다는 것을 알 수 있습니다. 어느 정도 그림에서 뚜렷하게 솟아오른 피크는 출력 에너지가 큰 주파수 신호라고 생각할 수 있습니다. 이는 이 신호가 이 오디오 주파수에서 높은 위치를 차지하고 있음을 의미합니다. 그래서 우리는 노래의 특징을 추출하기 위해 그런 신호를 선택했습니다.

하지만 앞서 이야기한 것은 푸리에 변환 집합을 사용하면 노래 전체의 주파수 정보만 알 수 있고 시간 관계를 잃게 된다는 점을 잊지 마세요. "순서"에 대해 말할 방법이 없습니다. 그래서 우리는 오디오를 시간에 따라 작은 덩어리로 나누는 좀 더 절충적인 방법을 채택했습니다. 여기서는 초당 40개의 덩어리로 나누었습니다.

여기에 질문을 남겨주세요. 초당 1개처럼 큰 블록 하나가 아닌 작은 블록을 사용하는 이유는 무엇인가요?

각 블록에 대해 푸리에 변환을 수행한 후 이를 모듈로하여 배열을 얻습니다. 우리는 첨자 값 (0,40), (40,80), (80,120), (120,180)을 사용하여 4개의 간격에서 가장 큰 모듈 길이를 가진 첨자를 가져와서 4개의 튜플을 합성합니다. 핵심 오디오 "지문".

추출한 "지문"은 다음과 유사합니다

(39, 65, 110, 131), (15, 66, 108, 161), (3, 63, 118, 146), (11, 62, 82, 158), (15, 41, 95, 140), (2, 71, 106, 143), (15, 44, 80, 133), (36, 43, 80, 135), (22, 58, 80, 120), (29, 52, 89, 126), (15, 59, 89, 126), (37, 59, 89, 126), (37, 59, 89, 126), (37, 67, 119, 126)

音频处理的类有三个方法:载入数据,傅里叶变换,播放音乐。
如下:

# coding=utf8
import os
import re
import wave
import numpy as np
import pyaudio


class voice():
 def loaddata(self, filepath):
  '''

  :param filepath: 文件路径,为wav文件
  :return: 如果无异常则返回True,如果有异常退出并返回False
  self.wave_data内储存着多通道的音频数据,其中self.wave_data[0]代表第一通道
  具体有几通道,看self.nchannels
  '''
  if type(filepath) != str:
   print 'the type of filepath must be string'
   return False
  p1 = re.compile('\.wav')
  if p1.findall(filepath) is None:
   print 'the suffix of file must be .wav'
   return False
  try:
   f = wave.open(filepath, 'rb')
   params = f.getparams()
   self.nchannels, self.sampwidth, self.framerate, self.nframes = params[:4]
   str_data = f.readframes(self.nframes)
   self.wave_data = np.fromstring(str_data, dtype=np.short)
   self.wave_data.shape = -1, self.sampwidth
   self.wave_data = self.wave_data.T
   f.close()
   self.name = os.path.basename(filepath) # 记录下文件名
   return True
  except:
   print 'File Error!'

 def fft(self, frames=40):
  '''
  :param frames: frames是指定每秒钟分块数
  :return:
  '''
  block = []
  fft_blocks = []
  self.high_point = []
  blocks_size = self.framerate / frames # block_size为每一块的frame数量
  blocks_num = self.nframes / blocks_size # 将音频分块的数量
  for i in xrange(0, len(self.wave_data[0]) - blocks_size, blocks_size):
   block.append(self.wave_data[0][i:i + blocks_size])
   fft_blocks.append(np.abs(np.fft.fft(self.wave_data[0][i:i + blocks_size])))
   self.high_point.append((np.argmax(fft_blocks[-1][:40]),
         np.argmax(fft_blocks[-1][40:80]) + 40,
         np.argmax(fft_blocks[-1][80:120]) + 80,
         np.argmax(fft_blocks[-1][120:180]) + 120,
         # np.argmax(fft_blocks[-1][180:300]) + 180,
         )) # 提取指纹的关键步骤,没有取最后一个,但是保留了这一项,可以想想为什么去掉了?

 def play(self, filepath):
  '''
  用来做音频播放的方法
  :param filepath:文件路径 
  :return: 
  '''
  chunk = 1024
  wf = wave.open(filepath, 'rb')
  p = pyaudio.PyAudio()
  # 打开声音输出流
  stream = p.open(format=p.get_format_from_width(wf.getsampwidth()),
      channels=wf.getnchannels(),
      rate=wf.getframerate(),
      output=True)
  # 写声音输出流进行播放
  while True:
   data = wf.readframes(chunk)
   if data == "":
    break
   stream.write(data)

  stream.close()
  p.terminate()


if __name__ == '__main__':
 p = voice()
 p.loaddata('record_beiyiwang.wav')
 p.fft()

这里面的self.high_point是未来应用的核心数据。列表类型,里面的元素都是上面所解释过的指纹的形式。

数据存储和检索部分

因为我们是事先做好了曲库来等待检索,所以必须要有相应的持久化方法。我采用的是直接用mysql数据库来存储我们的歌曲对应的指纹,这样有一个好处:省写代码的时间

我们将指纹和歌曲存成这样的形式:Python은 음악 검색기의 기능을 구현합니다.
顺便一说:为什么各个歌曲前几个的指纹都一样?(当然,后面肯定是千差万别的)其实是音乐开始之前的时间段中没有什么能量较强的点,而由于我们44100的采样率比较高,就会导致开头会有很多重复,别担心。

我们怎么来进行匹配呢?我们可以直接搜索音频指纹相同的数量,不过这样又损失了我们之前说的序列,我们必须要把时间序列用上。否则一首歌曲越长就越容易被匹配到,这种歌曲像野草一样疯狂的占据了所有搜索音频的结果排行榜中的第一名。而且从理论上说,音频所包含的信息就是在序列中体现,就像一句话是靠各个短语和词汇按照一定顺序才能表达出它自己的意思。单纯的看两个句子里的词汇重叠数是完全不能判定两句话是否相似的。我们采用的是下面的算法,不过我们这只是实验性的代码,算法设计的很简单,效率不高。建议想要做更好的结果的同学可以使用改进的DTW算法。

我们在匹配过程中滑动指纹序列,每次比对模式串和源串的对应子串,如果对应位置的指纹相同,则这次的比对相似值加一,我们把滑动过程中得到的最大相似值作为这两首歌的相似度。

举例:

曲库中的一首曲子的指纹序列:[fp13, fp20, fp10, fp29, fp14, fp25, fp13, fp13, fp20, fp33, fp14]

检索音乐的指纹序列: [fp14, fp25, fp13, fp17]

比对过程:
Python은 음악 검색기의 기능을 구현합니다.

最终的匹配相似值为3

存储检索部分的实现代码

# coding=utf-8

import os

import MySQLdb

import my_audio


class memory():
 def __init__(self, host, port, user, passwd, db):
  '''
  初始化存储类
  :param host:主机位置
  :param port:端口
  :param user:用户名
  :param passwd:密码
  :param db:数据库名
  '''
  self.host = host
  self.port = port
  self.user = user
  self.passwd = passwd
  self.db = db

 def addsong(self, path):
  '''
  添加歌曲方法,将指定路径的歌曲提取指纹后放到数据库
  :param path:路径
  :return:
  '''
  if type(path) != str:
   print 'path need string'
   return None
  basename = os.path.basename(path)
  try:
   conn = MySQLdb.connect(host=self.host, port=self.port, user=self.user, passwd=self.passwd, db=self.db,
         charset='utf8')
   # 创建与数据库的连接
  except:
   print 'DataBase error'
   return None
  cur = conn.cursor()
  namecount = cur.execute("select * from fingerprint.musicdata WHERE song_name = '%s'" % basename)
  # 查询新添加的歌曲是否已经在曲库中了
  if namecount > 0:
   print 'the song has been record!'
   return None
  v = my_audio.voice()
  v.loaddata(path)
  v.fft()
  cur.execute("insert into fingerprint.musicdata VALUES('%s','%s')" % (basename, v.high_point.__str__()))
  # 将新歌曲的名字和指纹存到数据库中
  conn.commit()
  cur.close()
  conn.close()

 def fp_compare(self, search_fp, match_fp):
  '''
  指纹比对方法。
  :param search_fp: 查询指纹
  :param match_fp: 库中指纹
  :return:最大相似值 float
  '''
  if len(search_fp) > len(match_fp):
   return 0
  max_similar = 0
  search_fp_len = len(search_fp)
  match_fp_len = len(match_fp)
  for i in range(match_fp_len - search_fp_len):
   temp = 0
   for j in range(search_fp_len):
    if match_fp[i + j] == search_fp[j]:
     temp += 1
   if temp > max_similar:
    max_similar = temp
  return max_similar

 def search(self, path):
  '''
  从数据库检索出
  :param path: 需要检索的音频的路径
  :return:返回列表,元素是二元组,第一项是匹配的相似值,第二项是歌曲名
  '''
  v = my_audio.voice()
  v.loaddata(path)
  v.fft()
  try:
   conn = MySQLdb.connect(host=self.host, port=self.port, user=self.user, passwd=self.passwd, db=self.db,
         charset='utf8')
  except:
   print 'DataBase error'
   return None
  cur = conn.cursor()
  cur.execute("SELECT * FROM fingerprint.musicdata")
  result = cur.fetchall()
  compare_res = []
  for i in result:
   compare_res.append((self.fp_compare(v.high_point[:-1], eval(i[1])), i[0]))
  compare_res.sort(reverse=True)
  cur.close()
  conn.close()
  print compare_res
  return compare_res

 def search_and_play(self, path):
  '''
  跟上个方法一样,不过增加了将搜索出的最优结果直接播放的功能
  :param path: 带检索歌曲路径
  :return:
  '''
  v = my_audio.voice()
  v.loaddata(path)
  v.fft()
  # print v.high_point
  try:
   conn = MySQLdb.connect(host=self.host, port=self.port, user=self.user, passwd=self.passwd, db=self.db,
         charset='utf8')
  except:
   print 'DataBase error'
   return None
  cur = conn.cursor()
  cur.execute("SELECT * FROM fingerprint.musicdata")
  result = cur.fetchall()
  compare_res = []
  for i in result:
   compare_res.append((self.fp_compare(v.high_point[:-1], eval(i[1])), i[0]))
  compare_res.sort(reverse=True)
  cur.close()
  conn.close()
  print compare_res
  v.play(compare_res[0][1])
  return compare_res


if __name__ == '__main__':
 sss = memory('localhost', 3306, 'root', 'root', 'fingerprint')
 sss.addsong('taiyangzhaochangshengqi.wav')
 sss.addsong('beiyiwangdeshiguang.wav')
 sss.addsong('xiaozezhenger.wav')
 sss.addsong('nverqing.wav')
 sss.addsong('the_mess.wav')
 sss.addsong('windmill.wav')
 sss.addsong('end_of_world.wav')
 sss.addsong('pianai.wav')

 sss.search_and_play('record_beiyiwang.wav')

总结

我们这个实验很多地方都很粗糙,核心的算法是从shazam公司提出的算法吸取的“指纹”的思想。希望读者可以提出宝贵建议。

更多Python은 음악 검색기의 기능을 구현합니다.相关文章请关注PHP中文网!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.