안녕하세요 여러분.
짧은 영상을 보다가 이런 영상을 보신 적 있으신가요? 영상 속 인물의 정적인 모습이 고개를 기울이거나 눈을 깜박이는 등 움직일 수 있습니다.
아래 효과와 유사합니다
맨 왼쪽의 캐릭터가 오리지널 액션, 위의 것이 정지된 모습입니다. AI 기술을 통해 맨 왼쪽에 있는 캐릭터의 움직임을 위의 정적인 사진에 적용해 모든 사진이 동일한 움직임을 만들 수 있도록 해준다.
이 기술은 일반적으로 GAN(Generative Adversarial Network)을 기반으로 구현됩니다. 오늘은 위의 효과를 재현할 수 있는 오픈 소스 프로젝트를 공유하고 옛 친구를 기억할 수 있습니다.
프로젝트 주소: https://github.com/AliaksandrSiarohin/first-order-model
먼저 git clone이 프로젝트를 로컬로 다운로드하고 해당 프로젝트에 들어가 종속성을 설치합니다.
git clone https://github.com/AliaksandrSiarohin/first-order-model.git<br>cd first-order-model<br>pip install -r requirements.txt
그런 다음 프로젝트 홈페이지의 Pre-trained checkpoint라는 제목 아래에서 모델 다운로드 링크를 찾아 모델 파일을 다운로드합니다. vox-adv-cpk.pth.tar를 사용했습니다.
모델 파일을 준비한 후 프로젝트 루트 디렉터리에서 다음 명령어를 실행합니다.
python demo.py<br>--config config/vox-adv-256.yaml <br>--driving_video src_video.mp4 <br>--source_image src_img.jpg <br>--checkpoint weights/vox-adv-cpk.pth.tar
매개변수 설명:
이 완료되면 다음과 같은 입력이 표시됩니다.
이 프로젝트는 PyTorch를 사용하여 신경망을 구축하고 GPU 및 CPU 작동을 지원하므로 컴퓨터에 CPU만 있으면 작동이 느려집니다.
위 사진에서 볼 수 있듯이, Driving_video는 31프레임만 가지고 있습니다. CPU에서도 실행 중인 경우, Driving_video 비디오의 지속 시간을 제어하는 것이 가장 좋습니다. 그렇지 않으면 실행 시간이 길어집니다.
이 프로젝트를 통해 스스로 흥미로운 시도를 할 수 있습니다.
위에서는 공식 웹사이트에 따라 명령줄에서 프로젝트를 실행하는 방법을 설명합니다.
어떤 친구들은 Python 프로젝트에서 호출하고 싶어할 수도 있으므로, Demo.py에서 핵심 코드를 추출하고 Python API를 캡슐화했습니다.
필요한 친구들은 이 파일을 다운받아 first-order-model과 같은 디렉토리에 넣고, 다음 코드에 따라 호출하면 됩니다.
rreee위 내용은 Python+AI가 정적 그림을 움직입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!