>  기사  >  기술 주변기기  >  스크립트를 동영상으로 변환, 인공지능은 한 단계만 수행합니다.

스크립트를 동영상으로 변환, 인공지능은 한 단계만 수행합니다.

WBOY
WBOY앞으로
2023-04-14 21:16:012125검색

Meta는 작업을 발표하는 블로그 게시물에서 다음과 같이 말했습니다. “제너레이티브 AI 연구는 사람들에게 단 몇 문장 또는 단 몇 줄의 텍스트만으로 새로운 콘텐츠를 빠르고 쉽게 만들 수 있는 도구를 제공하여 창의적 표현을 발전시킵니다. 비디오는 생생한 색상과 풍경으로 가득 찬 독특한 비디오를 만들어 상상력을 생생하게 만들어줍니다.”라고 Meta CEO Mark Zuckerberg는 Facebook에서 말했습니다. “놀라운 발전”이라고 덧붙였습니다. 각 픽셀을 올바르게 생성하는 것 외에도 시스템은 시간이 지남에 따라 픽셀이 어떻게 변할지 예측해야 합니다."

스크립트를 동영상으로 변환, 인공지능은 한 단계만 수행합니다. 이 비디오는 5초를 넘지 않으며 오디오가 포함되어 있지 않지만 많은 팁이 포함되어 있습니다. 모델의 성능을 판단하는 가장 좋은 방법은 출력을 관찰하는 것입니다. 그러나 현재는 누구도 모델에 액세스할 수 없습니다. 이는 개발자가 시스템을 가장 잘 보여주기 위해 이러한 클립을 신중하게 선택했음을 의미합니다.

다시 말하지만, 이 비디오는 분명히 컴퓨터로 생성되었지만 이 AI 모델의 출력은 가까운 미래에 빠르게 향상될 것입니다. 대조적으로, 불과 몇 년 만에 AI 이미지 생성기는 이해할 수 없는 전체 그림을 생성하는 것에서 실제와 같은 콘텐츠로 발전했습니다. 주제가 거의 무한대로 복잡하기 때문에 비디오 진행이 느려질 수 있지만 원활한 비디오 생성의 가치는 많은 기관과 회사가 프로젝트에 상당한 자원을 투자하도록 영감을 줄 것입니다.

텍스트-이미지 모델과 마찬가지로 유해한 애플리케이션이 있을 수 있습니다.

Make-a-Video를 발표하는 블로그 게시물에서 Meta는 비디오 생성 도구가 "크리에이터와 아티스트에게" 매우 귀중한 도구가 될 수 있다고 언급했습니다. 그러나 텍스트-이미지 패턴과 마찬가지로 전망도 좋지 않습니다. 이러한 도구의 결과는 허위 정보 및 선전에 사용될 수 있습니다. Meta는 "이러한 생성 AI 시스템을 구축하는 방법에 대한 사려 깊은 생각을 전달"하기를 희망하며 Make-A-Video 모델에 대한 논문을 하나만 발표했습니다. 회사는 시스템의 데모 버전을 출시할 계획이라고 밝혔지만 해당 모델에 대한 액세스가 언제, 어떻게 제한될지는 밝히지 않았습니다.

Meta가 AI 비디오 생성기를 다루는 유일한 에이전시는 아니라는 점을 언급할 가치가 있습니다. 올해 초 칭화대학교와 베이징 인공지능 아카데미(BAAI) 연구팀은 CogVideo라는 자체 텍스트-비디오 모델을 출시했습니다.

Meta의 연구원들은 이 모델을 설명하는 논문에서 Make-A-Video가 이미지와 캡션 쌍은 물론 레이블이 지정되지 않은 비디오 클립에 대해 훈련되었다고 언급했습니다. 교육 콘텐츠는 수십만 시간의 영상에 걸쳐 수백만 개의 비디오가 포함된 두 개의 데이터 세트(WebVid-10M 및 HD-VILA-100M)에서 제공됩니다. 여기에는 Shutterstock과 같은 사이트에서 만들고 웹에서 스크랩한 스톡 비디오 클립이 포함됩니다.

연구원들은 논문에서 흐릿한 영상과 고르지 못한 애니메이션 외에도 이 모델에는 여러 가지 기술적 한계가 있다고 지적합니다. 예를 들어, 그들의 훈련 방법은 비디오를 시청하는 사람에 의해서만 추론될 수 있는 정보(예: 손을 흔드는 비디오가 왼쪽에서 오른쪽으로 이동하는지 아니면 오른쪽에서 왼쪽으로 이동하는지)를 학습할 수 없습니다. 다른 문제로는 5초보다 긴 비디오 생성, 여러 장면과 이벤트가 포함된 비디오, 더 높은 해상도 등이 있습니다. 메이크어비디오(Make-A-Video)는 현재 64*64픽셀 해상도로 16프레임의 영상을 출력한 뒤, 별도의 인공지능 모델을 사용해 크기를 768*768로 늘린다.

Meta 팀은 또한 웹에서 스크랩한 데이터를 사용하여 훈련된 모든 AI 모델과 마찬가지로 Make-A-Video도 해로운 편견을 포함한 사회적 편견을 학습하고 잠재적으로 과장한다는 점에 주목했습니다. 텍스트-이미지 모델에서 이러한 편견은 종종 사회적 편견을 강화합니다. 예를 들어, 터번을 쓴 사람을 묘사할 가능성이 있는 "테러리스트"의 이미지를 생성하도록 요청합니다. 그러나 공개 액세스가 없으면 Meta의 모델이 학습한 편견이 무엇인지 말하기가 어렵습니다.

Meta는 회사가 "이 생성적 AI 연구 및 결과를 기술 커뮤니티와 공개적으로 공유하여 피드백을 얻고 있으며 책임 있는 AI 프레임워크를 계속 사용하여 이 새로운 기술 방법에 대한 접근 방식을 개선하고 발전시킬 것"이라고 말했습니다.

회화와 영상 분야의 인공지능 생성기가 점점 대중화됨에 따라, 다른 예술(예: 음악)을 위한 인공지능 생성 도구도 곧(어쩌면 이미) 나타날 것이라고 믿습니다.

위 내용은 스크립트를 동영상으로 변환, 인공지능은 한 단계만 수행합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제