소라 이후 실제로 새로운 AI 영상 모델이 등장했는데, 정말 놀랍고 모두가 좋아하게 만드는군요!
Pictures
이를 통해 "서둘러"의 악당 Gao Qiqiang이 Luo Xiang으로 변신하고 모든 사람(개 머리)을 교육할 수 있습니다.
이것은 Alibaba의 최신 오디오 기반 인물 사진 비디오 생성 프레임워크인 EMO(Emote Portrait Alive)입니다.
단일 참조 이미지와 오디오(말, 노래, 랩)를 입력하여 생생한 표현이 포함된 AI 동영상을 생성할 수 있습니다. 비디오의 최종 길이는 입력 오디오의 길이에 따라 달라집니다.
AI 효과 경험 베테랑 참가자 모나리자에게 독백을 낭송하도록 요청할 수 있습니다.
젊고 잘생긴 디카프리오가 빠른 속도로 진행되는 랩 장기자랑을 선보이며 입 모양을 따라갈 수 없습니다. 질문:
광둥어 립싱크도 할 수 있어서 형 Leslie Cheung에게 Eason Chan의 "Unconditional"을 불러달라고 부탁했습니다. 노래하기(다양한 스타일의 초상화와 노래), 초상화가 말하게 하기(다양한 언어로), 다양한 배우 간 공연을 선보이는 EMO 효과는 우리를 잠시 놀라게 했습니다.
네티즌들은 "우리는 새로운 현실로 진입하고 있다!"라고 외쳤다.
일부 네티즌들은 심지어 영상을 만들기 시작했다. EMO 탭을 당겨 효과를 프레임별로 분석하세요. 아래 영상처럼 주인공은 소라가 생성한 AI 아가씨입니다. 이번에 불러주신 노래는 '지금 시작하지 마세요' 입니다.
이 영상의 일관성이 이전보다 훨씬 좋아졌습니다!
1분이 넘는 영상에서 소라씨 얼굴의 선글라스는 거의 움직이지 않고, 귀와 눈썹도 독립적으로 움직입니다.가장 신나는 점은 소라씨의 목이 정말 숨을 쉬고 있는 것 같다는 것입니다! 노래를 부르면서 몸이 떨리고 살짝 움직여서 깜짝 놀랐어요!
Pictures
그런데 EMO는 핫한 신기술이라 유사제품과의 비교는 불가피합니다 -어제, AI 영상발전회사 피카에서도 영상더빙을 출시했습니다 문자 및 "립싱크"” 립싱크 기능이 충돌했습니다.
비교 후 댓글 영역의 네티즌들은 알리에게 맞았다는 결론을 내 렸습니다.
EMO는 논문을 공개하고 오픈 소스라고 발표했습니다. 하지만! 오픈소스임에도 불구하고 GitHub에는 여전히 숏 포지션이 존재합니다.
은 네티즌들을 지지왕 못지않게 불안하게 만들었습니다.
소라와는 다른 건축물
EMO 논문이 나오자마자 서클 안의 많은 사람들이 안도의 한숨을 쉬었습니다.
EMO는 DiT와 같은 아키텍처를 기반으로 하지 않습니다. 즉, 기존 UNet을 대체하기 위해 Transformer를 사용하지 않습니다. 백본 네트워크는 Stable Diffusion 1.5에서 수정되었습니다.
구체적으로 EMO는 입력 비디오의 길이에 따라 길이에 관계없이 비디오를 생성할 수 있는 표현력이 풍부한 오디오 기반 인물 비디오 생성 프레임워크입니다.
Pictures
프레임워크는 주로 두 단계로 구성됩니다.
- 프레임 인코딩 단계
참조 이미지와 비디오 프레임에서 특징을 추출하는 ReferenceNet이라는 UNet 네트워크를 배포합니다.
- 확산 단계
먼저 사전 훈련된 오디오 인코더가 오디오 임베딩을 처리하고, 얼굴 영역 마스크를 다중 프레임 노이즈와 결합하여 얼굴 이미지 생성을 제어합니다.
그러면 백본 네트워크가 잡음 제거 작업을 주도합니다. 백본 네트워크에는 참조 주의와 오디오 주의라는 두 가지 유형의 주의가 적용되며, 이는 각각 캐릭터의 정체성 일관성을 유지하고 캐릭터의 움직임을 조절하는 역할을 합니다.
또한 시간 모듈은 시간 차원을 조작하고 이동 속도를 조정하는 데 사용됩니다.
교육 데이터 측면에서 팀은 250시간 이상의 비디오와 1,500만 개 이상의 이미지를 포함하는 크고 다양한 오디오 및 비디오 데이터 세트를 구축했습니다.
최종 구현의 구체적인 특징은 다음과 같습니다.
- 문자 정체성 일관성을 보장하면서 입력 오디오를 기반으로 모든 길이의 비디오를 생성할 수 있습니다(시연에서 제공되는 가장 긴 단일 비디오는 1분 49초입니다).
- 다양한 언어로 대화 및 노래 지원(데모에는 중국어, 광둥어, 영어, 일본어, 한국어가 포함됨)
- 다양한 그림 스타일 지원(사진, 전통 회화, 만화, 3D 렌더링, AI 디지털 인물)
사진
정량적 비교도 기존 방식에 비해 크게 개선돼 SOTA를 달성했고, 립싱크 품질을 측정하는 싱크넷 지표와 비교해도 약간 뒤떨어지는 수준이다.
Pictures
확산 모델에 의존하지 않는 다른 방법에 비해 EMO는 시간이 더 많이 걸립니다.
그리고 명시적인 제어 신호가 사용되지 않아 손과 같은 다른 신체 부위가 의도치 않게 생성될 수 있으므로 잠재적인 해결책은 신체 부위에 특별히 제어 신호를 사용하는 것입니다.
EMO 팀
마지막으로 EMO 팀의 구성원들을 살펴보겠습니다.
문서에 따르면 EMO 팀은 Alibaba 지능형 컴퓨팅 연구소 출신입니다.
Linrui Tian, Qi Wang, Bang Zhang 및 Liefeng Bo라는 네 명의 작가가 있습니다.
Pictures
그중 Liefeng Bo는 현재 Alibaba Tongyi 연구소의 XR 연구소 소장입니다.
Bo Liefeng 박사는 시안 전자 과학 기술 대학교를 졸업하고 시카고 대학교와 워싱턴 대학교에서 박사후 연구를 진행했습니다. 주로 ML, CV 및 로봇공학을 연구하고 있습니다. Google Scholar 인용 횟수는 13,000회를 초과합니다.
Alibaba에 합류하기 전에는 먼저 Amazon 시애틀 본사에서 수석 과학자로 근무한 후 JD Digital Technology Group의 AI 연구소에 수석 과학자로 합류했습니다.
2022년 9월 Bo Liefeng이 Alibaba에 합류했습니다.
Pictures
EMO는 Alibaba가 AIGC 분야에서 성공을 거둔 것이 처음이 아닙니다.
Pictures
OutfitAI 원클릭 의상 변경이 가능한 누구나 가능합니다.
Pictures
또한 Animate누구나 전 세계의 고양이와 개를 목욕춤으로 추게 만듭니다.
아래는 이렇습니다.
사진
이제 EMO가 출시되자 많은 네티즌들은 알리바바가 여기에 기술을 축적했다고 한탄하고 있습니다.
사진
이 모든 기술이 지금 합쳐지면 효과는...
감히 생각지도 못하지만 기대가 됩니다.
Pictures
한마디로 "대본을 AI에 보내고 영화 전체를 출력하는 것"에 가까워지고 있습니다.
Pictures
One More Thing
Sora는 텍스트 기반 비디오 합성의 획기적인 발전을 보여줍니다.
EMO는 또한 새로운 수준의 오디오 기반 비디오 합성을 나타냅니다.
두 가지 작업과 특정 아키텍처가 다르지만 중요한 공통점이 한 가지 있습니다.
중간에 명시적인 물리적 모델은 없지만 둘 다 어느 정도 물리적 법칙을 시뮬레이션합니다.
그래서 어떤 사람들은 이것이 "픽셀을 생성하여 행동을 위해 세계를 모델링하는 것은 낭비이고 실패할 수밖에 없다"는 Lecun의 주장에 어긋난다고 생각하며 Jim Fan의 "데이터 기반 세계 모델" 아이디어를 뒷받침합니다.
Pictures
과거에는 다양한 방법이 실패했지만, 현재의 성공은 정말 노력이 기적을 낳는 강화학습의 아버지 서튼의 "Bitter Lessons"에서 나올 수 있습니다.
AI가 사람들이 발견한 것을 담는 것이 아니라 사람처럼 발견할 수 있게 하세요
획기적인 발전은 궁극적으로 컴퓨팅 규모를 확장함으로써 달성됩니다.
Paper: https://www.php.cn/link/ a717f41c203cb970f96f706e4b12617bGitHub :https://www.php.cn/link/e43a09ffc30b44cb1f0db46f87836f40
참조 링크:
[1]https://www.php.cn/link /0dd4f2526c7c874d06f19523264f6552
위 내용은 AI 영상 또 폭발! 사진+목소리가 영상으로 바뀐 알리바바는 히로인 소라에게 리지지와 함께 노래와 랩을 부탁했다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

ai合并图层的快捷键是“Ctrl+Shift+E”,它的作用是把目前所有处在显示状态的图层合并,在隐藏状态的图层则不作变动。也可以选中要合并的图层,在菜单栏中依次点击“窗口”-“路径查找器”,点击“合并”按钮。

ai橡皮擦擦不掉东西是因为AI是矢量图软件,用橡皮擦不能擦位图的,其解决办法就是用蒙板工具以及钢笔勾好路径再建立蒙板即可实现擦掉东西。

虽然谷歌早在2020年,就在自家的数据中心上部署了当时最强的AI芯片——TPU v4。但直到今年的4月4日,谷歌才首次公布了这台AI超算的技术细节。论文地址:https://arxiv.org/abs/2304.01433相比于TPU v3,TPU v4的性能要高出2.1倍,而在整合4096个芯片之后,超算的性能更是提升了10倍。另外,谷歌还声称,自家芯片要比英伟达A100更快、更节能。与A100对打,速度快1.7倍论文中,谷歌表示,对于规模相当的系统,TPU v4可以提供比英伟达A100强1.

ai可以转成psd格式。转换方法:1、打开Adobe Illustrator软件,依次点击顶部菜单栏的“文件”-“打开”,选择所需的ai文件;2、点击右侧功能面板中的“图层”,点击三杠图标,在弹出的选项中选择“释放到图层(顺序)”;3、依次点击顶部菜单栏的“文件”-“导出”-“导出为”;4、在弹出的“导出”对话框中,将“保存类型”设置为“PSD格式”,点击“导出”即可;

ai顶部属性栏不见了的解决办法:1、开启Ai新建画布,进入绘图页面;2、在Ai顶部菜单栏中点击“窗口”;3、在系统弹出的窗口菜单页面中点击“控制”,然后开启“控制”窗口即可显示出属性栏。

Yann LeCun 这个观点的确有些大胆。 「从现在起 5 年内,没有哪个头脑正常的人会使用自回归模型。」最近,图灵奖得主 Yann LeCun 给一场辩论做了个特别的开场。而他口中的自回归,正是当前爆红的 GPT 家族模型所依赖的学习范式。当然,被 Yann LeCun 指出问题的不只是自回归模型。在他看来,当前整个的机器学习领域都面临巨大挑战。这场辩论的主题为「Do large language models need sensory grounding for meaning and u

ai移动不了东西的解决办法:1、打开ai软件,打开空白文档;2、选择矩形工具,在文档中绘制矩形;3、点击选择工具,移动文档中的矩形;4、点击图层按钮,弹出图层面板对话框,解锁图层;5、点击选择工具,移动矩形即可。

引入密集强化学习,用 AI 验证 AI。 自动驾驶汽车 (AV) 技术的快速发展,使得我们正处于交通革命的风口浪尖,其规模是自一个世纪前汽车问世以来从未见过的。自动驾驶技术具有显着提高交通安全性、机动性和可持续性的潜力,因此引起了工业界、政府机构、专业组织和学术机构的共同关注。过去 20 年里,自动驾驶汽车的发展取得了长足的进步,尤其是随着深度学习的出现更是如此。到 2015 年,开始有公司宣布他们将在 2020 之前量产 AV。不过到目前为止,并且没有 level 4 级别的 AV 可以在市场


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

mPDF
mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

Dreamweaver Mac版
시각적 웹 개발 도구

에디트플러스 중국어 크랙 버전
작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음

안전한 시험 브라우저
안전한 시험 브라우저는 온라인 시험을 안전하게 치르기 위한 보안 브라우저 환경입니다. 이 소프트웨어는 모든 컴퓨터를 안전한 워크스테이션으로 바꿔줍니다. 이는 모든 유틸리티에 대한 액세스를 제어하고 학생들이 승인되지 않은 리소스를 사용하는 것을 방지합니다.
