텍스트/VR 자이로 Yuanqiao
올해 Apple 개발자 컨퍼런스(WWDC 2023)에서 팀 쿡은 잡스의 “한 가지 더”라는 표현을 이어받아 차세대 공간 컴퓨팅 제품인 Apple Vision Pro를 출시했습니다.
이것은 기억할 가치가 있는 역사적인 순간입니다. 더 중요한 것은 Apple이 신제품을 출시한 후 인간-컴퓨터 인터페이스 기술이 새로운 발전을 가져올 것이라는 점입니다. 또 한 걸음 더 나아갑니다.
'다시'라고 말하는 이유는 Apple이 신제품을 출시하기 전에 OpenAI가 ChatGPT 및 GPT 대형 모델을 출시하여 인간이 AI의 놀라운 능력을 충분히 느낄 수 있게 되었기 때문입니다. , 심지어 산업구조에 새로운 변화를 가져왔습니다.
AI+는 가상/증강현실 산업 발전의 핵심 요소로 여겨지며, 산업 심화를 촉진하는 기반 기술이기도 합니다. Apple은 항상 업계에서 "게임 규칙 설정자"였으며, AI 수준의 오랜 레이아웃 역사. 비록 애플은 올해 WWDC 2023 컨퍼런스에서 인공지능에 대해 언급하지는 않았지만, 이번 컨퍼런스에 나온 제품들과 새로운 Vision Pro를 통해 이를 엿볼 수 있습니다.
10년 넘게 Apple의 AI 레이아웃
6월 2일 외신 마크 구먼의 트위터에 따르면 애플은 인공지능 분야 인재를 모집하고 있다. 외신에 따르면 애플은 지난 5월부터 채용 포털에 최소 88개의 채용 공고를 올렸다. 시각적 생성 모델링, 능동 지능 및 응용 AI 연구.
사진: 마크 구먼 트위터
광고된 직책은 "생성 인공 지능 기술이 Apple의 모바일 컴퓨팅 플랫폼을 어떻게 변화시킬지 형성"하는 팀의 일원이며, 나아가 iPhone 및 Vision Pro와 같은 제품의 AI 애플리케이션이 더욱 확장될 것임을 나타냅니다.
그러나 인공 지능에 대한 Apple의 레이아웃은 실제로 2010년에 2억 달러에 Siri 팀을 인수했습니다. 2011년 iPhone 4s가 출시되면서 Siri는 오늘 Mac으로 확장되었습니다. 아이패드는 물론 새로 출시된 제품인 Vision Pro까지.
사진: Vision Pro에서 Siri 호출하기(출처: 인터넷)
차트: Apple 인수 개요(VR 자이로스코프 배열)
이 간단한 조작에 비해 사람들은 Siri가 실제로 인공 지능이라는 사실을 잊기 쉽지만 작동 원리는 ChatGPT와 다릅니다. Siri의 작동 원리 중 하나는 명령을 받으면 먼저 Apple의 데이터 센터로 전송된다는 것입니다. 데이터 센터는 명령 내용을 분석하고 알려진 답변을 제공합니다. 클라우드에 접속해서 답을 주세요." 잘 모르지만 인터넷에서 이런 정보를 찾았습니다." 등이 있습니다. ChatGPT에는 로컬 처리 흐름이 없으며 대규모 계산과 모델 추론에 직접적으로 의존하며 지침의 의미를 이해하는지 여부에 관계없이 답변을 제공할 수 있습니다.
출처: 인터넷
Apple은 항상 AI 개발에 신중해 왔으며, 머신러닝 기능을 강조하고 사용자에게 혜택을 제공하는 것을 선호했습니다. Cook이 WWDC 2023 컨퍼런스에서 언론과의 인터뷰에서 말했듯이 "우리는 (AI)를 고려합니다. 하지만 사람들은 그것을 반드시 인공 지능으로 생각하지는 않습니다.”이것이 바로 Apple이 Siri의 통제되지 않는 개발을 제한하는 이유입니다.
반면 Apple의 AI 전략은 성능과 보안이라는 두 가지 사항에 더 중점을 둡니다. 성능 수준에서 Apple은 제품 사용을 개선하기 위해 AI를 제품에 통합할 예정입니다. 보안은 개인 정보 보호이며, 개인 정보 보호는 Apple이 항상 중점을 두는 지점입니다. 예를 들어, Apple은 주로 관련 회사인 Perceptio를 인수했습니다. 인공지능 사진 분류. Perceptio는 자동 이미지 분류 외에도 사용자 데이터를 클라우드에 저장하지 않고도 개인 정보를 보호합니다.
2020년 Apple의 기계 학습 및 인공 지능 전략 수석 부사장 John Giannandrea와 제품 마케팅 부사장 Bob Borchers는 인터뷰에서 Apple의 AI 전략을 확인하고 Apple이 2018년에 iPhone을 허용하기 위해 이 프로세스를 가속화했다고 말했습니다. ISP 신경 엔진(중앙 처리 장치)과 긴밀하게 작동하지만 Apple은 AI 기능에 대해 너무 많이 이야기하지 않고 Transformer 언어 모델, 기계 학습 등을 강조합니다.
사진: 존 지아난드레아(출처: 인터넷)
Giannandrea와 Borchers는 또한 다음과 같이 분명히 밝혔습니다. 오늘날 기계 학습은 Apple의 제품 기능에서 중요한 역할을 하며 Apple에서 기계 학습의 적용은 계속해서 증가할 것입니다.
Apple Vision Pro에서 공개된 AI 기능
제너레이티브 AI가 붐을 이루는 올해, 많은 업계 관계자들은 애플이 올해 WWDC 2023 컨퍼런스에서도 AI에 관해 이야기할 것이라고 예상하고 있습니다. 하지만 약 2시간에 걸친 기자회견 동안 AI는 단 한 번도 언급되지 않았습니다. 제품. 자이로 씨는 비전 프로가 보여주는 AI 역량을 정리했다. AR/VR이 더 발전하려면 필연적으로 AI 기술의 지원과 떼려야 뗄 수 없을 것이라고 보는 것은 어렵지 않다.
1.AI 디지털 클론
AI에 대한 액세스는 디지털 피플의 제작을 더욱 현실적으로 만듭니다. 일부 웹 사이트에서도 사용자는 자신의 요구 사항을 충족하는 디지털 피플을 만들 수 있으며 VR 헤드셋의 추가 개발에서도 피할 수 없는 부분입니다. 메타는 디지털 휴먼의 실감 효과 측면에서 1.0보다 더욱 완성도 높은 코덱 아바타 버전 2.0을 출시했습니다.
출처: 인터넷
Vision Pro는 전면 카메라를 통해 사람의 얼굴 정보를 스캔하고, 머신러닝 기술을 기반으로 고급 코딩 신경망을 사용하여 사용자를 위한 "디지털 아바타"를 생성합니다. 그리고 사용자가 FaceTime 통화를 할 때 디지털 아바타는 디지털 아바타의 볼륨과 깊이를 유지하면서 사용자의 얼굴과 손 움직임을 동적으로 모방할 수 있습니다.
출처: 인터넷
Apple은 자사 팀이 이 기능을 적극적으로 최적화하고 있으며 향후 VisionOS 업데이트에서 디지털 사람들이 더욱 현실적으로 보이도록 만들 것이라고 말했습니다. 한편, 기자회견 결과로 볼 때, 디지털 아바타의 구성은 실제로 매우 현실적이며, 얼굴 정보를 스캔하는 데만 장치를 사용하면 된다는 점을 알 수 있습니다. 현재 시장을 능가했습니다. 디지털 아바타 소프트웨어를 구입하세요.
2.AI 감정 감지
애플은 2016년 AI 감정 탐지 기업을 인수했고, 외신 보도에 따르면 올해 애플은 인공지능 건강 지도 서비스와 감정 추적을 위한 쿼츠(Quartz)라는 신기술을 개발하고 있다.
Vision Pro 출시 후, 전 Apple 연구원인 Sterling Crispin은 Twitter에서 Vision Pro에 대한 많은 블랙 기술을 공개했습니다. 가장 놀라운 점은 Vision Pro가 몰입형 경험 중에 사용자의 신체 및 뇌 데이터를 통해 사용자의 정신 상태를 감지할 수 있다는 것입니다. "뇌-컴퓨터 인터페이스" 또는 "마음 읽기"는 Sterling Crispin이 말하는 방식입니다.
사진: 스털링 크리스핀 트위터 정보
이 기술의 기본 원리는 모든 사람의 눈동자가 어떤 일을 하기 전에 반응한다는 것입니다. 부분적으로는 클릭한 후에 어떤 일이 일어날 것이라고 기대하기 때문입니다. 따라서 Apple은 알고리즘을 통해 눈의 행동을 모니터링할 수 있습니다. 다시 쓴 문장: 더 많은 예상되는 동공 반응을 생성하기 위해 실시간으로 UI를 재설계하여 개별 뇌의 바이오피드백을 생성합니다.
출처: 인터넷
3. 더욱 스마트해진 입력 방법
안내 기능 및 공간 콘텐츠와의 사용자 상호 작용을 더욱 만족시키기 위해 Vision Pro는 눈, 제스처 및 음성과 상호 작용하고 애플리케이션을 보고 "탭/플릭" 제스처를 선택하여 적용하는 새로운 입력 시스템을 도입합니다. , 또는 음성 명령을 사용하여 앱을 탐색합니다.
출처: 인터넷
브라우저 검색창을 눈으로 보면 검색창은 받아쓰기 입력 상태로 진입합니다. 이때 검색하고 싶은 내용만 말하면 자동으로 텍스트를 입력한 후 검색할 수 있습니다. Siri를 사용하여 앱을 빠르게 열고 닫고, 미디어 파일을 재생하는 등의 작업을 수행하세요.
출처: 인터넷
Apple은 Vision Pro 도입 당시 입력 방식을 강조하지 않았지만, iOS 17 도입을 보면 Apple의 업데이트된 더욱 스마트해진 입력 방식으로 맞춤법 오류를 수정할 수 있을 뿐만 아니라 사용자가 입력 중에 발생하는 문법 오류도 수정할 수 있음을 알 수 있습니다. 프로세스. . 더 중요한 것은 장치 측 기계 학습을 기반으로 입력 방법이 각 사용자의 입력을 기반으로 모델을 자동으로 개선하여 입력 방법의 자동 수정 기능을 전례 없는 정확도로 끌어올린다는 것입니다.
출처: 인터넷
4. 새로운 운영체제 "visionOS"
Apple에 따르면 macOS, iOS 및 iPadOS의 연구 개발을 기반으로 짧은 대기 시간 요구 사항으로 매우 높은 공간 컴퓨팅 기능을 달성하기 위해 Vision Pro용 새로운 운영 체제 VisionOS를 각각 프레임워크, 공간 컴퓨팅이 내장되어 있습니다. 프레임워크, 공간 오디오 엔진, 3D 공간 엔진, 포비티드 렌더링 엔진, 실시간 드라이버 하위 시스템 등
출처: 인터넷
Apple에 따르면 VisionOS에는 새로운 AppStore가 생길 예정이며, 향후에는 3D 해부도 등 Vision Pro를 위해 특별히 개발된 더 많은 애플리케이션이 있을 예정입니다.
위에서 볼 수 있듯이 Vision Pro의 혁신은 AI의 발전과 불가분의 관계에 있습니다. Vision Pro의 공간 오디오 계산, 눈 움직임 및 손 행동 캡처에서 이러한 부분은 Apple의 인공지능 기술이 크게 기여한 영역입니다. M2에 의존합니다. 두 개의 칩과 R1이 제공하는 컴퓨팅 성능 지원은 인공 지능의 로컬 배포를 성공적으로 실현했습니다.
출처: 인터넷
Vision Pro에 숨겨진 유비쿼터스 AI 기능 외에도 AI 기술은 거의 모든 Apple 제품에서 볼 수 있습니다. AI는 제품의 거의 모든 세부 사항에 침투하여 AR에서 "AI+"의 역할을 더욱 입증했습니다. VR의 중요성 레벨 개발.
Apple은 AI에 대해 아무 말도 하지 않았지만 Cook은 인터뷰에서 "그는 개인적으로 ChatGPT를 사용하고 있으며 이 독특한 응용 프로그램에 대해 매우 기대하고 있으며 Apple이 현재 이 도구에 많은 관심을 기울이고 있다고 말했습니다."라고 Cook은 덧붙였습니다. 모델은 큰 가능성을 보여주지만 편견, 잘못된 정보, 경우에 따라 더 나쁜 정보가 나올 가능성도 있습니다. ”
저자의 의견에 따르면, 기술로서의 AI는 제품의 성능을 향상하고 인간에게 더 나은 서비스를 제공하는 데 사용되어야 합니다. 동시에 인공지능이나 머신러닝은 앞으로 더욱 보편화될 것입니다. 생성 AI에 관해서는 애플이 대중이 원하는 방식으로 개발하지 못할 수도 있지만, 애플이 조용히 이를 제품에 통합한 후에는 그렇게 될 것이라고 믿습니다. 확실히 사용자 경험을 개선하고 사람들의 눈을 밝게 만듭니다.
AR/VR 개발의 핵심, "AI+"
전자이로는 이전에 한 기사에서 'AI+'가 업계 경쟁 패턴에 미치는 영향을 분석한 바 있습니다. "교란자 GPT-4가 도래했으며 AR 산업 경쟁 패턴이 새로운 차원에 진입했습니다"를 클릭하면 읽을 수 있습니다. 업계 경쟁 패턴과는 별개로 'AI+'는 AR/VR 기기의 성능도 더 크게 향상시킬 것으로 보인다.
올해 Meta는 이미지 분할을 위한 새로운 모델인 SAM(Segment Anything Model)을 출시했습니다. Meta 블로그에 따르면 SAM은 객체에 대한 일반적인 개념을 배웠으며 모든 이미지나 비디오의 모든 객체에 대한 마스크를 생성할 수 있습니다. 훈련 중에 발견되지 않은 이미지 유형이 포함됩니다. SAM은 다양한 사용 사례에 적용할 수 있고 추가 교육 없이도 새로운 이미지 도메인에 즉시 적용할 수 있는 다용도 기술입니다.
아래 그림과 같이 SAM은 이미지의 모든 콘텐츠를 자동으로 매우 잘 분할할 수 있습니다.
출처: 인터넷
향후 SAM은 AR/VR 기기와 연결될 것으로 예상됩니다. 예를 들어 AR 안경을 통해 일상의 사물을 식별하는 데 사용할 수 있습니다. 사용자가 보는 사진은 AR 안경 애플리케이션과 협력하여 사용자에게 보고 있는 개체에 대한 알림과 지침을 표시합니다.
한편, 대규모 언어 모델의 발전은 음성 상호 작용 및 객체 인식을 위한 AR/VR 장치에 보다 몰입감 있는 상호 작용 경험을 제공할 수 있습니다. 대규모 언어 모델은 더 복잡한 자연어를 이해하고, 더 복잡한 자연어 처리 작업을 완료한 다음, 사용자가 음성 형태로 제공하는 복잡한 지시를 이해하고 응답할 수 있어 AR/VR 장치의 음성 상호 작용 경험을 향상시킬 수 있습니다. 컴퓨팅 성능이 지속적으로 향상되고 대규모 모델이 빠르게 반복됨에 따라 몰입형 AR/VR 경험을 위한 대화형 방법이 더욱 풍부해질 가능성이 높습니다.
두 번째로, 생성 AI의 개발은 AR/VR 애플리케이션에서 3D 생성 비용과 한계점을 더욱 줄이고 AR/VR에서 3D 소재에 대한 대규모 수요를 해결할 것입니다. 생성 AI가 3D 생성에 미치는 영향에 대해 Gyro 씨는 이전에 짧은 분석을 작성했습니다. 클릭하면 "AI 3D 생성이 다가오고 있습니까?"를 읽을 수 있습니다. '취업'이 현실이 된다.
출처: 인터넷
마지막으로 AR/VR을 통합한 "AI+"의 개발은 Apple 제품이든 Meta의 최신 레이아웃이든 AI가 장치 업데이트에 미치는 영향이든 AI 기술을 결합하는 것이 산업 발전의 주요 추세가 되었습니다. AR/VR 산업의 향후 발전에 있어 중요한 부분입니다.
그러나 AI의 발전에 대해 아직 명확한 규범 문서가 공개되지 않았다는 점은 언급할 가치가 있습니다. AI의 무제한적인 개발이 사용자 개인정보 침해, 사기, 데이터 유출, 인지 편향 등.
참고 기사:
1.https://arstechnica.com/gadgets/2020/08/apple-explains-how-it-uses-machine-learning-across-ios-and-soon-macos/
2.https://blog.roboflow.com/apple-vision-pro-visionos-computer-vision/
3. Apple의 인공지능 애플리케이션은 ChatGPT와 다릅니다
4. Apple Vision Pro에는 실제로 "뇌-컴퓨터 인터페이스"가 숨겨져 있나요?
5.Apple Vision Pro는 Apple의 어떤 AI 기능을 "유출"하나요?
협력을 원하시면연락주세요
게임탑 연락처:
사업 협력연결:
수박: (WeChat 1865903032)
원징: (WeChat mutou_kiki)
위 내용은 Apple Vision Pro에 숨겨진 "AI" 심층 분석의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!