4월 10일 뉴스에 따르면, 미국 코넬대학교 연구진이 음파탐지기 안경을 통해 소리 없이 의사소통을 할 수 있는 신기술을 개발했다고 합니다. 안경은 작은 스피커와 마이크를 사용하여 착용자가 조용히 말하는 단어를 읽어주므로 물리적 입력 없이도 다양한 작업을 수행할 수 있습니다.
코넬 박사과정 학생인 Ruidong Zhang이 주도한 이 기술은 이전 모델이 카메라에 의존했던 것과 달리 무선 헤드셋을 사용한 유사한 프로젝트를 개선한 것입니다.
IT House에 따르면 소나 안경은 EchoSpeech라는 무음 음성 인식 인터페이스를 사용합니다. EchoSpeech는 소나를 사용하여 입 움직임을 감지하고 딥 러닝 알고리즘을 사용하여 에코 특성을 실시간으로 분석합니다. 이를 통해 시스템은 착용자가 조용히 말한 단어를 약 95%의 정확도로 인식할 수 있습니다.
이 기술의 가장 흥미로운 전망 중 하나는 언어 장애가 있는 사람들이 이 기술을 사용하여 음성 합성기에 자동으로 대화를 입력한 다음 큰 소리로 단어를 말할 수 있다는 것입니다. 이 안경은 조용한 도서관에서 음악 재생을 제어하거나 시끄러운 콘서트에서 정보를 구술하는 데에도 사용할 수 있습니다.
이 기술은 작고 저전력이며 사용자의 휴대폰에 데이터가 남지 않기 때문에 개인 정보를 침해하지 않습니다. 이렇게 하면 개인 정보 보호 문제가 없습니다. 이 안경은 착용이 매우 편리하며 다른 무성 음성 인식 기술보다 더 실용적이고 실행 가능합니다.
연구원들은 시스템이 사용자의 음성 패턴을 학습하는 데 단 몇 분의 훈련 데이터만 필요하다고 말했습니다. 학습이 완료된 후 사용자의 얼굴을 향해 음파를 보내고 받고, 입 움직임을 감지하고, 딥러닝 알고리즘을 사용하여 분석할 수 있습니다. 응답의 특성. 시스템은 현재 31개의 분리된 명령과 일련의 연속된 숫자를 인식할 수 있으며 오류율은 10% 미만입니다.
현재 버전의 시스템은 약 10시간의 배터리 수명을 제공하며 블루투스를 통해 사용자의 스마트폰과 무선으로 통신할 수 있습니다. 스마트폰은 모든 데이터를 처리하고 예측하는 역할을 하며 그 결과를 음악 재생, 스마트 장치와 상호 작용 또는 음성 지원 활성화를 가능하게 하는 여러 "동작 키"로 전송합니다.
코넬대학교의 미래 상호작용을 위한 지능형 컴퓨터 인터페이스(SciFi) 연구소는 코넬 보조금 프로그램을 활용하여 이 기술의 상용화 가능성을 모색하고 있습니다.
위 내용은 과학자들이 입술 읽기를 95% 정확도로 인식할 수 있는 인공지능 소나 안경을 개발했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!