>기술 주변기기 >일체 포함 >AI는 뇌 신호를 실시간으로 해석하고 LeCun이 전달한 7배 속도로 이미지의 주요 시각적 특징을 복원합니다.

AI는 뇌 신호를 실시간으로 해석하고 LeCun이 전달한 7배 속도로 이미지의 주요 시각적 특징을 복원합니다.

WBOY
WBOY앞으로
2023-10-19 14:13:01679검색

이제 AI가 뇌 신호를 실시간으로 해석할 수 있습니다!

특별한 내용은 아니지만, 뇌 신호를 기반으로 지금 보고 있는 사진을 0.5초 안에 추측하고 AI를 활용해 실시간으로 복원할 수 있다는 메타(Meta)의 새로운 연구입니다.

이전에는 AI가 뇌 신호로부터 이미지를 비교적 정확하게 복원할 수 있었지만 여전히 버그가 있습니다. 충분히 빠르지 않다는 것입니다.

이를 위해 Meta는 AI 이미지 검색 속도를 7배나 향상시키는 새로운 디코딩 모델을 개발했습니다. 사람들이 보고 있는 것을 거의 "즉시" 읽고 대략적인 추측을 할 수 있습니다.

서 있는 사람처럼 보임 .

AI는 뇌 신호를 실시간으로 해석하고 LeCun이 전달한 7배 속도로 이미지의 주요 시각적 특징을 복원합니다.Pictures

그렇다면 Meta는 어떻게 AI가 "두뇌를 빠르게 읽"도록 허용합니까?

뇌 활동 디코딩을 해석하는 방법은 무엇입니까? AI는 뇌 신호를 실시간으로 해석하고 LeCun이 전달한 7배 속도로 이미지의 주요 시각적 특징을 복원합니다.현재 AI가 뇌 신호를 읽고 이미지를 복원하는 방법은 크게 두 가지가 있습니다.

하나는 뇌의 특정 부분으로의 혈류 이미지를 생성할 수 있는 fMRI(기능적 자기공명영상)이고, 다른 하나는 뇌의 신경 전류에 의해 방출되는 극도로 약한 생물학적 자기장을 측정할 수 있는 MEG(자기뇌조영술)입니다. .

그러나 fMRI 신경 영상의 속도는 영상을 생성하는 데 평균 2초(약 0.5Hz)로 매우 느린 경우가 많습니다. 이와 대조적으로 MEG는 초당 수천 개의 뇌 활동 이미지(약 5000Hz)를 기록할 수도 있습니다.

그렇다면 fMRI에 비해 MEG 데이터를 이용해 '사람이 본 영상'을 복원해 보는 것은 어떨까요?

이 아이디어를 바탕으로 저자는 세 부분으로 구성된 MEG 디코딩 모델을 설계했습니다.

첫 번째 부분은 이미지에서 임베딩을 가져오는 사전 훈련된 모델입니다.

두 번째 부분은 MEG 데이터를 이미지 임베딩과 정렬하는 엔드투엔드 훈련 모델입니다. 사전 훈련된 이미지 생성기, 최종 이미지 복원을 담당합니다.

Pictures

훈련을 위해 연구원들은 THINGS-MEG라는 데이터 세트를 사용했습니다. 여기에는 4명의 젊은이(남성 2명, 여성 2명, 평균 연령 23.25세)가 이미지를 볼 때 기록된 MEG 데이터가 포함되어 있습니다.

이 청소년들은 총 22,448개의 이미지(1,854종)를 보았는데, 각 이미지는 0.5초 동안 표시되었으며, 그 중 0.8~1.2초의 간격이 반복적으로 표시되었습니다.

이 외에도 참가자들에게 공개되지 않았지만 이미지 검색에도 사용된 이미지가 3659개 있습니다. AI는 뇌 신호를 실시간으로 해석하고 LeCun이 전달한 7배 속도로 이미지의 주요 시각적 특징을 복원합니다.그럼 이렇게 훈련된 AI는 어떤 효과가 있을까요?

이미지 검색 속도가 7배 향상되었습니다

전체적으로 본 연구에서 설계된 MEG 디코딩 모델은 선형 디코더의 이미지 검색 속도보다 7배 빠릅니다.

그 중에서 CLIP과 같은 모델에 비해 Meta에서 개발한 시각적 Transformer 아키텍처 DINOv2는 이미지 특징 추출 성능이 더 좋고 MEG 데이터와 이미지 임베딩을 더 잘 정렬할 수 있습니다.

Pictures

저자는 전체 생성된 이미지를 가장 높은 일치도, 중간 일치도 및 가장 낮은 일치도의 세 가지 주요 범주로 나누었습니다.

PicturesAI는 뇌 신호를 실시간으로 해석하고 LeCun이 전달한 7배 속도로 이미지의 주요 시각적 특징을 복원합니다.그러나 생성된 예제에서 보면 , 이 AI에 의해 복원된 이미지 효과는 실제로 그다지 좋지 않습니다.

가장 복원된 이미지라도 일부 네티즌들은 여전히 ​​의문을 제기하고 있습니다. 팬더는 왜 팬더처럼 보이지 않나요?

AI는 뇌 신호를 실시간으로 해석하고 LeCun이 전달한 7배 속도로 이미지의 주요 시각적 특징을 복원합니다.Pictures

작가는 이렇게 말했습니다. 적어도 흑백 곰처럼요. (팬더가 화났어요!)

PicturesAI는 뇌 신호를 실시간으로 해석하고 LeCun이 전달한 7배 속도로 이미지의 주요 시각적 특징을 복원합니다.물론 연구자들도 MEG 데이터에서 복원된 이미지 효과가 현재로서는 그다지 좋지 않으며 가장 큰 장점은 속도라는 점을 인정합니다.

예를 들어 미네소타 대학 및 기타 기관의 7T fMRI라는 이전 연구에서는 fMRI 데이터에서 인간의 눈에 보이는 이미지를 높은 복구율로 복원할 수 있습니다.

AI는 뇌 신호를 실시간으로 해석하고 LeCun이 전달한 7배 속도로 이미지의 주요 시각적 특징을 복원합니다.사진

인간의 서핑 움직임이든, 비행기의 모양, 얼룩말의 색깔, 기차의 배경이든 fMRI 데이터를 기반으로 훈련된 AI는 이미지를 더 잘 복원할 수 있습니다.

AI는 뇌 신호를 실시간으로 해석하고 LeCun이 전달한 7배 속도로 이미지의 주요 시각적 특징을 복원합니다.Pictures

이에 대해서도 저자들은 MEG를 기반으로 AI가 복원한 시각적 특징이 상대적으로 발달했기 때문이라고 설명했다.

그러나 이에 비해 7T fMRI는 이미지에서 하위 수준의 시각적 특징을 추출하고 복원할 수 있으므로 생성된 이미지의 전체적인 복원률이 더 높습니다.

이런 유형의 연구가 어디에 사용될 수 있다고 생각하시나요?

논문 주소:
https://www.php.cn/link/f40723ed94042ea9ea36bfb5ad4157b2

위 내용은 AI는 뇌 신호를 실시간으로 해석하고 LeCun이 전달한 7배 속도로 이미지의 주요 시각적 특징을 복원합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제