개와 인간은 지난 15,000년 동안 공진화해 왔습니다. 요즘 개들은 인간의 환경에서 애완동물로 살아가는 경우가 많습니다. 때때로 개들은 사람들처럼 집에서 비디오를 보고 이해하는 것처럼 보입니다.
그렇다면 개의 눈에 세상은 어떤 모습일까요?
최근 에모리 대학의 연구에서는 개의 뇌에서 시각적 이미지를 해독하여 개의 뇌가 자신이 보는 것을 어떻게 재구성하는지 처음으로 밝혀냈습니다. 이 연구는 Journal of Visualized Experiments에 게재되었습니다.
논문 주소: https://www.jove.com/t/64442/through-dog-s-eyes-fmri-decoding-naturalistic-videos-from-dog
연구원들은 두 개의 fMRI를 기록했습니다. 총 90분 동안 세 차례에 걸쳐 30분짜리 비디오를 시청하면서 깨어 있고 제한되지 않은 개들의 신경 데이터. 그런 다음 기계 학습 알고리즘을 사용하여 신경 데이터의 패턴을 분석했습니다.
에모리 대학교 심리학과 교수이자 논문의 공동 저자인 Gregory Berns는 다음과 같이 말했습니다. "우리는 개가 비디오를 보는 동안 개의 뇌 활동을 모니터링하고 개가 보고 있는 것을 어느 정도 재구성할 수 있습니다. 우리는 이렇게 할 수 있습니다. 정말 놀랍습니다."
Berns와 동료들은 개에게 fMRI 스캐닝 기술을 사용하는 방법을 개척했으며 개들이 신경 활동을 측정하는 동안 완전히 움직이지 않고 억제되지 않은 상태를 유지하도록 훈련했습니다. 10년 전, 팀은 완전히 깨어 있고 제한되지 않은 개들의 최초의 fMRI 뇌 이미지를 공개하여 Berns가 "개 프로젝트"라고 부르는 일의 문을 열었습니다.
Berns와 Callie는 완전히 깨어 있고 제한되지 않은 상태에서 뇌 활동을 스캔한 최초의 개입니다.
수년에 걸쳐 Berns의 연구실에서는 개의 뇌가 시각, 언어, 냄새 및 보상(예: 칭찬이나 음식 받기)을 처리하는 방식에 대한 여러 연구를 발표했습니다.
동시에 기계 학습 기술이 계속 발전하여 과학자들이 인간 두뇌의 활동 패턴 중 일부를 해독할 수 있게 되었습니다. Berns는 유사한 기술이 개의 뇌에도 적용될 수 있는지 궁금해하기 시작했습니다.
이 새로운 연구는 기계 학습과 fMRI 기술을 기반으로 합니다. fMRI는 자기공명영상을 사용하여 신경 활동으로 인한 혈역학의 변화를 측정하는 신경 영상 기술입니다. 이 기술은 비침습적이며 뇌 기능 위치 파악 분야에서 중요한 역할을 합니다. 인간 외에도 이 기술은 일부 영장류를 포함한 소수의 다른 종에서만 사용되었습니다.
2마리의 개가 실험에 사용되었습니다. 이는 기계 학습, fMRI 및 기타 기술이 개 분석에 일반적으로 사용될 수 있음을 증명했습니다. 연구원들은 또한 이 연구가 다른 사람들에게도 더 깊은 도움이 되기를 바랍니다. 다양한 동물들이 어떻게 생각하는지 자세히 알아보세요.
실험 과정은 대략 다음과 같습니다.
실험 참가자: Bhubo, 4세 Daisy, 11세. 두 개 모두 이전에 여러 fMRI 훈련 세션(Bhubo: 8개 세션, Daisy: 11개 세션)에 참여했으며, 그 중 일부는 화면에 투사된 시각적 자극을 보는 것과 관련이 있었습니다. 두 마리의 개는 주인의 눈에 띄지 않고 돌아다니지 않고 스캐너 내부에 장기간 머물 수 있는 능력 때문에 선택되었습니다.
동영상 촬영: 개의 관점에서 동영상을 촬영하여 개의 일상적인 장면을 포착합니다. 이러한 시나리오에는 걷기, 먹이 주기, 놀기, 인간과의 상호 작용, 개 대 개 상호 작용 등이 포함됩니다. 영상은 개와 인간이 껴안고 있는 모습, 개가 달리는 모습, 산책하는 모습 등 각각의 장면을 256개의 독특한 장면으로 편집했다. 각 장면에는 내용에 따라 고유한 번호와 라벨이 지정됩니다. 그런 다음 해당 장면은 각각 약 6분 길이의 5개의 더 큰 편집 비디오로 편집되었습니다.
실험 설계: 참가자들은 먼저 MRI 구멍 뒤의 화면에 투사되는 편집 영상을 보면서 3T MRI를 사용하여 스캔을 받았습니다. 개들의 경우 사전 훈련을 통해 아래 사진처럼 머리를 맞춤형 턱받이에 위치시켜 안정적인 머리 위치를 확보하고 있습니다
실험은 3회에 걸쳐 시청하였으며, 1회 시청은 30분이었습니다. 영상 총 소요시간은 90분입니다.
실험 중 fMRI를 이용해 개를 동시에 스캔한 후, 데이터를 분석한 결과는 트윈 신경망(SNN) 기반의 비선형 방식인 Ivis 머신러닝 알고리즘을 사용했으며, 생물학적 데이터의 고차원 성공을 분석하는 데 사용되었습니다. 또한 scikit-learn, RFC 등의 머신러닝 알고리즘도 실험에 사용되었습니다.
Daisy가 스캔되는 동안 소음을 제거하기 위해 귀마개를 제자리에 고정하기 위해 귀에 테이프를 붙였습니다.
이 연구는 인간과 개의 두뇌가 어떻게 작동하는지 비교했습니다. 두 명의 인간 피험자의 결과에 따르면 신경망을 사용하여 뇌 데이터를 객체 기반 및 행동 기반 분류기에 매핑한 모델은 99%의 정확도로 개 뇌 패턴을 디코딩할 때 잘 수행되었지만 개를 디코딩하는 동안에는 잘 수행되었습니다. 동작 분류, 정확도는 75% - 88%에 도달했습니다. 이는 아래 인간(A)과 개(B)에 대한 실험 결과에서 볼 수 있듯이 인간과 개의 뇌가 작동하는 방식에 상당한 차이가 있음을 보여줍니다. 이와 관련하여 Berns는 다음과 같이 결론을 내렸습니다. "우리 인간은 우리가 보는 것에 매우 관심이 있지만 개는 자신이 누구를 보거나 무엇을 보는지보다는 행동 행동에 더 관심을 두는 것 같습니다." 연구 세부 사항에 대해 자세히 알아 보려면 논문의 원본 텍스트를 확인하세요.
위 내용은 개는 세상을 어떻게 볼까? 인간 연구자들은 개 뇌의 시각적 인지를 해독하기 시작했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!