>일반적인 문제 >인공 신경망 알고리즘

인공 신경망 알고리즘

(*-*)浩
(*-*)浩원래의
2019-06-04 10:00:415299검색

인공 신경망의 많은 알고리즘이 지능형 정보 처리 시스템에 널리 사용되었으며, 특히 ART 네트워크, LVQ 네트워크, Kohonen 네트워크 및 Hopfield 네트워크의 네 가지 알고리즘이 사용되었습니다.

인공 신경망 알고리즘

다음은 이 네 가지 알고리즘에 대한 자세한 소개입니다.

1. 적응형 공명 이론(ART) 네트워크

적응 공명 이론(ART) 네트워크는 다양한 방식을 사용합니다. ART-1 네트워크에는 입력 계층과 출력 계층이라는 두 개의 계층이 포함되어 있습니다. 두 레이어는 완전히 상호 연결되어 있으며 연결은 순방향(상향식) 및 피드백(하향식) 방향으로 진행됩니다.

ART-1 네트워크가 작동 중일 때 훈련은 연속적이며 다음 알고리즘 단계를 포함합니다.

(1) 모든 출력 뉴런에 대해 출력 뉴런의 모든 경고 가중치가 1로 설정된 경우 이를 독립 뉴런이라고 합니다. 패턴 유형을 나타내도록 지정되지 않았기 때문입니다.

(2)는 새로운 입력 패턴 x를 제공합니다.

(3) 모든 출력 뉴런이 발사 경쟁에 참여할 수 있도록 합니다.

(4) 경쟁 뉴런에서 승리한 출력 뉴런을 찾습니다. 즉, 이 뉴런의 x·W 값은 훈련 시작 시 가장 크거나 더 나은 출력 뉴런이 없는 경우 승리한 뉴런이 될 수 있습니다. 독립 뉴런.

(5) 이 입력 패턴 x가 승리 뉴런의 경계 벡터 V와 충분히 유사한지 확인합니다.

(6) r≥p, 즉 공명이 있으면 단계 (7)로 이동하고, 그렇지 않으면 승리한 뉴런은 일시적으로 더 이상 경쟁할 수 없으며 단계 (4)로 이동하여 거기까지 이 과정을 반복합니다. 더 이상 유효한 뉴런의 능력이 없습니다.

추천 과정: Python Tutorial.

2. 학습 벡터 양자화(LVQ) 네트워크

학습 벡터 양자화(LVQ) 네트워크는 3개의 뉴런 계층, 즉 입력 변환 계층, 은닉 계층 및 출력 계층으로 구성됩니다. 네트워크는 입력 레이어와 은닉 레이어 사이에 완전히 연결되어 있고, 은닉 레이어와 출력 레이어 사이에 부분적으로 연결되어 있으며, 각 출력 뉴런은 서로 다른 은닉 뉴런 그룹에 연결되어 있습니다.

가장 간단한 LVQ 훈련 단계는 다음과 같습니다.

(1) 참조 벡터의 초기 가중치를 미리 설정합니다.

(2) 네트워크에 훈련 입력 패턴을 제공합니다.

(3) 입력 패턴과 각 참조 벡터 사이의 유클리드 거리를 계산합니다.

(4) 입력 패턴에 가장 가까운 참조 벡터(즉, 승리한 은닉 뉴런의 참조 벡터)의 가중치를 업데이트합니다. 승리한 은닉 뉴런이 입력 패턴과 동일한 클래스를 갖는 출력 뉴런에 연결된 버퍼에 속해 있는 경우 참조 벡터는 입력 패턴에 더 가까워야 합니다. 그렇지 않으면 참조 벡터가 입력 모드를 벗어납니다.

(5) (2)단계로 이동하여 모든 훈련 패턴이 올바르게 분류되거나 특정 종료 기준이 충족될 때까지 새로운 훈련 입력 패턴으로 이 프로세스를 반복합니다.

3. 코호넨 네트워크

코호넨 네트워크 또는 자기 조직화 특징 맵 네트워크는 두 개의 레이어로 구성됩니다. 하나는 입력 버퍼 레이어로 입력 패턴을 수신하고 다른 하나는 출력 레이어로 사용됩니다. 일반적으로 출력 레이어의 뉴런은 규칙적으로 배열됩니다. 2차원 배열이며, 각 출력 뉴런 뉴런은 모든 입력 뉴런에 연결됩니다. 연결 가중치는 알려진 출력 뉴런에 연결된 참조 벡터의 구성 요소를 형성합니다.

Kohonen 네트워크 훈련에는 다음 단계가 포함됩니다.

(1) 모든 출력 뉴런의 참조 벡터에 대해 작은 무작위 초기값을 미리 설정합니다.

(2) 네트워크에 훈련 입력 패턴을 제공합니다.

(3) 승리하는 출력 뉴런, 즉 참조 벡터가 입력 패턴에 가장 가까운 뉴런을 결정합니다. 참조 벡터와 입력 벡터 사이의 유클리드 거리는 거리 측정으로 자주 사용됩니다.

(4) 승리한 뉴런의 참조 벡터와 그 이웃 참조 벡터를 업데이트합니다. 이러한 참조 벡터는 입력 벡터에 더 가깝습니다(참조). 승리한 참조 벡터의 경우 조정이 가장 큰 반면, 더 멀리 있는 뉴런의 경우 훈련이 진행됨에 따라 뉴런 주변의 크기가 상대적으로 감소합니다. .

4. Hopfield 네트워크

Hopfield 네트워크는 일반적인 재귀 네트워크로 일반적으로 이진 입력(0 또는 1)과 양극 입력(+1 또는 -1)만 허용합니다. 여기에는 단일 뉴런 층이 포함되어 있으며 각 뉴런은 다른 모든 뉴런과 연결되어 재귀 구조를 형성합니다.

위 내용은 인공 신경망 알고리즘의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.