인공신경망 ANN (Artificial Neural Network)
생물학적 신경회로와 작동원리에서 영감을 얻은 정보처리 체계
각 유닛과 노드는 뉴런의 역할을 흉내낸다
각 노드는 인공뉴런으로써 매우 간단한 기능을 갖는다
- 시그널의 총 양이 임계치를 초과되도록 수신되면 활성화 상태가 되는 것
- 노드가 활성화 되면 시그널을 전달 경로에 따라 연결된 다른 노드로 전달
각 연결지점은 생물학적인 시냅스를 흉내낸다
- 각 연결 지점은 메시지를 각각의 특징에 따라 강도를 증가하거나 감소시켜 억제 시그널, 흥분 시그널로 변경시키는 필터 역할
- 연결에 대한 가중치와 곱함으로써 전송된 시그널의 강도를 증가시키는 기능
단일 계층 퍼셉트론 SLP: Single Layer Perceptron (로젠블렛 퍼셉트론) 퍼셉트론: 학습능력을 갖는 패턴분류장치
- 1958년 프랭크 로젠블랫에 의해 제안
- 로컬 메모리에는 가중치의 벡터 W가 랜덤한 값으로 초기화 되어 있음
- 입력벡터 X와 가중치 벡터의 곱(동일한 위치에 해당하는 개체끼리 곱)을 모두 합한 값이 출력 값(가중치 합)
- 위 가중치 합이 활성함수의 입력값이 됨
ㄴ활성함수는 sing함수, sigmoid 함수 등 비선형 함수를 선호함
ㄴ 함수는 결과값이 특정 임계치보다 큰 경우 1을 리턴하고 아니면 -1를 리턴함
- 인공신경망은 반복을 통해 학습하며 각 학습 사이클(epoch)마다 학습용 데이터를 통해 시냅스인 가중치 벡터W를 약간 수정
- 각 사이클에서 가중치는 해결하고자 하는 문제에 해당하는 비용함수를 최소화하게 수정됨
ㄴ학습 데이터 집합의 각 개체마다 원하는 출력과 실제 출력 사이의 차이를 나타내는 에러 계산하여 가중치 조정에 사용함.
- 학습 후 다른 입력 값(테스트 집합)에 대해 테스트 필요
다중 계층 퍼셉트론 MLP: Multi Layer Perceptron
- 여러층의 퍼셉트론, 적어도 1개 이상의 은닉층 Hidden Layer 가짐
- 일반적으로 지도 학습을 통해 학습
- 역전파 알고리즘 이라는 알고리즘으로 학습 (결과값과 기대값을 비교하여 차이값을 기초해 가중치를 수정함)
- 은닉층에 속한 뉴런 에서 기대하는 결과 값을 모르더라도 경사하강법 기술을 사용해 에러 함수를 최소하는 것으로 항상 지도학습법 적용 가능
파트너스 활동을 통해 일정액의 수수료를 제공받을 수 있음
'Data > Talk' 카테고리의 다른 글
순환신경망 RNN (Recurrent Neural Network) (0) | 2017.06.09 |
---|---|
합성곱신경망 CNN (Convolutional Neural Network) (0) | 2017.06.02 |
딥러닝과 머신러닝의 차이는? (0) | 2017.04.26 |
David Barber의 Machine Learning 분류 (0) | 2017.03.28 |
Bias-Variance Tradeoff / Andrew Ng의 데이터셋 나누기 (0) | 2017.03.27 |