6 Sat
PART 02 AI Background
05 인공신경망
퍼셉트론
1957년에 개발된 최초의 인공지능 모형
Feed-Forward Network 모형
선형 분류 모형
MLP
Multi Layer Perceptron
퍼셉트론이 지닌 한계점인 비선형 분류 문제를 해결하기 위해 등장
사람의 손글씨 데이터인 MNIST를 이용해 MLP 설계하기
Universal Approximation Theorem
신경망 이론 중 가장 유명하고 신경망 학습의 특성을 잘 나타내주는 이론
은닉층이 1개 이상인 신경망(=MLP)은 학습 데이터 내에서 어떤 함수든 근사 시킬 수 있다라는 이론
두 가지 의문점
학습 데이터 내에서 어떤 모델이나 만들 수 있으면 굉장한 것 아닌가?
학습 데이터 내에서는 잘 맞지만 실제 데이터에서는 안맞을 수 있음 => 과적합
은닉층을 깊게 쌓을 필요가 있는가?
복잡한 문제에 대해 간단한 모델보다 복잡한 모형이 좀 더 효율적으로 모델링이 가능하다
신경망 모형의 단점
과적합
Gradient Vanishing
성능 지표
MSE : Mean Square Error
회귀 모형에서 많이 사용하는 Loss
상대적인 성능 지표
A문제의 모델1의 MSE가 30, B문제의 모델2의 MSE가 300 이라고 하더라도 모델1의 성능이 좋다고 말할 수 없다.
MAPE : Mean Absolute Percentage Error
절대적인 성능 지표
정확도 : Accuracy
(실제 클래스, 예측한 클래스)에 따라 4가지로 분류
(O, O) : TP : True Positive
(O, X) : FP : False Positive
(X, O) : FN : False Negative
(X, X) : TN : True Negative
클래스 간의 불균형 현상이 있을 때는 지표로 사용하기 어렵다
정상이 99%, 비정상이 1%인 데이터에서는 정상이라고만 말해도 99%의 성능을 얻기 때문

F1-Measure(F1-Score) : Class Imbalance 상황에서 많이 사용하는 지표.

Last updated
Was this helpful?