(01강) 딥러닝 기본 용어 설명 - Historical Review
210809
Last updated
Was this helpful?
210809
Last updated
Was this helpful?
딥러닝이라는 학문은 너무 큰 분야라 모든 분야를 다 커버할 수가 없다.
우리 수업에서는, 10번에 걸쳐서 꼭 알아야 하는 내용들만을 다룸
교수님이 생각하기에 필수적이라고 생각하는 부분
인공지능
인간의 지능을 모방하는 것
가장 큰 개념
머신러닝
인공지능 안에 있는 분야
데이터로 학습을 해서 알고리즘을 구현한 모델
딥러닝
머신러닝 안에 있는 분야
신경망을 사용하는 모델
학습할 데이터
데이터를 학습할 모델
학습할 모델의 비용함수
인자를 조정할 알고리즘
연구를 볼 때 이 4가지를 중점적으로 보면 연구를 잘 이해할 수 있다.
데이터는 해결해야할 문제의 유형에 따라 결정된다
Classification : 이미지를 분류
Semantic Segmentation : 단순히 이미지를 분류할 뿐만 아니라 각 픽셀별로 어떠한 클래스에 속하는지 분류한다
Detection : 이미지 내에 클래스에 대해 바운딩박스를 찾는 것
Pose Estimation : 이미지 내에 2차원 정보 또는 3차원 정보를 찾는 것
Visual QnA : 이미지를 참고하여 질문이 주어졌을 때 답을 도출해 냈는 것
같은 데이터가 주어지고 같은 문제가 주어졌더라도 모델의 종류에 따라 성능이 달라진다.
기준이 되는 비용함수를 정해야 한다
그러나, 각 문제별로 비용함수가 정해져 있는 것은 아니다. 회귀문제를 풀 때 노이즈가 많은 경우에는 에러가 높아지기 때문에 L1 Norm을 사용하는 등의 여러 방법이 있다.
중요한 것은 우리가 풀고자 하는 문제에 대해 Loss 함수가 줄어드는 것이 어떻게 작용되는 지, 그리고 왜 사용하는 지가 중요하다
신경망의 파라미터를 1차 미분한 정보를 활용한다.
SGD : 그냥 활용한다
그 이외 방법 : 여러 인자들을 곱해서 활용한다
그 외에도 규제화, 드랍 아웃 등을 통해 테스트 데이터에 대한 성능을 높이는 방법들이 있다
딥러닝을 이용해서 처음으로 수상한 모델
강화학습방법을 딥러닝에 적용한 것
알파고의 시작
오늘날의 딥마인드가 있게한 논문
단어의 연속이 주어졌을 때 다른 언어의 연속으로 바꿔주는 모델
여러 옵티마이저가 있지만 Adam 이 성능이 잘나온다.
이미지 생성기와 판별기로 구성되어있따
술이 너무 맛없어서 연구를 생각하다가 연구실로 가서 작성한 아이디어
딥러닝의 딥러닝이 있게해준 논문
이전에는 신경망의 층이 깊을수록 성능이 안좋다고 했었음
ResNet이 등장하면서 층을 깊게 쌓아도 성능이 나올 수 있게 되었음
물론 너무 깊으면 다시 성능이 감소한다
Attention Is All You Need
기존의 방법론들을 대체한 모델
Bidirectional Encoder Representations from Transformers
딥러닝의 흐름을 바꾼 모델
위키피디아 같은 큰 말뭉치를 학습하고 해결하고자 하는 소수의 문제에 접근한다
GPT-3 같은 Language 모델 등장
다양한 단어와 문장을 만들 수 있음
굉장히 많은 파라미터가 있음
1750억개의 파라미터
학습 데이터외의 라벨이 없는 Unsupervised 이미지를 학습에 같이 사용하겠다는 아이디어
지도학습과 비지도학습의 융합물