🚴‍♂️
TIL
  • MAIN
  • : TIL?
  • : WIL
  • : Plan
  • : Retrospective
    • 21Y
      • Wait a moment!
      • 9M 2W
      • 9M1W
      • 8M4W
      • 8M3W
      • 8M2W
      • 8M1W
      • 7M4W
      • 7M3W
      • 7M2W
      • 7M1W
      • 6M5W
      • 1H
    • 새사람 되기 프로젝트
      • 2회차
      • 1회차
  • TIL : ML
    • Paper Analysis
      • BERT
      • Transformer
    • Boostcamp 2st
      • [S]Data Viz
        • (4-3) Seaborn 심화
        • (4-2) Seaborn 기초
        • (4-1) Seaborn 소개
        • (3-4) More Tips
        • (3-3) Facet 사용하기
        • (3-2) Color 사용하기
        • (3-1) Text 사용하기
        • (2-3) Scatter Plot 사용하기
        • (2-2) Line Plot 사용하기
        • (2-1) Bar Plot 사용하기
        • (1-3) Python과 Matplotlib
        • (1-2) 시각화의 요소
        • (1-1) Welcome to Visualization (OT)
      • [P]MRC
        • (2강) Extraction-based MRC
        • (1강) MRC Intro & Python Basics
      • [P]KLUE
        • (5강) BERT 기반 단일 문장 분류 모델 학습
        • (4강) 한국어 BERT 언어 모델 학습
        • [NLP] 문장 내 개체간 관계 추출
        • (3강) BERT 언어모델 소개
        • (2강) 자연어의 전처리
        • (1강) 인공지능과 자연어 처리
      • [U]Stage-CV
      • [U]Stage-NLP
        • 7W Retrospective
        • (10강) Advanced Self-supervised Pre-training Models
        • (09강) Self-supervised Pre-training Models
        • (08강) Transformer (2)
        • (07강) Transformer (1)
        • 6W Retrospective
        • (06강) Beam Search and BLEU score
        • (05강) Sequence to Sequence with Attention
        • (04강) LSTM and GRU
        • (03강) Recurrent Neural Network and Language Modeling
        • (02강) Word Embedding
        • (01강) Intro to NLP, Bag-of-Words
        • [필수 과제 4] Preprocessing for NMT Model
        • [필수 과제 3] Subword-level Language Model
        • [필수 과제2] RNN-based Language Model
        • [선택 과제] BERT Fine-tuning with transformers
        • [필수 과제] Data Preprocessing
      • Mask Wear Image Classification
        • 5W Retrospective
        • Report_Level1_6
        • Performance | Review
        • DAY 11 : HardVoting | MultiLabelClassification
        • DAY 10 : Cutmix
        • DAY 9 : Loss Function
        • DAY 8 : Baseline
        • DAY 7 : Class Imbalance | Stratification
        • DAY 6 : Error Fix
        • DAY 5 : Facenet | Save
        • DAY 4 : VIT | F1_Loss | LrScheduler
        • DAY 3 : DataSet/Lodaer | EfficientNet
        • DAY 2 : Labeling
        • DAY 1 : EDA
        • 2_EDA Analysis
      • [P]Stage-1
        • 4W Retrospective
        • (10강) Experiment Toolkits & Tips
        • (9강) Ensemble
        • (8강) Training & Inference 2
        • (7강) Training & Inference 1
        • (6강) Model 2
        • (5강) Model 1
        • (4강) Data Generation
        • (3강) Dataset
        • (2강) Image Classification & EDA
        • (1강) Competition with AI Stages!
      • [U]Stage-3
        • 3W Retrospective
        • PyTorch
          • (10강) PyTorch Troubleshooting
          • (09강) Hyperparameter Tuning
          • (08강) Multi-GPU 학습
          • (07강) Monitoring tools for PyTorch
          • (06강) 모델 불러오기
          • (05강) Dataset & Dataloader
          • (04강) AutoGrad & Optimizer
          • (03강) PyTorch 프로젝트 구조 이해하기
          • (02강) PyTorch Basics
          • (01강) Introduction to PyTorch
      • [U]Stage-2
        • 2W Retrospective
        • DL Basic
          • (10강) Generative Models 2
          • (09강) Generative Models 1
          • (08강) Sequential Models - Transformer
          • (07강) Sequential Models - RNN
          • (06강) Computer Vision Applications
          • (05강) Modern CNN - 1x1 convolution의 중요성
          • (04강) Convolution은 무엇인가?
          • (03강) Optimization
          • (02강) 뉴럴 네트워크 - MLP (Multi-Layer Perceptron)
          • (01강) 딥러닝 기본 용어 설명 - Historical Review
        • Assignment
          • [필수 과제] Multi-headed Attention Assignment
          • [필수 과제] LSTM Assignment
          • [필수 과제] CNN Assignment
          • [필수 과제] Optimization Assignment
          • [필수 과제] MLP Assignment
      • [U]Stage-1
        • 1W Retrospective
        • AI Math
          • (AI Math 10강) RNN 첫걸음
          • (AI Math 9강) CNN 첫걸음
          • (AI Math 8강) 베이즈 통계학 맛보기
          • (AI Math 7강) 통계학 맛보기
          • (AI Math 6강) 확률론 맛보기
          • (AI Math 5강) 딥러닝 학습방법 이해하기
          • (AI Math 4강) 경사하강법 - 매운맛
          • (AI Math 3강) 경사하강법 - 순한맛
          • (AI Math 2강) 행렬이 뭐예요?
          • (AI Math 1강) 벡터가 뭐예요?
        • Python
          • (Python 7-2강) pandas II
          • (Python 7-1강) pandas I
          • (Python 6강) numpy
          • (Python 5-2강) Python data handling
          • (Python 5-1강) File / Exception / Log Handling
          • (Python 4-2강) Module and Project
          • (Python 4-1강) Python Object Oriented Programming
          • (Python 3-2강) Pythonic code
          • (Python 3-1강) Python Data Structure
          • (Python 2-4강) String and advanced function concept
          • (Python 2-3강) Conditionals and Loops
          • (Python 2-2강) Function and Console I/O
          • (Python 2-1강) Variables
          • (Python 1-3강) 파이썬 코딩 환경
          • (Python 1-2강) 파이썬 개요
          • (Python 1-1강) Basic computer class for newbies
        • Assignment
          • [선택 과제 3] Maximum Likelihood Estimate
          • [선택 과제 2] Backpropagation
          • [선택 과제 1] Gradient Descent
          • [필수 과제 5] Morsecode
          • [필수 과제 4] Baseball
          • [필수 과제 3] Text Processing 2
          • [필수 과제 2] Text Processing 1
          • [필수 과제 1] Basic Math
    • 딥러닝 CNN 완벽 가이드 - Fundamental 편
      • 종합 실습 2 - 캐글 Plant Pathology(나무잎 병 진단) 경연 대회
      • 종합 실습 1 - 120종의 Dog Breed Identification 모델 최적화
      • 사전 훈련 모델의 미세 조정 학습과 다양한 Learning Rate Scheduler의 적용
      • Advanced CNN 모델 파헤치기 - ResNet 상세와 EfficientNet 개요
      • Advanced CNN 모델 파헤치기 - AlexNet, VGGNet, GoogLeNet
      • Albumentation을 이용한 Augmentation기법과 Keras Sequence 활용하기
      • 사전 훈련 CNN 모델의 활용과 Keras Generator 메커니즘 이해
      • 데이터 증강의 이해 - Keras ImageDataGenerator 활용
      • CNN 모델 구현 및 성능 향상 기본 기법 적용하기
    • AI School 1st
    • 현업 실무자에게 배우는 Kaggle 머신러닝 입문
    • 파이썬 딥러닝 파이토치
  • TIL : Python & Math
    • Do It! 장고+부트스트랩: 파이썬 웹개발의 정석
      • Relations - 다대다 관계
      • Relations - 다대일 관계
      • 템플릿 파일 모듈화 하기
      • TDD (Test Driven Development)
      • template tags & 조건문
      • 정적 파일(static files) & 미디어 파일(media files)
      • FBV (Function Based View)와 CBV (Class Based View)
      • Django 입문하기
      • 부트스트랩
      • 프론트엔드 기초다지기 (HTML, CSS, JS)
      • 들어가기 + 환경설정
    • Algorithm
      • Programmers
        • Level1
          • 소수 만들기
          • 숫자 문자열과 영단어
          • 자연수 뒤집어 배열로 만들기
          • 정수 내림차순으로 배치하기
          • 정수 제곱근 판별
          • 제일 작은 수 제거하기
          • 직사각형 별찍기
          • 짝수와 홀수
          • 체육복
          • 최대공약수와 최소공배수
          • 콜라츠 추측
          • 크레인 인형뽑기 게임
          • 키패드 누르기
          • 평균 구하기
          • 폰켓몬
          • 하샤드 수
          • 핸드폰 번호 가리기
          • 행렬의 덧셈
        • Level2
          • 숫자의 표현
          • 순위 검색
          • 수식 최대화
          • 소수 찾기
          • 소수 만들기
          • 삼각 달팽이
          • 문자열 압축
          • 메뉴 리뉴얼
          • 더 맵게
          • 땅따먹기
          • 멀쩡한 사각형
          • 괄호 회전하기
          • 괄호 변환
          • 구명보트
          • 기능 개발
          • 뉴스 클러스터링
          • 다리를 지나는 트럭
          • 다음 큰 숫자
          • 게임 맵 최단거리
          • 거리두기 확인하기
          • 가장 큰 정사각형 찾기
          • H-Index
          • JadenCase 문자열 만들기
          • N개의 최소공배수
          • N진수 게임
          • 가장 큰 수
          • 124 나라의 숫자
          • 2개 이하로 다른 비트
          • [3차] 파일명 정렬
          • [3차] 압축
          • 줄 서는 방법
          • [3차] 방금 그곡
          • 거리두기 확인하기
        • Level3
          • 매칭 점수
          • 외벽 점검
          • 기지국 설치
          • 숫자 게임
          • 110 옮기기
          • 광고 제거
          • 길 찾기 게임
          • 셔틀버스
          • 단속카메라
          • 표 편집
          • N-Queen
          • 징검다리 건너기
          • 최고의 집합
          • 합승 택시 요금
          • 거스름돈
          • 하노이의 탑
          • 멀리 뛰기
          • 모두 0으로 만들기
        • Level4
    • Head First Python
    • 데이터 분석을 위한 SQL
    • 단 두 장의 문서로 데이터 분석과 시각화 뽀개기
    • Linear Algebra(Khan Academy)
    • 인공지능을 위한 선형대수
    • Statistics110
  • TIL : etc
    • [따배런] Kubernetes
    • [따배런] Docker
      • 2. 도커 설치 실습 1 - 학습편(준비물/실습 유형 소개)
      • 1. 컨테이너와 도커의 이해 - 컨테이너를 쓰는이유 / 일반프로그램과 컨테이너프로그램의 차이점
      • 0. 드디어 찾아온 Docker 강의! 왕초보에서 도커 마스터로 - OT
    • CoinTrading
      • [가상 화폐 자동 매매 프로그램] 백테스팅 : 간단한 테스팅
    • Gatsby
      • 01 깃북 포기 선언
  • TIL : Project
    • Mask Wear Image Classification
    • Project. GARIGO
  • 2021 TIL
    • CHANGED
    • JUN
      • 30 Wed
      • 29 Tue
      • 28 Mon
      • 27 Sun
      • 26 Sat
      • 25 Fri
      • 24 Thu
      • 23 Wed
      • 22 Tue
      • 21 Mon
      • 20 Sun
      • 19 Sat
      • 18 Fri
      • 17 Thu
      • 16 Wed
      • 15 Tue
      • 14 Mon
      • 13 Sun
      • 12 Sat
      • 11 Fri
      • 10 Thu
      • 9 Wed
      • 8 Tue
      • 7 Mon
      • 6 Sun
      • 5 Sat
      • 4 Fri
      • 3 Thu
      • 2 Wed
      • 1 Tue
    • MAY
      • 31 Mon
      • 30 Sun
      • 29 Sat
      • 28 Fri
      • 27 Thu
      • 26 Wed
      • 25 Tue
      • 24 Mon
      • 23 Sun
      • 22 Sat
      • 21 Fri
      • 20 Thu
      • 19 Wed
      • 18 Tue
      • 17 Mon
      • 16 Sun
      • 15 Sat
      • 14 Fri
      • 13 Thu
      • 12 Wed
      • 11 Tue
      • 10 Mon
      • 9 Sun
      • 8 Sat
      • 7 Fri
      • 6 Thu
      • 5 Wed
      • 4 Tue
      • 3 Mon
      • 2 Sun
      • 1 Sat
    • APR
      • 30 Fri
      • 29 Thu
      • 28 Wed
      • 27 Tue
      • 26 Mon
      • 25 Sun
      • 24 Sat
      • 23 Fri
      • 22 Thu
      • 21 Wed
      • 20 Tue
      • 19 Mon
      • 18 Sun
      • 17 Sat
      • 16 Fri
      • 15 Thu
      • 14 Wed
      • 13 Tue
      • 12 Mon
      • 11 Sun
      • 10 Sat
      • 9 Fri
      • 8 Thu
      • 7 Wed
      • 6 Tue
      • 5 Mon
      • 4 Sun
      • 3 Sat
      • 2 Fri
      • 1 Thu
    • MAR
      • 31 Wed
      • 30 Tue
      • 29 Mon
      • 28 Sun
      • 27 Sat
      • 26 Fri
      • 25 Thu
      • 24 Wed
      • 23 Tue
      • 22 Mon
      • 21 Sun
      • 20 Sat
      • 19 Fri
      • 18 Thu
      • 17 Wed
      • 16 Tue
      • 15 Mon
      • 14 Sun
      • 13 Sat
      • 12 Fri
      • 11 Thu
      • 10 Wed
      • 9 Tue
      • 8 Mon
      • 7 Sun
      • 6 Sat
      • 5 Fri
      • 4 Thu
      • 3 Wed
      • 2 Tue
      • 1 Mon
    • FEB
      • 28 Sun
      • 27 Sat
      • 26 Fri
      • 25 Thu
      • 24 Wed
      • 23 Tue
      • 22 Mon
      • 21 Sun
      • 20 Sat
      • 19 Fri
      • 18 Thu
      • 17 Wed
      • 16 Tue
      • 15 Mon
      • 14 Sun
      • 13 Sat
      • 12 Fri
      • 11 Thu
      • 10 Wed
      • 9 Tue
      • 8 Mon
      • 7 Sun
      • 6 Sat
      • 5 Fri
      • 4 Thu
      • 3 Wed
      • 2 Tue
      • 1 Mon
    • JAN
      • 31 Sun
      • 30 Sat
      • 29 Fri
      • 28 Thu
      • 27 Wed
      • 26 Tue
      • 25 Mon
      • 24 Sun
      • 23 Sat
      • 22 Fri
      • 21 Thu
      • 20 Wed
      • 19 Tue
      • 18 Mon
      • 17 Sun
      • 16 Sat
      • 15 Fri
      • 14 Thu
      • 13 Wed
      • 12 Tue
      • 11 Mon
      • 10 Sun
      • 9 Sat
      • 8 Fri
      • 7 Thu
      • 6 Wed
      • 5 Tue
      • 4 Mon
      • 3 Sun
      • 2 Sat
      • 1 Fri
  • 2020 TIL
    • DEC
      • 31 Thu
      • 30 Wed
      • 29 Tue
      • 28 Mon
      • 27 Sun
      • 26 Sat
      • 25 Fri
      • 24 Thu
      • 23 Wed
      • 22 Tue
      • 21 Mon
      • 20 Sun
      • 19 Sat
      • 18 Fri
      • 17 Thu
      • 16 Wed
      • 15 Tue
      • 14 Mon
      • 13 Sun
      • 12 Sat
      • 11 Fri
      • 10 Thu
      • 9 Wed
      • 8 Tue
      • 7 Mon
      • 6 Sun
      • 5 Sat
      • 4 Fri
      • 3 Tue
      • 2 Wed
      • 1 Tue
    • NOV
      • 30 Mon
Powered by GitBook
On this page
  • 딥러닝 1단계: 신경망과 딥러닝 - 딥러닝 소개
  • 소개
  • 신경망은 무엇인가?
  • 지도학습
  • 딥러닝의 흥행 이유
  • 딥러닝 1단계: 신경망과 딥러닝 - 신경망과 로지스틱회귀
  • 이진 분류
  • 로지스틱 회귀
  • 로지스틱 회귀의 비용함수
  • 경사하강법
  • 미분
  • 더 많은 미분 예제
  • 계산 그래프
  • 계산 그래프로 미분하기
  • 로지스틱 회귀의 경사하강법
  • m개 샘플의 경사하강법

Was this helpful?

  1. 2021 TIL
  2. MAR

15 Mon

딥러닝 1단계: 신경망과 딥러닝 - 딥러닝 소개

소개

  • 전기가 우리 사회를 비약적으로 변화시키고 발전시켰듯이 인공지능이 지금 그 자리에 있다

우리가 배울 것

  1. 신경망과 딥러닝

    • 고양이를 만드는 전통이 있음 => 고양이 인식기를 만들 것

  2. 심층 신경망

    • 하이퍼 파라미터 튜닝, 정규화, 최적화 등

  3. 머신러닝 프로젝트를 어떻게 설계할 것인가

    • 홀드아웃 교차검증 세트

    • end to end deep learning

  4. CNN

  5. 자연어 처리

신경망은 무엇인가?

  • 집의 크기에 따른 가격을 예측할 때 집의 크기를 X, 가격을 Y라고 한다면 X를 가지고 Y를 예측하는 함수를 뉴런, 신경망이라고 한다.

    • 이 같은 경우는 굉장히 작은 신경망

    • 이러한 신경망을 굉장히 많이 쌓을 수 있음

  • 만약 집의 크기 말고도 침실의 개수도 가격에 영향을 줄 수 있다.

    • 우편번호나, 주변 건물의 땅값도 영향을 줄 수 있는 가능성이 있음

지도학습

입력 X

출력 Y

적용

신경망

주택 특징

가격

부동산

표준

광고, 유저 정보

광고를 클릭할지

온라인 광고

표준

이미지

특정 정보

사진 태그

합성곱

오디오

텍스트

음성 인식

순환

영어

중국어

기계 번역

순환

차량이 찍은 이미지,

레이더 정보

다른 자동차의 위치

자율 주행

합성곱,

하이브리드

구조적 데이터

  • 잘 정의되어 있는 데이터

    • 주택 가격을 예측할 때 집의 크기나 방의 개수 등이 해당

비구조적 데이터

  • 잘 정의되어 있지 않은 모호한 데이터

    • 고양이 사진이나 음성, 텍스트 등이 해당

  • 사람은 비구조적 데이터를 잘 이해하고 컴퓨터는 구조적 데이터를 잘 이해한다

  • 신경망의 등장으로 컴퓨터도 비구조적 데이터를 잘 이해할 수 있게되었다.

    • 컴퓨터가 비구조적 데이터를 다룰 때 더 복잡하다.

딥러닝의 흥행 이유

  • 기존 알고리즘은 데이터의 양이 방대해지더라도 어느 정도 선에서 성능이 수렴한다.

    • 디지털 시대에서 사람들의 동작은 디지털 데이터로 기록되기 때문에 많은 데이터가 쌓이게 된다

  • 신경망은 그 크기가 크면 클수록(일반적으로) 훈련을 하면 할 수록 아주 높은 성능을 발휘할 수 있게 된다

    • 두 가지 전제조건 : 많은 양의 데이터를 가지고 있어야 하고 규모가 큰 신경망이 존재해야 한다.

    • 언젠가 데이터가 모자랄 수도 있고, 신경망이 너무 커서 학습 시간이 굉장히 오래 걸릴 수도 있다.

  • 훈련 세트가 작을 때에는 성능이 알고리즘에 좌우되지만 훈련 세트가 클 때는 많은 데이터와 신경망의 크기에 영향을 받게된다.

레이블 데이터

  • (X, y)로 표현되는 데이터

  • 훈련 세트의 크기는 m으로 나타낸다.

딥러닝의 성능 향상

  • 3가지 평가 요소

    • 데이터의 양

    • 컴퓨팅 자원

    • 알고리즘

  • 아이디어 => 개발 => 실험 과정을 거치며 딥러닝이 형성되고 성능을 측정할 수 있게된다.

딥러닝 1단계: 신경망과 딥러닝 - 신경망과 로지스틱회귀

이진 분류

  • 보통은 데이터를 for문으로 다루지만 딥러닝에서는 그렇게 하지 않음

로지스틱 회귀

  • 이진 분류를 위한 알고리즘

    • 고양이 사진이 입력됐을 때 True or False의 Label을 얻기를 원함

    • 입력된 이미지의 특징을 가지고 있는 특징(특성) 벡터를 만들어서 입력값 X로 정의

      • 만약 64 by 64 크기의 이미지라면 64 * 64 * 3 = 12288의 특징벡터를 가지고 있음

(x, y)

  • x는 n차원 안에 있는 특징벡터 => n * m 의 벡터 (m * n 벡터보다 다루기 더 좋음)

  • y는 0 또는 1 (이진 분류에서는)

로지스틱 회귀

  • 출력물이 0 또는 1인 이진 분류에 사용되는 알고리즘

  • 가장 쉽게 사용하는 함수 식은 y = wx + b

    • 그러나 좋은 예측 함수는 아니다

    • 여기서 y는 0과 1 사이의 확률값인데 비해 wx+ b는 범위제한이 없는 값이다. 이 때 시그모이드 함수를 적용해서 이 wx+b 를 0과 1 사이에 두게 된다.

      • 아주 큰 음수일 경우는 0에 수렴하고 아주 큰 양수일 경우는 1에 수렴한다

로지스틱 회귀의 비용함수

  • 우리의 목표는 실제값과 매우 근사한 예측값을 구하는 것

    • 물론 실제값과 동일한 예측값을 구해도 좋지!

  • i번째 데이터라는 뜻이다

  • 위첨자로 쓰면 이런 의미가 되고 아래첨자로 쓰면 신경망의 층을 의미한다.

  • 근데 혼용하는 사람이 많아서, 그 때 그 때 교육자나 저자의 방식을 따라가는 것이 좋음

손실 함수

  • 보통 거리최솟값 식(제곱오차법)으로 사용하는데 로지스틱 회귀는 지역 최솟값에 빠질 수 있어서 사용하지 않음

  • 손실 함수값이 크면 예측값이랑 실제값이랑 차이가 매우 크다는 거임

    • 이 말은 잘못된 예측을 했다는 뜻

    • 따라서 손실 함수값을 작게 만드는 방향으로 설계하는 것

  • 우리의 목표는 손실함수 값이 작아지게 하는 인자를 찾는 것

    • 우리가 y = wx + b 로 놓았으니까 w랑 b를 찾는것이 우리의 목표

경사하강법

  • 우리의 목표는 손실 함수J(w, b)를 작게 만드는 거고 따라서 작게 만드는 w랑 b를 찾는것이 우리 목표

  • 이걸 찾는 방법이 경사하강법, gradient descent 이다.

  • w와 b와 J(w, b)에 대한 3차원 그림을 그리면 활처럼 볼록한 3차원 함수가 그려지는데 여기서 가장 아래에 있는 점이 손실 함수가 최소인 위치이고 이 때의 w와 b를 찾으면 된다.

    • 어디서 시작하든 가장 맨 밑으로 내려오게 되있음

    • 근데 3차원은 좀 직관적이지 못할 수 있으니 b를 제외한 w만을 가지고 J에 대한 이차원 함수를 그려서 설명하기도 함

  • J가 작아지는 방향으로 이동하기 위해서는 w의 변화가 있어야 하는데 이 때의 식은 다음과 같다.

  • alph는 학습률인데 이는 나중에 더 알아보자

  • cost(W) = J 라고 생각하면 된다. J에 대한 W의 미분값 => 즉 J를 고려했을 때 W가 움직이는 변화량이다. 이만큼을 빼줘서 W값이 J가 작아지는 방향으로 바뀌게 한다

미분

  • 단순 미분 설명이라 패스

더 많은 미분 예제

  • 이하 동문

계산 그래프

  • 정방향 전파는 신경망의 출력값을 계산하고

  • 역방향은 경사나 도함수를 계산한다.

  • J = 3(a + bc) 라고 하자

    • u = bc 라고 정의하고

    • v = a+ u 라고 정의하면

    • J = 3v 라고 할 수 있다.

  • 이렇게 나누는 이유는 정방향으로 전파할 때 값들의 흐름을 쉽게 볼 수 있는 이유도 있지만 역방향으로 전파되면서 경사나 도함수를 계산할 때 위와 같이 생각하고 이해하면 쉽기 때문이다.

계산 그래프로 미분하기

  • J = 3v 이므로 v가 0.001 증가하면 J는 0.003 증가하게 된다.

    • 이는 j에 대한 v의 미분값이 3이기 때문에 변화량에 대해 3배 차이가 있다고 생각하면 된다.

    • 이를 정방향 전파로 볼 수 있다. => v를 통해 J의 값을 계산하기 때문

  • 반대로 J =3v 이므로 J가 0.003 감소하면 v는 0.001 감소하게 된다.

    • v가 0.001 감소하게 되면 a와 u도 0.001 감소하게 된다

    • 이는 v에 대한 a와 u의 미분값이 1이기 때문에 동등하게 변화한다.

  • 우리는 J에 대한 c의 변화량이 궁금한건데, 이를 알수가 없다. 그런데 연쇄법칙을 이용하면 알 수 있게된다.

    • J에 대한 v의 변화량을 알고

    • v에 대한 u의 변화량을 알고

    • u에 대한 c의 변화량을 알기 떄문에 이를 결합하면 J에 대한 c의 변화량이 도출된다.

로지스틱 회귀의 경사하강법

  • 각각의 가중치에 대한 독립적인 갱신이 가능하다

m개 샘플의 경사하강법

Previous16 TueNext14 Sun

Last updated 4 years ago

Was this helpful?

m개의 training example : (x(1),y(1)),(x(2),y(2)),...,(x(m),y(m)) (x^{(1)}, y^{(1)}), (x^{(2)}, y^{(2)}), ... ,(x^{(m)}, y^{(m)}) (x(1),y(1)),(x(2),y(2)),...,(x(m),y(m))

x(i) x^{(i)} x(i)