220v
젝무의 개발새발
220v
전체 방문자
오늘
어제
  • 분류 전체보기 (255)
    • AI (35)
      • ML, DL 학습 (30)
      • 논문 리뷰 (4)
      • 실습 및 프로젝트 (1)
    • Algorithm (145)
      • LeetCode (13)
      • 프로그래머스 (35)
      • 백준 (96)
      • 알고리즘, 문법 정리 (1)
    • Mobile, Application (17)
      • Flutter (10)
      • iOS, MacOS (7)
    • BackEnd (7)
      • Flask (1)
      • Node.js (5)
      • Spring, JSP..etc (1)
    • Web - FrontEnd (18)
      • JavaScript, JQuery, HTML, C.. (12)
      • React (6)
    • DataBase (1)
      • MySQL (1)
      • Firebase Firestore (0)
      • Supabase (0)
    • Git (1)
    • 기타 툴 및 오류 해결 (3)
    • 강의 (5)
      • Database (3)
      • 암호학 (2)
      • 알고리즘 (0)
    • 후기와 회고 (2)
    • 블로그 꾸미기 (1)
    • 일상과 이것저것 (20)
      • 맛집 (12)
      • 세상사는일 (4)
      • 도서리뷰 (1)
      • 이런저런 생각들 (잡글) (3)

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • 다익스트라
  • 프로그래머스
  • simulation
  • Greedy
  • 위상 정렬
  • dp
  • 백준
  • Priority Queue
  • topological sort
  • Dynamic Programming
  • binary search
  • 티스토리챌린지
  • Minimum Spanning Tree
  • Prefix Sum
  • Backtracking
  • brute-Force
  • top-down
  • dfs
  • union-find
  • 오블완
  • disjoint set
  • IMPLEMENT
  • 구현
  • REACT
  • BFS
  • two pointer
  • Mathematics
  • implementation
  • Lis
  • bitmasking

최근 댓글

최근 글

티스토리

hELLO · Designed By 정상우.
220v

젝무의 개발새발

AI/ML, DL 학습

[ML/DL 스터디] <Regression - 2> Nonlinear Regression, Functional Approximation

2024. 8. 31. 15:26

Reference

https://iai.postech.ac.kr/teaching/machine-learning
https://iai.postech.ac.kr/teaching/deep-learning
위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,
모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.

또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.
>>노션 링크<<

 

Keywords

  • Multivariate Linear Regression
  • Non-Linear Regression
  • Polynomial Regression
  • Functional Approximation(Polynomial Basis, RBF Basis)

 

Nonlinear Regression

다중 선형 회귀? ⇒ 일반적인 Linear Regression과 동일.

단지 matrix $A$ 에 해당하는 column(feature)의 개수가 더 늘어나는 것 뿐. ($y=Ax$)

 

Nonlinear Regression.

Linear Regression을 non-linear data에 그대로 적용하는 것.

일반적인 Linear Regression과 동일하나, 단지 data, feature가 non-linear하게 distribute되어 있을 뿐.

 

⇒ 이 장에서는 Method 1에 대해서만 소개. kernel trick에 대해서는 추후 따로 알아볼 것.

 

Polynomial Regression ⇒ Multivariate Linear Regression과 거의 동일하다고 생각하면 된다.

$x_2 → x^2$으로 변경되었을 뿐.

여기에서, $x$의 관점에서 보면 비선형적인 것이 맞으나, 결국 $\theta$의 관점(우리가 구하고자 하는 값)에서 보면, Multivariate Linear Regression으로, 선형회귀 문제와 동일하게 볼 수 있는 것이다.

결국 “데이터” 가 선형적인지, 비선형적인지의 차이일 뿐, 선형회귀 문제이다.

 

Functional Approximation

Select coefficients among a well-defined function (basis) that closely matches a target function in a task-specific way

→ well-define된 function(basis)에서 target function에 가장 근접하도록 하는 coefficient(계수)를 구하는 것.

 

** 다른 관점(시각)에서 바라보는 것이다.

basis의 linear combination ($[b_0(x), b_1(x), b_2(x)]$)을 통해 $\theta$들을 구하는 것.

 

그러한 basis($b_i(x)$)들은 우리가 정해줘야 하는데, 그 중 유명한 것들이

→ Polynomial

→ RBF (Radial Basis Function)

같은 것들이 있다.

Polynomial 같은 경우는 위의 사진과 같이 basis가 polynomial인 경우를 말하는 것.

 

각각의 basis에 대한 coefficient, 그러니까, 각 basis feature가 어느 정도의 weight를 가지고 있는 지를 결정하는 문제라고 생각하면 될 것 같다.

이전에는 그냥 Linear Regression의 문제로 보았다면,
여기서는 Polynomial / RBF와 같은 Basis를 고정시켜 놓고, (결국 이 basis라는 것도 feature라고 생각하면 될 듯) 각각의 basis마다 어느 정도의 weight를 가져야 target function에 근접한 결과를 낼 지를 고려하여 coefficient를 조정해나가는 과정이라고 생각하면 될 것 같다.

 

위는 Polynomial Basis와 RBF Basis를 시각적으로 보여주는 것.

** 위에서 말한 것을 시각적으로 다시 설명하자면,

우측에 빨간 선과 같은 것을 target function이라 하자.

만약 Polynomial basis를 채택하였다면, 저 $x^0, x^1, .., x^6, ..$ 들을 선형 결합하여

target function에 근접하도록(approximate)하겠다는 것이다.

이 설명이 제일 잘 이해될 듯 하다.

 

마찬가지로, RBF Basis도 위와 같은 식에 의한 선들(basis)들의 선형결합으로 target function을 approximate 하겠다는 것이다.

(참고로, $\mu$는 평균 → 그래프의 중심을 결정하고, $\sigma$는 bandwidth로, 그래프의 상하폭을 결정한다.)

    'AI/ML, DL 학습' 카테고리의 다른 글
    • [ML/DL 스터디] <Classification - 1> Perceptron
    • [ML/DL 스터디] <Regression - 3> Overfitting, Regularization
    • [ML/DL 스터디] <Regression - 1> Linear Regression
    • [ML/DL 스터디] <Optimization - 3> Gradient Descent
    220v
    220v
    DGU CSE 20 / Apple Developer Academy @ POSTECH 2nd Jr.Learner.

    티스토리툴바