전체 글
[ML/DL 스터디] Transfer Learning
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsPre-trained ModelsTransfer Learning Transfer Learning (전이학습)모델을 완전 처음에서부터 학습시키는 일은, 때로는 몇 시간, 몇 일, 나아가 몇 주가 걸리는 경우도 허다하다.다행히도 많은 이미 학습된 모델들이 사용할 수 있도록 공..
[ML/DL 스터디] <CNN - 3> Class Activation Map (CAM), Gradient-Weighted CAM (Grad-CAM)
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsClass Activation Map (CAM)Global Average PoolingGradient-weighted CAM (Grad-CAM) Class Activation Map (CAM)Deep Learning은 앞에서 학습한 것처럼, 현존하는 다른 알고리즘보다 성능..
[ML/DL 스터디] <CNN - 2> Convolutional Neural Networks
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsCNN - MotivationCNN - StructureFilter, Kernel, ChannelPadding, Stride, ReLU, Pooling Motivation of CNN우선 어떤 Motivation으로 CNN이 고안되게 되었는지 부터 확인하자.위의 사진들에서..
[ML/DL 스터디] <CNN - 1> Convolution, Kernel
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsConvolution (1D, 2D)KernelImage ConvolutionConvolution이란?두 signal(신호)중 한 신호를 reverse(뒤집고), shift(이동)시킨 후, 그 둘의 product(곱)을 Summation(or Integrate)하는 것이다..
[ML/DL 스터디] <AE - 1> Autoencoder
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsAutoencoderDim. ReductionAE as Generative Model Autoencoder이미 앞 장(ML)에서 Unsupervised Learning이 무엇인지, 그리고 Dimesional Reduction과 그 방법 중 하나인 PCA에 대해서 학습하였다..
[ML/DL 스터디] <ANN - 4> Vanishing Gradient, Batch Normalization, Dropout
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsNonlinear Activation FunctionVanishing Gradient ProblemBatch NormalizationDropout (Regularization) Nonlinear Activation Function: Vanishing Gradient Pro..
[ML/DL 스터디] <ANN - 3> Training ANN, Backpropagation
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsOptimizationLoss Function, Gradient DescentBackpropagation Training(Fitting) ANN: OptimizationNeural Network를 training하는 과정⇒ MLP 구조의 weight, bias들을 trai..
[ML/DL 스터디] <ANN - 2> Artificial Neural Network (ANN) - 2
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsActivation Function (tanh, ReLU)ANN (Multi-layer)ANN as Kernel LearningDeep LearningLooking at Parameters Activation Function앞 장에서 Activate Function을 st..