오블완
[ML/DL 스터디] <CNN - 1> Convolution, Kernel
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsConvolution (1D, 2D)KernelImage ConvolutionConvolution이란?두 signal(신호)중 한 신호를 reverse(뒤집고), shift(이동)시킨 후, 그 둘의 product(곱)을 Summation(or Integrate)하는 것이다..
[ML/DL 스터디] <AE - 1> Autoencoder
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsAutoencoderDim. ReductionAE as Generative Model Autoencoder이미 앞 장(ML)에서 Unsupervised Learning이 무엇인지, 그리고 Dimesional Reduction과 그 방법 중 하나인 PCA에 대해서 학습하였다..
[ML/DL 스터디] <ANN - 4> Vanishing Gradient, Batch Normalization, Dropout
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsNonlinear Activation FunctionVanishing Gradient ProblemBatch NormalizationDropout (Regularization) Nonlinear Activation Function: Vanishing Gradient Pro..
[ML/DL 스터디] <ANN - 3> Training ANN, Backpropagation
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsOptimizationLoss Function, Gradient DescentBackpropagation Training(Fitting) ANN: OptimizationNeural Network를 training하는 과정⇒ MLP 구조의 weight, bias들을 trai..
[ML/DL 스터디] <ANN - 2> Artificial Neural Network (ANN) - 2
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsActivation Function (tanh, ReLU)ANN (Multi-layer)ANN as Kernel LearningDeep LearningLooking at Parameters Activation Function앞 장에서 Activate Function을 st..
[ML/DL 스터디] <ANN - 1> Artificial Neural Network (ANN) - 1
Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsPerceptron, NeuronXOR ProblemMulti-Layer Perceptron(MLP)Aritificial Neural Network(ANN)Activation Function, Sigmoid From Perceptron to MLPBinary Linear ..