티스토리챌린지

    [ML/DL 스터디] <GAN - 3> Generative Adversarial Networks - 3

    Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsGAN - Loss Function (MinMax Problem)Non-Saturating GAN LossConditional GAN Non-Saturating GAN LossGenerator의 objective function인 $\underset{G}{min} \ E_..

    [ML/DL 스터디] <GAN - 2> Generative Adversarial Networks - 2

    Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsGAN - IdeaGAN - Intuition, MechanismGAN - Loss Function Generative Adversarial Networks (GAN) - Idea앞 장에서까지는, $p_{model}$과 $p_{data}$를 구하여, 그 사이의 loss를 ..

    [ML/DL 스터디] <GAN - 1> Generative Adversarial Networks - 1

    Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsDiscriminative Model, Generative ModelProbability DistributionDeterministic Transformation by Network Discriminative Model / Generative Model우리가 앞에서 Sup..

    [ML/DL 스터디] Fully Convolutional Networks (FCN)

    Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsCAEFully Convolutional Networks (FCN)SegmentationSkip Connection Fully Convolutional Networks (FCN) - Motivation여기까지는 Computer Vision을 위한 Deep Learning을..

    [ML/DL 스터디] Convolutional Autoencoder (CAE)

    Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsConvolutional Autoencoder (CAE)Transposed Convolution Convolutional AutoencoderMotivation: 이미지는 어떻게 Autoencoder에 적용시킬 것인가?Autoencoder의 목적이란 → Input을 Out..

    [ML/DL 스터디] Transfer Learning

    Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsPre-trained ModelsTransfer Learning Transfer Learning (전이학습)모델을 완전 처음에서부터 학습시키는 일은, 때로는 몇 시간, 몇 일, 나아가 몇 주가 걸리는 경우도 허다하다.다행히도 많은 이미 학습된 모델들이 사용할 수 있도록 공..

    [ML/DL 스터디] <CNN - 3> Class Activation Map (CAM), Gradient-Weighted CAM (Grad-CAM)

    Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsClass Activation Map (CAM)Global Average PoolingGradient-weighted CAM (Grad-CAM) Class Activation Map (CAM)Deep Learning은 앞에서 학습한 것처럼, 현존하는 다른 알고리즘보다 성능..

    [ML/DL 스터디] <CNN - 2> Convolutional Neural Networks

    Referencehttps://iai.postech.ac.kr/teaching/machine-learninghttps://iai.postech.ac.kr/teaching/deep-learning위 링크의 강의 내용에 기반하여 중요하거나 이해가 어려웠던 부분들을 정리하여 작성하였고,모든 강의 슬라이드의 인용은 저작권자의 허가를 받았습니다.또한, 모든 내용은 아래 Notion에서 더 편하게 확인하실 수 있습니다.>>노션 링크 KeywordsCNN - MotivationCNN - StructureFilter, Kernel, ChannelPadding, Stride, ReLU, Pooling Motivation of CNN우선 어떤 Motivation으로 CNN이 고안되게 되었는지 부터 확인하자.위의 사진들에서..