목록Machine Learning (7)
꾸준하고 즐겁게
Fine Tuning Fine Tuning은 Transfer Learning 이후 다시 한 번 학습을 시키는 것이다. Fine tuning의 목표는 잘 만들어진 모델의 일부분만 우리가 만들 새로운 모델에 차용하는 것이다. 모델의 전체를 Fine tuning하는 것이 아니다. Fine tuning에 앞서 Transfer Learning을 해주어야한다. 이미 학습이 되어있는 모델을 pre-trained model이라고 하고, 그걸 가지고 학습을 시키면 Fine tuning이다. 이전에 Transfer Learning을 하면서 weights를 변경할 수 없게 설정해두었는데, 위 코드의 1번째 줄에서 변경이 가능하도록 만들었다. 2번째 줄에서 베이스 모델의 얼마 만큼부터 학습을 시킬지 수치를 정해 변수에 저장해..

Transfer Learning image-net.org/ ImageNet Mar 11 2021. ImageNet website update. image-net.org 이미지넷이라는 사이트에 열리는 ILSVRC이라는 이미지인식 경진대회가 있다. image-net.org/challenges/LSVRC/ ImageNet Competition The ImageNet Large Scale Visual Recognition Challenge (ILSVRC) evaluates algorithms for object detection and image classification at large scale. One high level motivation is to allow researchers to compare p..

ImageDataGenerator ImageDataGenerator는 이미지 데이터를 학습하기 위한 전처리 과정에서 사용되는 클래스다. 이미지의 디렉토리를 설정하거나, 피쳐스케일링을 하거나, 사이즈를 변경하는 등의 전처리를 파라미터를 통해 간단하게 할 수 있게 해준다. 우리는 이 ImageDataGenerator를 통해 이미지 증강 기법을 실시간으로 간단하게 사용할 수 있다. 이미지 증강이란, 말 그대로 이미지 데이터를 다양하게 부풀리는 것이다. 데이터를 학습하는 일엔 다양하고 수많은 데이터가 필요하다. 예를 들어, 이미지를 입력하면 고양이인지 강아지인지를 분류하는 모델을 만든다고 가정한다. 강아지 고양이들의 정면 사진만을 가지고 모델을 학습시킨다면 어떨까. 분류할 이미지도 강아지 고양이의 정면 사진이라..

ModelCheckpoint 사용 목적 keras.io/api/callbacks/model_checkpoint/ Keras documentation: ModelCheckpoint ModelCheckpoint ModelCheckpoint class tf.keras.callbacks.ModelCheckpoint( filepath, monitor="val_loss", verbose=0, save_best_only=False, save_weights_only=False, mode="auto", save_freq="epoch", options=None, **kwargs ) Callback to save the Keras model or m keras.io 양질의 데이터를 가져다 Preprocessing하고 Hyp..

"콜백은 훈련, 평가 또는 추론 중에 Keras 모델의 동작을 사용자 정의할 수 있는 강력한 도구입니다." www.tensorflow.org/guide/keras/custom_callback?hl=ko 자신만의 콜백 작성하기 | TensorFlow Core 시작하기 콜백은 훈련, 평가 또는 추론 중에 Keras 모델의 동작을 사용자 정의할 수 있는 강력한 도구입니다. TensorBoard로 훈련 진행 상황과 결과를 시각화하기 위한 tf.keras.callbacks.TensorBoard 또는 훈 www.tensorflow.org 링크에 Callback 함수를 만드는 방법이 잘 나와있다. Model을 학습시킬 때 callback 함수를 설정하면 epoch가 끝날 때마다 Callback 함수를 실행하게 된다...

Overfitting과 Underfitting이란? 먼저 Overfitting과 Underfitting에 대해 간단히 알아본다. 위키피디아에 들어갔는데 이해하기 쉬운 설명이라고 생각되어서 가지고 왔다. en.wikipedia.org/wiki/Overfitting Overfitting - Wikipedia From Wikipedia, the free encyclopedia Jump to navigation Jump to search Analysis that corresponds too closely to a particular set of data and may fail to fit additional data Figure 1. The green line represents an overfitted mod..

loss 함수는, 예측한 값과 실제 값을 비교해 얼마나 맞고 틀렸는지의 차이를 수치로 나타내주는 역할을 한다. keras 모델의 Classification에서는 loss function들을 모델링의 문제에 적합한 것으로 골라 사용해야한다. binary_crossentropy : 0 또는 1과 같이 2개의 클래스로 분류하는 문제에서 쓴다. 결과값이 하나로 나온다. sparse_categorical_crossentropy : 3개 이상의 클래스를 정수로 분류하는 문제에서 쓴다. 역시 결과값이 하나로 나온다. categorical_crossentropy : 3개 이상의 클래스로 분류하는 문제에서 쓰는데, 결과값이 One Hot Encoding의 형태로 여러 개로 나온다. ※ 코드를 복사하려면 더보기를 누르세요..