ML
-
Serial TrainingML/ML 실습 2023. 12. 5. 16:12
여러개의 모델을 학습 시키는 방법에 대해서 살펴보기 1) parallel(평행하게) 동시에 돌리는 방법 - 터미널 열고 ls (안에 파이썬 파일들 되게 많을 것) - (ex) python3 LeNet5.py - 터미널 하나 더 열어서 - (ex) python LeNet4.py → 따로 따로 같이 돈다. 단점 : 조금만 큰 모델 : GPU 꽉 참.. 2) Serial하게 돌리는 방법 : 단순히 for문으로 돌리는 것은 안됨 ●아그팔스 사용 import argparse parser = argparse.ArgumentParser(description='hyperparpeters for training') parser.add_argumane('-a', type=int, default = None, help='a..
-
Training LeNet5 RevisitedML/ML 실습 2023. 12. 5. 15:25
저번 시간까지 만들어 놓은 function을 이용해서 어떤 결과가 나오는지 보자 import os import tensorflow from tensorflow.keras.losses import SparseCategoricalCrossentropy from tensorflow.keras.optimizers import SGD from utils.learning_env_setting import dir_setting, continue_setting, get_classification_metrics from utils.dataset_utils import load_processing_mnist, load_processing_cifar10 from utils.train_validation_test import..
-
Utility Function- learning env setting**ML/ML 실습 2023. 11. 28. 22:59
● 실수 방지 코드 import os from termcolor import colored from utils.learning_env_setting import dir_Setting dir_name = 'train1' CONTINUE_LEARNING = True path_dict= dir_setting(dir_name, CONTINUE_LEARNING) if(CONTINUE_LEARNING == True and len(os.listdir9path_dict['model_path'])) ==0: CONTINUE_LEARNING = False print(colored('CONTINUE LEARNING flas has been converted to FALSE', 'cyan')) ● continue_settin..
-
Utility Functions - learning env setting*ML/ML 실습 2023. 11. 28. 18:23
모델을 저장해야 나중에 써먹을 수 있다. 디렉터리, 폴더 만들어서 원하는 정보들 저장하자. (학습이 되는 정보들 저장) -- project dictory -- main.py -- model.py -- utils -- basic_utils.py -- cp_utils.py -- dataset_utils.py -- learning_env_setting.py -- train_validation_test.py --train1 -- confustion_matrix -- model -- losses_accs.npz -- losses_accs.visualization.png -- test_result.txt dir_setting 함수의 역할 : ex) cp_path, confustion_path, model_path ..
-
LeNet Imp Model Sub classingML/ML 실습 2023. 11. 28. 17:52
LeNet이 Model Sub classing을 이용해서 만들어진 코드 import tensorflow as tf from tensorflow.keras.models import Model, Sequential from tensorflow.keras.layers import Layer from tensorflow.keras.layers import Conv2D, AveragePooling2D from tensorflow.keras.layers import Flatten, Dense, ZeroPadding2D class LeNet(Model): def __init__(self): super(LeNet1, self).__init__() #feature extractor self.conv1 = Conv2D(f..
-
LeNet Imp with Model Sub classingML/ML 실습 2023. 11. 20. 23:42
LeNet을 Model Sub Classing을 이용해서 Model 만들어 보기 import tensorflow as tf from tensorflow.keras.models import Model, Sequential from tensorflow.keras.layers import Layer from tensorflow.keras.layers import Conv2D, AveragePooling2D from tensorflow.keras.layers import Flatten, Dense, ZeroPadding2D #Model 상속 받음 class LeNet1(Model): def __init__(self): super(LeNet1, self).__init__() #feature extractor se..
-
LeNet Implementation with Sequential APIsML/ML 실습 2023. 11. 20. 23:05
LeNet의 아키텍처 만들어 보기 (Sequential 메소드를 이용해서) import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Conv2D, AveragePooling2D from tensorflow.keras.layers import Flatten, Dense LeNet1 = Sequential() LeNet1.add(Conv2D(filters=4, kernel_size=5, padding='valid', strides=1, activation='tanh')) #컨볼루션 레이어 만들기 LeNet1.add(AveragePooling2D(pool_size=2, stri..
-
Conv and Pooling LayerML/ML 실습 2023. 11. 20. 22:44
CNN(Convolutional Neural Network, 컨볼루션 신경망) Max Pooling Layer가 어떻게 동작하는지 import tensorflow as tf from tensorflow.keras.layers import Conv2D, MaxPooling2D conv = Conv2D(filters=8, kernel_size=3, padding='valid',activation ='relu') #kernel size는 3*3 pool = MaxPooling2D(pool_size=2, strides = 2) #pool_size는 2*2 image = tf.random.normal(mean = 0, stddev=1, shape=(1,28,28,1)) #batch size = 1, channel..