본문 바로가기

Tensorflow33

[Tensorflow] [DNN] 실전 예제 코드 딥러닝(DNN)을 이용한 MNIST 손글씨 인식¶  MNIST 손글씨 데이타 셋¶      MNIST 데이터셋은 미국 국립표준기술원(NIST)이 고등학생과 인구조사국 직원등이 쓴 손글씨를 이용해 만든 데이터로 구성70,000개의 28*28 글자 이미지에 각각 0부터 9까지 이름표를 붙인 데이터셋70,000개 = 60,000개의 학습 데이타셋 + 10,000개의 테스트 데이타셋으로 구성 In [ ]:# 경고 무시import warningswarnings.filterwarnings('ignore')  1. 데이타 불러오기¶텐서플로우 저장소에서 MNIST 데이터셋 다운로드 In [ ]:# 텐서플로우 저장소에서 데이터를 다운 받기from tensorflow.keras.datasets.mnist import lo.. 2024. 9. 16.
python tensorflow rnn 코드 리뷰, 설명 꿀 팁 안녕하세요. 고명국입니다. Rnn을 공부중인데, 아직 초기 단계라서,, 자세히 공부해 보려고 합니다.약간,,, 고달프지만 :) 해야죠! 개발해야 하는데! pdm 포에버  import numpy as npimport tensorflow as tffrom tensorflow.keras.models import Modelfrom tensorflow.keras.layers import Input, LSTM, Dense, Concatenateimport matplotlib.pyplot as plt# 데이터 생성 (임의의 예시 데이터)num_samples = 1000timesteps = 10input_dim1 = 5input_dim2 = 3# 랜덤 데이터 생성data1 = np.random.random((num_s.. 2024. 5. 13.
[Tensorflow] 사이트 모음 CNN 대박https://pasus.tistory.com/266 [LSTM] 주가 예측LSTM(Long Short-Term Memory)이 시계열 예측(timeseries forecasting)에 특화되어 있다보니 주식 가격을 예측해보는 간단한 LSTM 예제 코드가 Github등에 많이 나와 있다. '주가예측'만큼 학습용 데이터를 손쉽게pasus.tistory.com 코드# import librariesimport numpy as npimport pandas as pdfrom tensorflow.keras.models import Sequentialfrom tensorflow.keras.layers import LSTM, Densefrom tensorflow.keras.optimizers import A.. 2024. 2. 15.
[Tensorflow] [RNN] [세 번째 이야기] Word embedding word embedding 희소 표현의 경우 (Sparse Representation) 강아지 = [ 0 0 0 0 0 01 000] ..... ex) 10000차원 밀집표현 (Dense representation) 강아지 = [0.2 1.8 1.1 -2.1 ... ] 이 벡터의 차원은 ex) 128 , / 128 로 설정한 경우. 이경우 벡터의 차원이 조밀해졌다고 말함, 밀집 벡터 2. word to vector 앞서 원-핫 벡터는 단어 벡터 간 유의미한 유사도를 계산할 수 없다는 단점이 있음을 언급한 적이 있었다. 그래서 단어 벡터 간 유의미한 유사도를 반영할 수 있도록 단어의 의미를 수치화 할 수 있는 방법이 필요하다. 이를 위해서 사용되는 대표적인 방법이 워드투벡터(Word2Vec)이다. Word.. 2024. 1. 16.
[Tensorflow] [RNN] [두 번째 이야기] 원 핫 인코딩(one_hot_encoding 이란?) 원 핫 인코딩(one_hot_encoding 이란?) 원 - 핫 인코딩은 단어집합의 크기를 벡터의 차원으로 하고, 표현하고 싶은 인덱스에 1의 값을 부여하고, 다른 인덱스에는 0을 부여하는 단어의 벡터 표현 방식. 두가지 과정으로 정리 1) 정수 인코딩 수행 - 각 단어에 고유한 정수를 부여 2) 표현하고 싶은 단어의 고유한 정수를 인덱스로 간주하고, 해당 위치에 1을 부여하고, 다른 단어의 인덱스의 위치에는 0을 부여. ex) 나는 자연어 처리를 배운다 ['나', '는', '자연어', '처리', '를', '배운다'] 각 토큰에 대해서 고유한 정수를 부여. 문장이 짧 떄는 빈도수를 고려하지 않지만, 빈도수 순으로 단어를 정렬하여 정수를 부여하는 경우가 많다. 단어집합 : {'나' : 0, '는' : 1,.. 2024. 1. 15.
[Tensorflow] [RNN] [첫 번째 이야기] [LSTM] https://ctkim.tistory.com/entry/LSTMLong-short-time-memory-%EA%B8%B0%EC%B4%88-%EC%9D%B4%ED%95%B4 LSTM(Long short time memory) : 기초 이해 LSTM(Long Short-Term Memory)은 시계열 데이터의 예측, 자연어 처리, 음성 인식, 이미지 분류 등에서 중요한 역할을 하는 모델 중 하나입니다. 이 글에서는 LSTM의 개념, 동작 원리 등에 대해 상세히 알아 ctkim.tistory.com 여기만큼 잘 설명한 곳이 없는 듯합니다.강추!! 2024. 1. 15.
[Tensorflow] [Backpropagation] 딥러닝 오차 역전파(Back-propagation) 정확히 이해하기 — 쑥쑥 크는 조이 (tistory.com) 딥러닝 오차 역전파(Back-propagation) 정확히 이해하기 이번 글에서는 뉴럴 네트워크(또는 신경망, Neural Network)에서 가중치(Weights)를 최적화(Optimization) 하기 위해 사용하는 오차 역전파(Back-propagation)의 과정을 직접 계산하면서 이해해보도록 하겠습니 nanunzoey.tistory.com 여기가 정말 제일 잘 정리했습니다. 강추.!! 2024. 1. 13.
[Tensorflow] Subclassing API #Subclassing API #Class 에서 기본적인 __init__, call method 정의 후 model 객체 생성 import tensorflow as tf Class MyModel(tf.keras.Model) : super(MyModel, self).__init__() self.flatten = Flatten(input_shape=(28,28)) self.d1 = Dense(128, activation = 'relu') self.d2 = Dense(10, activation = 'softmax') def call(self, x) : x= self.flatten(x) x=self.d1(x) return self.d2(x) model = MyModel()a 2024. 1. 11.
[Tensorflow] Function API #Function API #함수 형태로 laer 모델 정의 가능 : Define 부분만 달라짐. import tensorflow as tf inputs = tf.keras.Input(shape =(28.28)) x = tf.keras.layers.Flatten()(inputs) x1 = tf.keras.layers.Dense (128, activation = 'relu')(x) predictions = tf.keras.layers.Dense(10, activation = 'softmax')(x1) model = tf.keras.Model(inputs = inputs, outputs = predictions) 2024. 1. 11.
[Tensorflow] keras model 구성, 훈련 및 평가 import tensorflow as tf mnist = tf.keras.datasets.mnist (x_train, y_train) , (x_test, y_test) = mnist.load_data() x_train, x_test = x_train / 255.0, x_test /255.0 model = tf.kearas.models.Sequential([ tf.keras.layers.Flatten(input_shape(28,28)), tf.keras.layers.Dense(128, activation = 'relu') tf.keras.layers.Dense(10, activation = 'softmax') ]) model.compile(optimizer = 'adam', loss = sparse_cat.. 2024. 1. 11.
[Tensorflow] 변수 variable 설명 __init__(initial_value = None, trainable =True, dtype - None,) ex) var_1 = tf.Variable(10) var_2 = tf.Variable(20, dtype = tf.float64) var_3 = tf.Variable(30, name = 'VAR Weight') Variable의 초기 값 설정 방법 tf.zeros(shape,dtype) 모든 원소가 0인 tensor 생성 tf.ones(shape, dtype) 모든 원소가 1인 tensor 생성 tf.eye(num_rows, num_columns, dtype) 항등 행렬 생성 ex) var_1 = tf.Variable(tf.zeros((2,3))) var_2 = tf.Variable(tf.one.. 2024. 1. 11.
[Tensorflow] Tensor 설명 쉽게 설명하면 N차원 행렬이다. 2024. 1. 4.