본문 바로가기

Tensorflow/RNN4

python tensorflow rnn 코드 리뷰, 설명 꿀 팁 안녕하세요. 고명국입니다. Rnn을 공부중인데, 아직 초기 단계라서,, 자세히 공부해 보려고 합니다.약간,,, 고달프지만 :) 해야죠! 개발해야 하는데! pdm 포에버  import numpy as npimport tensorflow as tffrom tensorflow.keras.models import Modelfrom tensorflow.keras.layers import Input, LSTM, Dense, Concatenateimport matplotlib.pyplot as plt# 데이터 생성 (임의의 예시 데이터)num_samples = 1000timesteps = 10input_dim1 = 5input_dim2 = 3# 랜덤 데이터 생성data1 = np.random.random((num_s.. 2024. 5. 13.
[Tensorflow] [RNN] [세 번째 이야기] Word embedding word embedding 희소 표현의 경우 (Sparse Representation) 강아지 = [ 0 0 0 0 0 01 000] ..... ex) 10000차원 밀집표현 (Dense representation) 강아지 = [0.2 1.8 1.1 -2.1 ... ] 이 벡터의 차원은 ex) 128 , / 128 로 설정한 경우. 이경우 벡터의 차원이 조밀해졌다고 말함, 밀집 벡터 2. word to vector 앞서 원-핫 벡터는 단어 벡터 간 유의미한 유사도를 계산할 수 없다는 단점이 있음을 언급한 적이 있었다. 그래서 단어 벡터 간 유의미한 유사도를 반영할 수 있도록 단어의 의미를 수치화 할 수 있는 방법이 필요하다. 이를 위해서 사용되는 대표적인 방법이 워드투벡터(Word2Vec)이다. Word.. 2024. 1. 16.
[Tensorflow] [RNN] [두 번째 이야기] 원 핫 인코딩(one_hot_encoding 이란?) 원 핫 인코딩(one_hot_encoding 이란?) 원 - 핫 인코딩은 단어집합의 크기를 벡터의 차원으로 하고, 표현하고 싶은 인덱스에 1의 값을 부여하고, 다른 인덱스에는 0을 부여하는 단어의 벡터 표현 방식. 두가지 과정으로 정리 1) 정수 인코딩 수행 - 각 단어에 고유한 정수를 부여 2) 표현하고 싶은 단어의 고유한 정수를 인덱스로 간주하고, 해당 위치에 1을 부여하고, 다른 단어의 인덱스의 위치에는 0을 부여. ex) 나는 자연어 처리를 배운다 ['나', '는', '자연어', '처리', '를', '배운다'] 각 토큰에 대해서 고유한 정수를 부여. 문장이 짧 떄는 빈도수를 고려하지 않지만, 빈도수 순으로 단어를 정렬하여 정수를 부여하는 경우가 많다. 단어집합 : {'나' : 0, '는' : 1,.. 2024. 1. 15.
[Tensorflow] [RNN] [첫 번째 이야기] [LSTM] https://ctkim.tistory.com/entry/LSTMLong-short-time-memory-%EA%B8%B0%EC%B4%88-%EC%9D%B4%ED%95%B4 LSTM(Long short time memory) : 기초 이해 LSTM(Long Short-Term Memory)은 시계열 데이터의 예측, 자연어 처리, 음성 인식, 이미지 분류 등에서 중요한 역할을 하는 모델 중 하나입니다. 이 글에서는 LSTM의 개념, 동작 원리 등에 대해 상세히 알아 ctkim.tistory.com 여기만큼 잘 설명한 곳이 없는 듯합니다.강추!! 2024. 1. 15.