https://youtu.be/YCzL96nL7j0 LSTM(Long Short-Term Memory) - RNN의 기울기 폭등/소실 문제 해결하기 위해 만들어짐 - Long-Term Memory와 Short-Term Memory를 둘 다 사용하여 결과값 도출 - 시그모이드(Sigmoid) 함수와 하이퍼볼릭탄젠트(tanh) 함수 사용 시그모이드 함수 : x 값에 따라 y 값이 0과 1 사이로 나타남 : 어떤 입력값이 들어와도 0과 1 사이로 반환 하이퍼볼릭탄젠트 함수 : x 값에 따라 y 값이 -1과 1 사이로 나타남 : 어떤 입력값이 들어와도 -1과 1 사이로 반환 LSTM의 진행 과정 Long-Term Memory : 가중치와 편향 없음 => 기울기 폭등/소실 문제 해결 Short-Term Memor..
IMDB 영화 리뷰 데이터 - 영화 사이트 IMDB의 리뷰 데이터로 리뷰가 긍정인 경우 1, 부정인 경우 0으로 표시한 레이블로 구성된 데이터 IMDB 영화 리뷰 데이터 확인 환경 및 데이터 준비 import numpy as np import matplotlib.pyplot as plt from tensorflow.keras.datasets import imdb (X_train, y_train), (X_test, y_test) = imdb.load_data() 데이터 수 확인 - 카테고리 : 긍정 1, 부정 0 category = len(set(y_train)) print('카테고리 :', category) print('훈련용 리뷰 개수 :', len(X_train)) print('테스트용 리뷰 개수 :..
순환 신경망(Recurrent Neural Network, RNN) - 여러 개의 데이터가 순서대로 입력되었을 때 앞서 입력받은 데이터를 잠시 기억해 놓는 방법 - 기억된 데이터가 얼마나 중요한지 판단하고 별도의 가중치를 주어 다음 데이터로 넘김 1. 다수 입력 단일 출력 ex) 문장을 읽고 뜻을 파악할 때 2. 단일 입력 다수 출력 ex) 사진의 캡션을 만들 때 3. 다수 입력 다수 출력 ex) 문장을 번역할 때 LSTM(Long Short Term Memory) - 반복되기 전에 다음 층으로 기억된 값을 넘길지 여부를 관리하는 단계를 하나 더 추가 - RNN의 기울기 소실 문제를 보완 LSTM 예제 - 로이터 뉴스 카테고리 분류 데이터 - 11,228개의 뉴스 기사를 읽고 이 데이터가 어떤 의미를 지..