맷플롯립(Matplotlib) - 데이터를 차트나 플롯으로 시각화 - Matplotlib의 주요 모듈인 pyplot은 plt라는 명칭으로 import 하는 것이 관례 import matplotlib.pyplot as plt 라인 플롯(plot) plt.plot() : 라인 플롯을 그림 : x축과 y축의 값을 기재하고 시각화 import matplotlib.pyplot as plt plt.plot([1,2,3,4],[2,4,8,6]) plt.show() 제목 및 축 레이블 삽입 plt.title() : 그래프의 제목 삽입 plt.xlabel() or plt.ylabel() : x축 or y축에 축 이름 삽입 plt.title('test') plt.plot([1,2,3,4],[2,4,8,6]) plt.xla..
넘파이(Numpy) - 수치 데이터를 다루는 파이썬 패키지 - 벡터 및 행렬을 사용하는 선형 대수 계산에서 주로 사용 - Numpy는 np라는 명칭으로 import 하는 것이 관례 import numpy as np np.array() - 리스트, 튜플, 배열로 부터 ndarray를 생성 - 축의 개수(ndim)와 크기(shape) 존재 import numpy as np vec = np.array([1, 2, 3, 4, 5]) print(vec) print("vec의 타입 :", type(vec)) [1 2 3 4 5] vec의 타입 : - 2차원 배열을 만들 때는 array() 안에 하나의 리스트만 들어가므로 리스트의 리스트를 넣어야 함 mat = np.array([[10, 20, 30], [40, 50..
https://youtu.be/viZrOnJclY0 Word Embedding - 단어를 인공 신경망 혹은 다른 머신러닝 알고리즘에 넣기 위해서는 단어를 숫자로 변환해야 함 - 비슷한 문맥에서 사용된 단어는 비슷한 숫자가 되도록 해야 함 - 같은 단어라도 다른 문맥에서 사용되면 먼 숫자가 되도록 해야 함 - Backpropagation을 이용하여 가중치 값 조정 Word2Vec - 더 많은 문맥을 포함하도록 하는 Word Embedding 방법 중 하나 ① Continuous Bag of Words : 주변 단어를 사용해서 중간 단어 예측 ② Skip Gram : 중간 단어를 사용해서 주변 단어 예측
https://youtu.be/YCzL96nL7j0 LSTM(Long Short-Term Memory) - RNN의 기울기 폭등/소실 문제 해결하기 위해 만들어짐 - Long-Term Memory와 Short-Term Memory를 둘 다 사용하여 결과값 도출 - 시그모이드(Sigmoid) 함수와 하이퍼볼릭탄젠트(tanh) 함수 사용 시그모이드 함수 : x 값에 따라 y 값이 0과 1 사이로 나타남 : 어떤 입력값이 들어와도 0과 1 사이로 반환 하이퍼볼릭탄젠트 함수 : x 값에 따라 y 값이 -1과 1 사이로 나타남 : 어떤 입력값이 들어와도 -1과 1 사이로 반환 LSTM의 진행 과정 Long-Term Memory : 가중치와 편향 없음 => 기울기 폭등/소실 문제 해결 Short-Term Memor..
https://www.youtube.com/watch?v=AsNTP8Kwu80 가상의 주식시장 설정 - 신경망은 우리가 예측에 사용하는 순차 데이터가 얼마나 많은지에 유연해야 함 - RNN은 다른 양을 가진 입력값을 처리할 수 있다 RNN - weight, biases, layers, activation functions, and feedback loops 가지고 있음 - feedback loop는 순차적인 입력값 사용 가능 주식 가격 예측 어제 가격 : 0 / 오늘 가격 : 0 일 때, 내일의 가격 예측 ① 어제의 값과 오늘의 값을 순차적으로 입력값에 대입 ② 어제의 값을 입력값에 넣고 w1, b1 activation function으로 중간값 y1 구함 = yesterday input * w1 + b..
오차 역전파(back propagation) - 가중치와 바이어스를 조정하기 위해 사용하는 알고리즘 - 예측 출력과 실제 출력 사이의 오차를 계산한 다음, 이 오차를 계층별로 역방향으로 전파하여 가중치를 적절히 조정 ※ 경사 하강법은 단일 퍼셉트론에서만 가능 구동 방식 1. 임의의 초기 가중치를 준 뒤 결과 계산 2. 계산 결과와 우리가 원하는 값 사이의 오차 계산 3. 경사 하강법을 이용해 바로 앞 가중치를 오차가 작아지는 방향으로 업데이트 4. 1~3 과정을 더이상 오차가 줄어들지 않을 때까지 반복 '모두의 딥러닝 개정 3판'의 내용과 https://github.com/taehojo/deeplearning의 코드 참고