Word Embedding
- 단어를 인공 신경망 혹은 다른 머신러닝 알고리즘에 넣기 위해서는 단어를 숫자로 변환해야 함
- 비슷한 문맥에서 사용된 단어는 비슷한 숫자가 되도록 해야 함
- 같은 단어라도 다른 문맥에서 사용되면 먼 숫자가 되도록 해야 함
- Backpropagation을 이용하여 가중치 값 조정
Word2Vec
- 더 많은 문맥을 포함하도록 하는 Word Embedding 방법 중 하나
① Continuous Bag of Words : 주변 단어를 사용해서 중간 단어 예측
② Skip Gram : 중간 단어를 사용해서 주변 단어 예측
'AI > NLP' 카테고리의 다른 글
[라이브러리] 넘파이(Numpy) - ndarray, 메소드, 슬라이싱, 정수 인덱싱 (0) | 2023.07.07 |
---|---|
[라이브러리] 판다스(Pandas) - 시리즈(Series), 데이터프레임(DataFrame), 외부 데이터 읽기, 프로파일링(Profiling) (0) | 2023.07.05 |
LSTM(Long Short-Term Memory) (0) | 2023.07.03 |
RNN(Recurrent Neural Network) (0) | 2023.06.29 |
LSTM 감성 분류(Sentiment Analysis) - IMDB 영화 리뷰 데이터 (0) | 2023.06.07 |