Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
Tags
- 튜토리얼
- TEAM EDA
- Machine Learning Advanced
- 스택
- TEAM-EDA
- 큐
- 입문
- 코딩테스트
- 추천시스템
- 협업필터링
- 알고리즘
- Recsys-KR
- 프로그래머스
- DFS
- pytorch
- eda
- 한빛미디어
- Segmentation
- 엘리스
- 파이썬
- 나는 리뷰어다
- 나는리뷰어다
- Semantic Segmentation
- MySQL
- Object Detection
- Python
- Image Segmentation
- hackerrank
- DilatedNet
- 3줄 논문
Archives
- Today
- Total
목록2019/04/14 (1)
TEAM EDA
Lecture 2: Word Vectors and Word Senses
이번 Lecture2에서는 지난Lecture1(https://eda-ai-lab.tistory.com/120)에 이어 word2vec에 대해 자세히 알아보도록 하겠습니다. 그리고 counting 기법과 GloVe model에 대해서 살펴보도록 하겠습니다. 대부분의 내용은 파리의 언어학도의 글을 토대로 만들었습니다. 1. Review: Main idea of word2vec 지난 시간에 배운것부터 복습해보면, Word2vec는 one-hot-vector의 한계를 극복하려고 등장한 개념입니다. 중심단어가 주어졌을 때, 주변단어가 나타날 확률을 계산하고 window내의 이 확률의 곱을 최대화 하도록 학습을 하게 됩니다. Objective function은 위의 P(o|c)가 되고, 우변의 v는 입력층과 은닉층..
강의 내용 정리/CS224N
2019. 4. 14. 19:40